無人化する危険と責任

 ドローンを使えば、戦地において無人で軍事活動を展開することができる。その時、戦地で味方の人命を失う心配はない。そのため、軍事活動が無差別的になる危険がある。そこには、もう戦争のルールはない。

 自動車も無人運転化の開発で、各社が競争している。

 無人化は、デジタル化のおかげで実現可能になった。でも、ドローンによる軍事活動でもわかるように、そこにはいろいろな問題がある。

 自動車の無人運転で問題になるのは、事故を起こす危険がある時だ。事故の可能性については、あらゆる場面を想定して事前にプログラミングされていなければならない。でも、事故というのはすべてを事前に想定することはできない。

 もう一つ大きな問題は、事故において死者が出ると想定される場合だ。たとえば事故の被害を小さくするため、自動車のハンドルを右に切ると、Aという人物をひいてしまう。ハンドルを左に切ると、Bという人をひいてしまうという場合が想定できる。

 その場合、どうプログラミングするのか。

 もちろん、AとBの怪我の度合いを想定して、負傷度の軽いほうを計算で算出することができると思う。でもそれに差がない場合、どちらかを選択しなければならない。

 それは、倫理問題となる。その場合、どう判断するのか。誰が判断するのか。

 それに関して、ルールのないまま自動車の無人運転化が進んでいるのは、ドローンで無差別攻撃が可能になったのと同じように怖い。

 ぼくはその開発の実態を知るため、ベルリン自由大学で行なわれている人工知能(AI)の研究グループのワークショップに参加してみたことがある。そこでは、自動車の無人運転化の研究開発も行なわれている。

 ジャーナリスト向けのワークショップだったが、ぼくの頭でどの程度わかったかとなると、とても疑問だ。

 ここでなるほどと思ったのは、人工知能の開発において倫理面を導入するため、技術面を開発する自然科学者と、哲学を専門とする人文科学者が一緒に研究開発していることだった。

 倫理問題では一つの選択肢として、カントの倫理学の論理を人工知能に取り入れ、カントの倫理学にしたがって人工知能に判断させようとしていた。

 ただここで、カントの倫理哲学が絶対化されてはならない。カントの倫理を一つの選択肢でしなければならない。この問題に対応するには、開発された人工知能がカントの倫理をベースにしていることとその論理が、オープンにされなければならない。

 そうしないと、人工知能の開発者が倫理問題で全権を握ってしまう。無人運転自動車の事故においても、Aをひくか、Bをひくかも、プログラマーの独自の判断で決断されてはならない。倫理問題は、トップダウン式に政治家や識者だけによって判断されてもならない。

 そこには、ルールが必要だ。

 デジタル化と人工知能に向け、社会全体で倫理問題について議論する枠組みが必要だと思う。そうしない限り、社会はそれに対して責任を持つことができない。

 市民参加をベースとした倫理委員会のようなものが必要になると、ぼくは思っている。そうしないと、デジタル化と人工知能の導入に伴い、民主主義の基盤が崩壊してしまう危険がある。

 この課題には、すぐに取り組まなければならない。

(2020年1月02日、まさお)

この記事をシェア、ブックマークする

 Leave a Comment

All input areas are required. Your e-mail address will not be made public.

Please check the contents before sending.