ロボットの倫理
なんとなく妄想したこと。法律についてはあまり詳しくないので、あくまでたとえ話ですが。
もし巨大な鉄人28号が歩く途中で善良な市民を踏みつぶしたら、それが故意か過失かはともかくとして、責任はリモコンで操縦している正太郎君にあります。
ロケットパンチが機械獣もろとも街を破壊したら、それは兜功児の責任。ビームサーベルで叩き切ったザクの爆発に巻き込まれた技術者が宇宙空間に投げ出されれば、それはアムロの責任です。どちらも、やむを得ない事情ではありますが。
同様に、もしエヴァンゲリオンが人間を握りつぶしたら、責任はパイロットであるシンジ君、もしくはそれを命令したネルフという組織にあるわけです。ここまでは簡単。
では、もしエヴァがシンジ君の意志を無視して勝手に動き出し、その結果だれかを傷つけてしまったら、それは誰の責任になるでしょう?
現行の製造物責任法(PL法)では、一般のソフトウェアの欠陥については、製造者の責任が問われることはありません。しかし、組み込みの制御用プログラムはハードウェアの一部として扱われ、製造物責任が問われることがあります。あのダミープラグってやつは、誰がどう見ても組み込みプログラムでしょうから、エヴァを作った赤木博士(あるいは組織としてのネルフ)に製造物責任が問われるかもしれません。ダミープラグによってアスカを傷つけられたシンジ君が逆上してネルフ本部を破壊するのは、怒りの方向としては製造物責任法からみて正しいと言えないこともないわけです。
しかし、ネルフの大人達も言ってたように、あの場合、エヴァがアスカもろとも使徒をバラバラにしたのは、全人類のためにはやむを得ない事です。ある意味、ダミープラグは仕様通りに正しく動いていたわけで、決してソフトウェアの欠陥ではありません。赤木博士の責任を問うのは、ちょっと無理がありますかね。
前置きが長くなりましたが。
それでは、たとえば鉄腕アトムが量産されて、自分で判断する自律型ロボットが普通に人間と一緒に生活している世界を想像してみます。
ロボットによる弊害はいろいろあっても、労働力とか福祉とかの面で、社会全体としてはロボットによるメリットを享受していて、ロボットなしではなりたたない世界。アトムほど完全に自律したロボットが完成するかはともかく、似たような世界は、近いうちに絶対に実現します。というか、家電のIT化が進んでいる現在の状況は、すでに半分くらいは実現していると言ってもいいのかもしれません。
もちろん、ロボットの頭脳には、良心回路とか、あるいはアシモフの3原則のような、人間を傷つけない仕組みが組み込まれるにちがいありません。それでも、絶対に想定外の状況は起こります。事故が起こるのは避けられません。あきらかな製造上の欠陥や運用ミスは別として、避けられない事故によって自律型のロボットが人間を傷つけてしまったとき、それは誰の責任なのだろうか? 誰に刑事罰を与え、誰が被害者に補償するべきなだろうか?
ロボットの持ち主? ロボットの販売者? 製造者? 認可した政府機関? それとも、ロボット自身?
被害者からすれば、たとえ事故を起こしたロボットをスクラップにしても、それで納得できないだろうなぁ。だからといって、自分で判断する自律型ロボットの行った行為に対してまで、普通の機械と同様にメーカーの製造物責任を問うことは、果たして社会のためになるのだろうか? 社会全体で責任を分担する仕組みが必要かもしれない。
その前に、自分で判断する自律型ロボットと、普通の機械の、厳密な区別が必要か。法律的には難しそうだ。
なんにしても、今までとはちょっと違った倫理が必要な時代が、すぐそこまで来ているのは間違いないのだろうなぁ。
ネタもとは一応このへん。
「ロボット倫理学」の現在:ロボットの責任や精神病もテーマに( WIRED VISION、2009年7月30日)
| 固定リンク
この記事へのコメントは終了しました。
コメント