「人を罪に問うことはできるのか」 無意識の構造から考えてみる

AIが発達して来て、AIが搭載された自動運転車が事故を起こした場合、責任の所在が議論される時代になりました。遠くない未来の世界で、運転手もいない自動車が人を撥ねたら、その責任は誰が負うべきでしょうか。自動車メーカーでしょうか。メーカーが責任を負うとしても、その裏で今度はAIのハードウェアが問題なのか、ソフトウェアが問題なのかなどの話もあります。

発売時点では安全だったということなら、事故を起こすような運転方法の学習をAIにさせてしまった者が悪いという考え方もあります。それは必ずしも持ち主とは限りません。例えば他の自動車が歩行者を軽んじているのを通りすがりに認識し続けたら、そのAI自動車も人間を軽んじることを学習してしまう可能性があります。その場合、そうしたインプットを存在させた者の責任かもしれません。

ここで着目すべきは、AI自動車そのものに罪を負わせ、処罰することはできないということです。AI自動車にそのような事故を起こさせるようにした誰かが存在し、その責任を問うのが当たり前と考えられています。(AI自動車はスクラップにされるかもしれませんが、それは処罰ではなく再発防止策でしょう。)

実は人間の脳も自分で意志判断をしていないということが明らかになりつつあります。

「『自動車購入の価格交渉をする模擬実験では、硬い椅子に座った被験者はディーラー相手に強硬な交渉をし、ソファに座った被験者は価格の引き上げに柔軟に応じた。やわらかな感覚は、気持ちまでやわらかにするのだ。』(中略)こういった現象は行動経済学などで「プライミング効果」と呼ばれ、特に感情面での効果について、「感情プライミング」と呼ぶこともあります。」

これはこのブログの記事『日常生活の中で常に書き込まれ続ける暗示』に書いた一節です。人間の脳も独自に何かの意志判断をしているのではなく、元々遺伝子的に組み込まれている脳回路に外部からどんどん後天的な情報が投げ込まれ、AIのように学習した結果、さまざまな処理ができるようになるのです。おまけにその場のソファの感触によってさえ、知らないうちに判断が左右されるのです。そこに本人の意志はありません。

このように考えると、本人の意志がない以上、人間の総ての言動は、脳へのそれまでの先天的・後天的インプットの結果であることになり、AI搭載自動車と同様に責任を問うたり罪を問うたりするのは無理という考え方も成り立ちます。

実際に『あぶない法哲学…』の中で著者の法哲学者の住吉雅美はこの考え方に言及しています。脳に投げ込まれ書き込まれる各種の情報の中で、人為的に最も深く影響を与える情報が催眠暗示であると考えることができます。

人間の思考や言動がどのように決まるかを考える時、催眠技術の持つ影響力の大きさやリスクについて思い知らされるのです。

☆参考書籍
 『ポスト構造主義っぽく読み解いてみた!
  〜「意識が消えてしまった世界」で「適応的無意識」を操る最強の技術 催眠〜 下巻
 『あぶない法哲学 常識に盾突く思考のレッスン