AIは誰を助ける?究極の選択「トロッコ問題」で正義を考える
近い未来、あなたが自動運転車に乗って快適なドライブを楽しんでいるとします。 そのとき、突然、数人の子供たちが道の真ん中に飛び出してきました。ブレーキは間に合いません。
AIに残された選択肢は2つ。 「そのまま直進し、子供たちを犠牲にする」か、「ハンドルを切り、壁に激突して乗客であるあなたを犠牲にする」か。
AIは、どちらを選ぶべきなのでしょうか。 そして、その「べき」という判断は、一体誰がプログラムに書き込むのでしょうか。
これは単なる技術の問題ではありません。私たち人間に「正義とは何か」を突きつける、きわめて哲学的な問いなのです。この問題を考えるために、まず、非常に有名な思考実験「トロッコ問題」の世界に入ってみましょう。
究極の選択シミュレーション:「トロッコ問題」
「トロッコ問題」には、いくつかのバージョンがありますが、最も有名な2つを紹介します。
【シナリオ1:レバーを引くか?】
あなたは線路の分岐点にいます。目の前では、制御不能になったトロッコが猛スピードで走っており、その先には5人の作業員が縛り付けられています。このままでは5人は確実に犠牲になります。 しかし、あなたの手元には線路を切り替えるレバーがあります。もしレバーを引けば、トロッコは別の線路に進みます。ただし、その別の線路にも、1人の作業員が縛られています。
あなたはレバーを引きますか?
多くの人は、辛い決断ではあるものの、「1人の犠牲で5人が助かるなら」と、レバーを引くことを選ぶでしょう。
【シナリオ2:人を突き落とすか?】
状況は同じく、トロッコが5人に向かって走っています。しかし今回、あなたは線路の上にかかる橋にいます。あなたの隣には、トロッコを止められるほど身体の大きな人が立っています。 もしその人を橋から突き落とせば、その人が障害物となってトロッコは止まり、5人は助かります。(あなたは飛び降りても軽すぎてトロッコを止められません)
あなたはその人を突き落としますか?
さて、どうでしょう。 シナリオ1と同じく「1人の犠牲で5人が助かる」という計算は成り立ちます。しかし、多くの人は「無関係な人を自らの手で突き落とすなんて、絶対にできない」と強い抵抗を感じるはずです。
哲学ヒント①「結果」が全てだ!功利主義の考え方
なぜ私たちは、この2つのシナリオで異なる感情を抱くのでしょうか。哲学は、この直感の違いを説明するヒントをくれます。
一つ目は「功利主義(こうりしゅぎ)」という考え方です。 これは、「最大多数の最大幸福」をスローガンに、社会全体の幸福や利益が最も大きくなる選択こそが「正しい」とする立場です。とにかく結果を重視します。
功利主義の立場に立てば、トロッコ問題の答えは明快です。シナリオ1でも2でも、「5人が助かる」という最も良い結果になる選択をすべきです。つまり、レバーを引き、そして、人を突き落とすべきだ、と結論づけます。
この考え方を自動運転AIに適用すると、「被害が最小になるようにプログラムする」ということになります。乗客1人が犠牲になることで歩行者5人が助かるなら、AIはためらわずに乗客を守ることをやめるべきだ、というわけです。
哲学ヒント②「行為」そのものが大事だ!義務論の考え方
もう一つのヒントが、「義務論(ぎむろん)」です。 こちらは、結果がどうであれ、「人として決してしてはならないこと」がある、と考える立場です。正しい「行為」や「義務」を守ること自体を重視します。
哲学者のカントは、「他人を、自分の目的を達成するための単なる手段として扱ってはならない」というルールを提唱しました。
この義務論の立場に立つと、トロッコ問題の見え方は変わります。 シナリオ2で人を突き落とす行為は、その人を「トロッコを止めるための道具(手段)」として利用しています。これは、人として超えてはならない一線であり、たとえ結果的に5人が助かるとしても、絶対にすべきではない、と結論づけます。
これを自動運転AIに適用すると、「誰かを意図的に危険に晒すような操作を、自ら行うべきではない」とプログラムすることになるかもしれません。つまり、たとえ乗客が犠牲になったとしても、元々危険に晒されていなかった歩行者などを巻き込むようなハンドル操作はすべきではない、という判断です。
まとめ:答えのない問いに、私たちは答えを出さなければならない
- トロッコ問題は、「結果」と「行為」どちらを重視するかで、私たちの正義感が揺れ動くことを示している。
- 功利主義は「結果」を重視し、全体の被害が最小になる選択を「善」とする。
- 義務論は「行為」を重視し、「決してしてはならないこと」を守ることを「善」とする。
私たち人間でさえ、意見が真っ二つに割れるこの問題。しかし、自動運転AIには、どちらかの(あるいは、さらに別の)倫理観を、あらかじめプログラムとして組み込んでおかなければなりません。
その「正義」は、開発者であるエンジニアが決めるのでしょうか? それとも、車のメーカー? 国? あるいは、「乗客を絶対に守るモード」と「社会全体の被害を最小にするモード」を、車のオーナー自身が選べるようにすべきなのでしょうか?
MIT(マサチューセッツ工科大学)が行った「モラルマシン」という実験では、世界中の数百万人にこの種の問いを投げかけたところ、国や文化によっても判断が大きく異なることがわかりました。
自動運転技術は、私たちに「これが正解だ」という答えを教えてはくれません。むしろ、これまで哲学の教室で語られてきた「答えのない問い」を、社会全体の現実的な課題として突きつけているのです。
この難しい議論から目を背けず、私たち一人ひとりが「どうあるべきか」を考え続けること。それこそが、AIと共存する未来に不可欠なのだと言えるでしょう。
ディスカッション
コメント一覧
まだ、コメントがありません