古代・近代・現代・東洋 哲学の分類

AIに「道徳法則」は実装できるか?カントの義務論で考えるAI倫理の根幹

2025年7月10日

AIに「倫理」を教える、と聞いた時、私たちはつい「より良い結果」を計算させることを想像しがちです。「5人を救うために1人を見殺しにする」というトロッコ問題のように、被害を最小化し利益を最大化する功利主義的なアプローチです。

しかしもし倫理とは「結果」の問題ではなく、その行為がそれ自体として「正しい」か「間違っているか」の問題だとしたら?もし私たちの行動を律するべき、いかなる状況でも揺らぐことのない絶対的な「義務」が存在するとしたら?

この厳しくも気高い倫理の地平を切り拓いたのが18世紀ドイツの哲学者イマヌエル・カントです。彼はAI倫理の議論が「結果」に偏りがちな現代に、「それはそもそも人としてなすべきことか?」という最も根源的な問いを改めて突きつけます。

理性が見出す、たった一つの「善」

カントが生きた啓蒙時代、人々は道徳の根拠を神の教えや人間の感情に求めようとしました。しかしカントはそれらをすべて退けます。神を信じない人もいるし、感情は移ろいやすく人によって違う。彼が道徳の唯一の根拠として信頼したのは、人間が人間である限り普遍的に持っているはずの「純粋な理性」でした。

カントはこう断言します。この世で無条件に「善い」と言えるものはただ一つしかない。それは「善い意志(ぜんいし)」であると。

「善い意志」とは一体何でしょう?それは自分の個人的な好み(傾向性)からでもなく、良い結果を期待する(功利)からでもなく、ただそれが「なすべきことだから」という純粋な「義務」の意識から行動しようとすることです。

例えばある店主が客に対して常に正しいお釣りを渡していたとします。もしその理由が「評判が落ちるのが怖いから(結果を懸念)」であったり、「その客のことが好きだから(好み)」であったりするなら、カントに言わせればその行動に道徳的な価値はありません。もし店主がただひたすらに「不正をせず正しい行いをすることこそが人間としての義務だから」という義務感からそのように行動しているならば、その時そしてその時に限りその意志は真に「善い」のです。

あなたの「ルール」は、宇宙の「法則」になりうるか?

ではその「義務」とは具体的に何なのでしょうか。カントは純粋な理性が私たちに絶対的な道徳命令として課すたった一つの根本的な法則があると言います。それが「定言命法(ていげんめいほう)」です。

その最も有名な形式はこうです。 「あなたの行動の基にあるルールが、いつでもどこでも誰にでも当てはまる普遍的な法則となることを、あなたが意志できるようなそんなルールに従ってのみ行動しなさい」

これは行動する前に自分にこう問いかけることを意味します。「もしこの状況で世界中のすべての人が私と同じ行動を取ったらどうなるだろうか?」と。もしその結果、矛盾が生じたり誰も望まないような世界になったりするのなら、その行動は道徳的に「間違っている」のです。

例えば「嘘をつく」という行為。もし誰もが自分の都合の良い時に嘘をつくことが普遍的な法則になったとしたら、「真実」という概念そのものが崩壊し誰も他人の言葉を信じなくなります。そうなると「嘘をつく」という行為自体が相手を騙すという目的を達成できなくなり自己矛盾に陥ります。だからカントの哲学では、どんなに良い結果が生まれそうでも「嘘をつく」ことは絶対的に間違った行為なのです。

もう一つの重要な形式はこうです。 「あなた自身や他の誰かを単なる『手段』としてのみ扱わず、常に同時に『目的』として扱いなさい」

これは人間は誰であれ道具ではないという宣言です。すべての人間はそれ自体が尊厳を持つかけがえのない「目的」的存在です。お金を得るために人を騙す。それは相手をあなたのお金儲けの「手段」として利用しているだけであり、相手の人間としての尊厳を踏みにじっているということになります。

AI倫理に「カントの法則」を適用する

さてこの厳格なカントの倫理をAIの設計に適用したら何が見えてくるでしょうか。

  • アルゴリズムは「普遍化」に耐えられるか? AIが下す一つひとつの判断。例えば融資の審査や採用の決定。その判断の根拠となっているアルゴリズムに対してカントのテストを適用するのです。「もしこのアルゴリズムの判断基準が世界中のすべてのシステムで普遍的に採用されたとしたら、それは公平で合理的な社会を築くだろうか?」と。もしAIが「特定の地域の出身者は融資審査で不利にする」という偏ったデータから学習したルールを使っていたとしたら、この「普遍化テスト」によってそのルールがいかに非倫理的であるかが即座に明らかになるでしょう。
  • AIは、人間を「目的」として扱っているか? この問いは現代の多くのAIサービスへの最も鋭い批判となります。例えばユーザーの利用時間を最大化するために心理学的なトリックを駆使して中毒性の高いコンテンツを推薦し続けるSNSのAI。それはユーザーを広告収益やデータを得るための「手段」としてしか見ていません。ユーザー自身の知的な成長や心の平穏といった「目的」を完全に無視しています。カント的なAIはこのような人間を道具として扱う操作を断じて行わないでしょう。自律型致死兵器(LAWS)が人間を軍事目的達成のための「手段」として消去するのもこの原則に根本から反します。

AIは、真に「カント的」な道徳主体になれるか

ではカントの法則を完全にプログラムされたAIは道徳的な「君子」のような存在になれるのでしょうか。カント自身はおそらく「ノー」と答えるはずです。

なぜならカントにとって道徳的な行為とは、自らの「自律(アウトノミー)」によって自由意志で道徳法則を選択しそれに従うことだからです。道徳の主体は自らが「善い意志」を持っていなければなりません。AIはどれだけ複雑になってもその行動は人間が与えたプログラムに従っているに過ぎません。AIは義務感から「善」を選んでいるのではなくただ命令を実行しているだけです。それは「自律」ではなく他者によって律せられる「他律」の状態です。AIには「善い意志」が原理的に宿らないのです。

またカントの倫理は非常に厳格です。「いかなる場合も嘘をついてはならない」。では友人をかくまうため、ドアの向こうの殺人鬼に嘘をつくのは間違いなのでしょうか。多くの人間は結果を考慮し嘘をつくことが「正しい」と感じるはずです。この人間の道徳的直観と厳格なルールの間の乖離は、純粋なカント的AIが時に恐ろしく非人間的な判断を下しかねない危険性を示唆しています。

結論:AIのためではなく、AIを作る「人間」のための道徳法則

AI自身は自律的な「善い意志」を持てない以上、真のカント的な道徳主体にはなり得ません。

しかし「定言命法」はAIを設計し運用する私たち「人間」にとって、これまでになく強力でそして不可欠な「倫理的な羅針盤」となります。

問うべきは「AIはカント的になれるか?」ではありません。問うべきは「私たちAIの開発者や政策決定者は、このAIを世に送り出すにあたってカント的な義務を果たしているか?」なのです。

私たちは自らが開発するAIのアルゴリズムが普遍的な法則となることを心から意志できるか?私たちは自らが設計するシステムが常にいかなる人間も、単なる利益のための「手段」としてではなくかけがえのない「目的」として扱うことを保証できるか?

カントの哲学は道徳的なAIそのものを与えてはくれません。その代わり新しい知性を創造するという神にも似た力を持ってしまった私たち人間に、従うべき「義務」のありかを厳粛にしかしはっきりと指し示してくれるのです。