AIと倫理 — 功利主義の視点から考える自動運転の判断
はじめに — 機械は「正しい判断」を下せるか
自動運転車の開発が加速するなか、ひとつの古典的な思考実験が現代に蘇っています。トロッコ問題 — 暴走するトロッコの進路を切り替えれば5人が助かるが、別の1人が犠牲になる。あなたならレバーを引くか。
この問いは哲学の教室を飛び出し、いまやシリコンバレーのエンジニアたちが真剣に向き合う設計課題になりました。自動運転のAIが瞬時に「誰を守り、誰を犠牲にするか」を判断しなければならない場面は、決して架空の話ではありません。
ベンサムの計算と機械の親和性
ジェレミー・ベンサムが唱えた功利主義は、「最大多数の最大幸福」を道徳の基準に据えます。行為の善悪はその結果がもたらす快楽と苦痛の総量で決まる — この原理は、定量的な最適化を得意とするAIと驚くほど相性が良いように見えます。
実際、MITの「モラル・マシン」実験では、多くの回答者が「より多くの人を救う」選択肢を支持しました。数の論理は直感にも訴えかけるのです。
しかし、ここに功利主義の古くからの難点が顔を出します。
功利主義の限界 — 少数者の犠牲は正当化されるか
功利主義を機械的に適用すると、少数者の権利が体系的に無視されるおそれがあります。たとえば、歩行者1人を犠牲にすれば車内の3人が助かるとき、AIは常に歩行者を犠牲にすべきでしょうか。
J.S.ミルは「快楽には質的な差がある」と主張し、ベンサムの量的功利主義を修正しました。しかし、「質」をどうアルゴリズムに落とし込むかという問いに、明快な答えはまだありません。
さらに、功利計算には誰の幸福を数えるかという前提の問題が潜んでいます。乗客の安全を最優先するメーカーのインセンティブと、社会全体の幸福最大化は必ずしも一致しません。
カントなら何と言うか
功利主義の対極にあるカントの義務論は、人間を「手段としてのみ扱うな」と命じます。この視点に立てば、誰か一人を他者の利益のために犠牲にする判断は、その人の人格の尊厳を侵害するものです。
カント的なAIは「結果にかかわらず、人を殺す判断を能動的に下してはならない」と設計されるかもしれません。しかし、「何もしない」という選択もまた、結果としてより多くの死を招きうるのです。
現代への示唆 — 答えのない問いと向き合う技術
トロッコ問題の本質は、「正解がない状況でどう判断するか」という問いにあります。AIに道徳的判断を委ねる時代において、私たちが問うべきは次のことでしょう。
- 透明性 — AIの判断基準は公開され、社会的な議論の対象となっているか
- 民主的正統性 — 道徳的な設計選択は、エンジニアだけでなく市民の合意に基づいているか
- 責任の所在 — 事故が起きたとき、誰が責任を負うのか
功利主義は出発点としては有用ですが、それだけでは足りません。哲学が2500年かけて議論してきた道徳の複雑さを、数行のコードに還元することはできないのです。
おわりに
自動運転のトロッコ問題は、AI時代に哲学がいかに切実な学問であるかを示しています。ベンサムもミルもカントも、21世紀のテクノロジーを想像していなかったでしょう。しかし彼らが残した問いの枠組みは、まさにいま、私たちが最も必要としているものです。
「最大多数の最大幸福」という原理は、それを誰がどのように計算するかを問わなければ、空虚なスローガンに終わる。