モラルマシン日本版
準備中...
🚗このコンテンツとは?
「モラルマシン日本版」は、MIT(マサチューセッツ工科大学)の 「Moral Machine」実験に着想を得たインタラクティブコンテンツです。 自動運転車が避けられない事故に直面したとき、AIはどのように判断すべきかという 究極のジレンマを13のシナリオで体験できます。
あなたの回答は9つの道徳的次元(人数・年齢・地位・性別など)で分析され、 世界平均および日本の平均的傾向と比較することで、 自分の道徳的直感がどのような特徴を持っているかを可視化します。
📖遊び方
- 「診断を始める」をクリック:13のシナリオが順番に表示されます。所要時間は約3〜5分です。
- シナリオに回答:各シナリオで自動運転車がどちらを選ぶべきか、AかBを選択します。正解はありません。
- 診断結果を確認:全13問回答後、あなたの道徳タイプと9次元の道徳プロファイルが表示されます。 世界平均・日本平均との比較グラフも確認できます。
- 結果をシェア:診断結果はX(Twitter)やLINEでシェアできます。
🎓MITモラルマシンとは?
Moral Machine(モラルマシン)は、2016年にMITメディアラボの イヤド・ラーワン博士らが開始した大規模オンライン実験です。 世界233の国と地域から4,000万件以上の回答を収集し、 2018年にNature誌に論文が掲載されました。
この研究では、自動運転車が避けられない事故に直面する状況を想定し、 「誰を救うべきか」という道徳的判断が文化圏によって 大きく異なることが明らかになりました。 例えば、西洋文化圏では若者を優先する傾向が強く、 東アジア(日本を含む)では高齢者への敬意が判断に影響する傾向があります。
この実験結果は、自動運転車のAIアルゴリズムをどのように設計すべきかという 現実の政策議論に大きな影響を与えています。
💡自動運転と倫理の課題
プログラムされた道徳
人間のドライバーは瞬間的な判断で事故を回避しますが、 自動運転AIは事前にプログラムされたアルゴリズムに従います。 つまり、「誰を犠牲にするか」をあらかじめ決めておく必要があるのです。 これは「プログラムされた道徳」と呼ばれる新しい倫理的課題です。
文化による違い
MITの研究では、道徳的判断に3つの大きな文化圏クラスターが発見されました。 西洋圏(北米・ヨーロッパ)、東洋圏(日本・中国・韓国)、 南米圏でそれぞれ異なる傾向が見られます。 日本は特に「不作為の許容」「法令遵守者の保護」が 世界平均と比べて顕著な特徴として報告されています。
法的・制度的課題
日本では2023年4月に改正道路交通法が施行され、レベル4自動運転が解禁されました。 しかし、事故時の責任の所在や、AIの道徳的判断の基準については まだ十分な議論が行われていません。 このコンテンツが、そうした議論のきっかけになれば幸いです。
❓よくある質問
Q. モラルマシンに正解はありますか?
いいえ、正解はありません。これは「正しい答え」を出すためのテストではなく、 あなた自身の道徳的直感を可視化するためのツールです。 どの選択にも合理的な根拠があり、文化や個人の価値観によって異なります。
Q. 日本平均・世界平均のデータはどこから?
世界平均はMITの「Moral Machine」実験(2018年、Nature掲載)の データを参考にしています。日本平均は同実験の日本からの回答データおよび 関連する学術研究の知見に基づいた参考値です。
Q. 実際の自動運転車はこのように判断するのですか?
現在の自動運転車は「事故を完全に回避する」ことを最優先に設計されており、 「誰を犠牲にするか」を選ぶようなシナリオは非常に稀です。 ただし、技術的に完全な回避が不可能な場合のアルゴリズム設計は 現在も研究・議論が続いています。
Q. 回答データは保存されますか?
回答データはお使いのブラウザ内でのみ処理され、 外部サーバーには送信されません。安心してお楽しみください。
📚参考文献
- Awad, E. et al., "The Moral Machine experiment" Nature 563, 59-64 (2018)
- MIT Moral Machine — moral.mit.edu
- Bonnefon, J.F. et al., "The social dilemma of autonomous vehicles" Science 352(6293), 1573-1576 (2016)
- 国土交通省「自動運転車の安全技術ガイドライン」
- Michael Sandel, "Justice: What's the Right Thing to Do?" (2009)