自動運転車によって誰が死亡するでしょうか? マシン、できるだけ多くの人を救ってください、しかし何よりも私を救ってください!
技術

自動運転車によって誰が死亡するでしょうか? マシン、できるだけ多くの人を救ってください、しかし何よりも私を救ってください!

車の自律システムが、差し迫った事故の際に誰を犠牲にするかを迅速に選択しなければならない状況が発生した場合、それはどのように対応する必要がありますか? 歩行者を救うために乗客を犠牲にしますか? 必要に応じて、たとえば車で旅行しているXNUMX人家族など、余裕を持って歩行者を殺しますか? それとも、彼は常に最初に身を守るべきですか?

カリフォルニア州だけでもすでに1社以上の企業が個人検査の許可を取得しているが、業界が倫理的ジレンマに直面する態勢が整っているとは言い難い。 現在、彼はより基本的な問題、つまりシステムの操作とナビゲーションの効率性、そして単純に衝突や予期せぬ出来事の回避に取り組んでいます。 最近のアリゾナ州での歩行者殺害事件やその後の衝突事故 (XNUMX) のような状況では、これまでのところ、問題は単にシステムの故障に関するものであり、車のある種の「倫理的な選択」に関するものではありません。

金持ちと若者を救う

路上でこの種の意思決定を行う際の問題は、抽象的な問題ではありません。 経験豊富なドライバーなら誰でもそれを証明できます。 MITメディアラボの研究者らは昨年、2014年に開始した調査で収集した世界中の回答者からのXNUMX千万件以上の回答を分析した。彼らが「倫理マシン」と呼んだ調査システムは、同様の質問に対する回答が世界の地域によって異なることを示した。

最も一般的な結論は予測可能です。 極端な状況では 人々は動物の世話よりも人を救うことを好み、できるだけ多くの命を救うことを目指しており、高齢者よりも若い傾向にあります (2)。 また、あまり明らかではありませんが、救助に関しては男性よりも女性、貧しい人よりも地位の高い人、車の乗客よりも歩行者を優先する傾向もあります。.

2. 車は誰を救うべきですか?

ほぼXNUMX万人の回答者が人口統計学的質問票に記入したため、彼らの好みを年齢、性別、宗教的信念と相関させることができました。 研究者たちは、これらの違いは人々の決定に「重大な影響」を与えなかったと結論付けましたが、いくつかの文化的影響に注目しました。 たとえば、フランス人は推定死亡数に基づいて決定を比較検討する傾向がありましたが、日本ではその重点が最も少なかったのです。 しかし、日出ずる国では、欧米よりも高齢者の生活が大切にされています。

「私たちの車が彼ら自身の倫理的決定をすることを許可する前に、私たちはこれについて世界的な議論をする必要があります。 自律システムに取り組んでいる企業が私たちの好みを知ると、それに基づいてマシンで倫理的アルゴリズムを開発し、政治家は適切な法的規定を導入し始めることができます」と科学者は2018年XNUMX月にNatureに書いています。

モラルマシンの実験に参加した研究者の一人、ジャン=フランソワ・ボヌフォン氏は、ホームレスよりも地位の高い人々(幹部など)を救出する傾向が憂慮すべきであると発見した。 彼の意見では、これは次のことに大きく関係しています 特定の国の経済的不平等のレベル。 不平等がより大きい場合には、貧しい人々やホームレスを犠牲にすることが優先されました。

特に、回答者によれば、以前の研究の XNUMX つは、自動運転車はたとえ乗客を失うことを意味するとしても、できるだけ多くの人を保護する必要があることを示していました。 しかし同時に、回答者は、このようにプログラムされた車は購入しないとも述べた。 研究者らは次のように説明した。 人々はより多くの人を救うことがより倫理的であると考える一方で、利己的でもあり、これは顧客が利他的なシステムを搭載した自動車を購入することに消極的であるというメーカーへのシグナルである可能性があります。。 少し前に、メルセデス・ベンツ社の代表者は、もし自社のシステムが一人だけ救えるとしたら、歩行者ではなく運転手を選ぶだろうと述べた。 国民の抗議の波により、同社は宣言の撤回を余儀なくされた。 しかし研究によれば、この聖なる憤りには多くの偽善があったことが明らかになっている。

これはすでに一部の国で起こっています。 法的規制への初の試み フィールドで。 ドイツは、自動運転車に人身事故や死亡事故を何としてでも回避することを義務付ける法律を可決した。 この法律は、アルゴリズムが年齢、性別、健康状態、歩行者などの特性に基づいて決定を下すことは決してできないとも規定している。

アウディが担当

設計者は、車の動作によるすべての結果を予測することはできません。 現実は、これまでテストされたことのない変数の組み合わせを常に提供する可能性があります。 これは、そもそもマシンを「倫理的にプログラミング」できる可能性に対する私たちの信念を揺るがします。 「車の欠陥により」エラーが発生し、悲劇が起こった場合、その責任はシステムの製造者と開発者が負うべきであるように私たちには思われます。

おそらくこの推論は正しいかもしれませんが、おそらくそれが間違っていたためではありません。 むしろ、2019年にそれを実現する可能性がないわけではない運動が許可されたからです。 それが理由のようで、同社は共同責任を回避しておらず、最近、自動トラフィックジャムパイロット(2)システムを使用中に8年落ちのA3が関与した事故の責任を負うと発表した。

3. アウディ トラフィック ジャム パイロット インターフェイス

一方で、車を運転し、間違いを犯す人も何百万人もいます。 それでは、多数の間違いが証明しているように、統計的に人間よりもはるかに間違いが少ない機械が、なぜこの点で差別されなければならないのでしょうか?

自動運転車の世界における倫理と責任のジレンマが単純であると誰かが考えるなら、考え続けてください...

コメントを追加します