★阿修羅♪ > 経世済民110 > 879.html
 ★阿修羅♪  
▲コメTop ▼コメBtm 次へ 前へ
テスラ車の死亡事故から、人類が学ぶべき「絶対にやってはいけないコト」 大切なのは、責任追及ではないんです(現代ビジネス)
http://www.asyura2.com/16/hasan110/msg/879.html
投稿者 赤かぶ 日時 2016 年 7 月 17 日 07:34:45: igsppGRN/E9PQ kNSCqYLU
 

             自動運転機能「オートパイロット」作動中の様子 〔PHOTO〕gettyimages


テスラ車の死亡事故から、人類が学ぶべき「絶対にやってはいけないコト」 大切なのは、責任追及ではないんです
http://gendai.ismedia.jp/articles/-/49147
2016年07月17日(日) 島崎敢 現代ビジネス


文/島崎敢(心理学者)


テスラの死亡事故はなぜ起きたのか。ドライバーに責任があるのか、それとも自動運転に欠陥があるのか。いやいや、大切なのは「誰のせいか」ではないんです。リスク管理のプロ、島崎氏が解説します。


アメリカの電気自動車メーカー、テスラ・モーターズの自動車がトレーラーと衝突事故を起こし、ドライバーが5月7日亡くなった。今回の事故は自動運転機能である「オートパイロット」作動中に発生したもので、自動運転中に発生した最初の死亡事故ではないかと言われている。


自動運転と交通事故という2つのトピックが合わさると、必ず沸き起こるのが「誰が責任を取るのか」という議論だ。今回の事故でも「ドライバーはDVD視聴中か?」という報道が出て話題になっている。テスラ社はオートパイロット作動中も安全の責任を負うのはドライバーであると主張しているが、一方でアメリカの運輸省はシステムの動作に問題がなかったか調査を始めている。


今回の事故が誰の責任かはさておき、この事故を参考に責任追及と原因究明について考えてみたい。


■人間の脳が不得意なこと


運転全体を100とした場合、古典的な運転は、人間とシステムが受け持つ割合が100:0になる。完全な自動運転は0:100ということになるが、現在はこの中間的な段階だ。90:10ぐらいの状態。つまり、大部分を人間が運転し、システムが少しだけ助けてくれるぐらいの段階で起きた事故がドライバーのせいだと言われても違和感はない。


もう少し自動化が進んで、 50:50ぐらいになってくると話は少しややこしくなってくる。受け持ち割合が同じぐらいだと、人間とシステムの意思決定の対立が生まれて操作を取りあう可能性が出てくる。人間は左に避けたいのにシステムは右に避けたい場合、ハンドルを取り合っているうちに衝突するということが起こりかねない。


ただし、これは対立が起きた時にどちらに権限を移譲するのか、あらかじめ決めておけば大した問題にはならない。例えば「対立が起きたらシステム側は権限を人間に明け渡す」と決めていれば、人間がどうにかすればよいわけだ。この場合も責任が人間だと言われても違和感はない。


問題はさらに自動化が進んで、人間対システムの割合が10:90とか1:99になっていった場合である。人間がほとんど運転する場合には、人間にはやらなければならない仕事がたくさんある。ところが、システムの割合が多くなればなるほど、人間側の仕事は減っていく。そして最終的には「ほとんど問題は起きないが、ごく稀に問題が起きた時だけ人間が対処する」という状況になるが、これは人間にとって不得意なことなのだ。


というのも、人間の脳は省エネにできているので、仕事がないときは休もうとして覚醒レベルを落とす。あるいは覚醒レベルを維持するために他の刺激を見つけようとする。テスラのドライバーがDVDを見ていたかどうかはわからないが、運転のほとんどが自動化されてやることがなくなってくると、ドライバーの覚醒レベルは下がってしまう。


そして、すごく低い確率なのかもしれないが、そんな油断しきった状態の時に、システムから突然運転を移譲されるのだ。しかも運転を移譲されるのは、システムがお手上げになったとき、つまり、かなりシビアな状況の時だ。


このような状況下で常に適切な対処をせよ、というのはいささかムチャぶりだ。だからこういう状況下でも「事故はドライバーの責任」と主張するのは無理があるのかもしれない。一方で、事故をシステムの責任にしてしまうとメーカーが負う責任が大きすぎるという主張も理解できる。ここは議論の余地がある部分だ。


■「わしたは げんき です。」


システムを作る側は、そのシステムを使用している「人間の特性」を理解する必要がある。人間の特性とはどのようなものだろうか。例えば手品を見ている時を思い出してほしい。私たちは何とかしてタネを明かしてやろうと手品師の手元を集中して見る。しかし、多くの場合、タネは私たちが集中しているところには隠されておらず、私たちが別のところに注意を向けている間に仕込まれていることが多い。


手品師の仕事とは、タネのないところに人々の注意を集中させることで、タネがあるところに注意を向けさせないことだ。私たちの注意には一定の量があって、何かに深く注意すると広い範囲は見渡せなくなり、逆に広い範囲を見渡そうとすると、どこかに深く注意を向けられなくなる。


「こんちには みさなん おんげき ですか? わしたは げんき です。」という文章、文字の順番が間違っていてもなんとなく読めてしまう。これは私たちが文章を読むときに全ての文字を拾って読んでいるからではなく、経験と予測を使いながら文字列を塊として捉えているからだ。そうでもしないと、私たちは文字を覚えたての子供が絵本を読む程度の速度でしか文章を読めない。


注意の量が限られているのも、物事を予測的に先入観を持って捉えてしまうのも人間の特性だ。このような人間の特性を理解してシステムを作らないと、人間対システムのミスマッチによる事故が発生してしまう。


例えば1994年に起きた中華航空140便墜落事故は、自動操縦システムと人間の対立が原因だ。現在はもちろん改善されたが、作る側が、作る側の論理でシステムを構築すると、人間とシステムのトラブルが起きかねないのである。


■「2億キロに1人」の法則…?


話を自動運転に戻そう。今後も自動運転による事故は発生するのだろうか。数字の面から見てみる。日本にあるすべての車の走行距離を合計すると年間8000億キロほどになるそうだ。そして日本の交通事故死者数は年間およそ4000人。犠牲者は2億キロに1人という数字になる。


一方、テスラの自動運転機能「オートパイロット」は今回の事故までに2億キロの走行実績があるそうだ。こちらも2億キロに1人という数字になる。国が違うので一概に比較はできないが、数字は概ね同じになる。この数字で見ると、自動運転のリスクは高いだろうか、低いだろうか。


気をつけなければいけないのは、テスラの事故はまだ1件なので、統計的な分析の代表値としては問題があるという点だ。つまり、テスラの2件目の死亡事故は「オートパイロット」の総走行距離が2.1億キロの時に起きてしまうかもしれないし、総走行距離100億キロまで起きないかもしれないのだ。


また、システムが起こした事故と、人間が起こした事故には根本的な違いがある。仮に今回の事故で何故システムが適切にトレーラーを回避できなかったかが調査され、その解決策が見つかり、世界中のテスラが解決策を組み込んだ最新のソフトウエアにアップデートされたとする(現にテスラは車に搭載されているソフトウエアが定期的にアップデートされることを売りにしている)。


そうすると他のテスラは、少なくとも同じ状況下での事故は起こさなくなる。こういったことが繰り返されると、自動運転の車が起こす事故は長期的に見れば減っていく可能性が高い。


■スイスチーズモデル


事故リスクを減らすという観点から見ると、今回のテスラの事故でも「事故は誰のせいか」という議論はあまり意味がないことに気づく。テスラのシステムに重大な欠陥がなかった場合、恐らくドライバーの責任ということで方がつくだろう。


そんなことはないと信じたいが、ここで例えばテスラ社が「事故はドライバーの責任だから我々が対策をする必要はない」と考え、原因究明やそれに基づいたソフトウエアの改善などを行わなかったらどうなるだろうか。対策が行われなければ世界のどこかでまた似たような事故が起きてしまうはずだ。



リーズンの「スイスチーズモデル」 図:著者作成


事故のメカニズムについて、心理学者リーズンは「スイスチーズモデル」を提唱している。危険源は常にあって、その手前に穴のあいたスイスチーズが何枚か並んでいる。普段は穴が重なっていないので事故は起きないが、たまたま運悪く穴が重なってしまうと事故になる。


なるほどよくできたモデルだ。事故を防ぐには、穴をたくさんみつけて1つ1つをなるべく小さくしたり、チーズを増やしたりする。そして対策のどれか一つでも効果を発揮すれば事故は防げるはずだ。


■責任を押し付けても仕方がない


今回のテスラの事故では、(これはまだ憶測ではあるが)ドライバーがDVDを見ていたかもしれないこと、テスラのシステムがトレーラーを検出できなかったこと、白いトレーラーの側面が背景に溶け込んでしまったことなどが原因だと言われている。また、衝突後の問題として、テスラがトレーラーの下に潜り込んでしまったためにドライバーが死んでしまった可能性がある。


これに対して、(人間の特性からはちょっと無理があるのかもしれないが)ドライバーがシステムの限界を正しく理解して監視をしておく、システムがトレーラーを見落とした原因を調べて見落とさないように改善する、トレーラーの側面塗装は背景に溶けこまないように単色にしない、側面から衝突した車が下に潜り込まないようにサイドバンパーをつけておくなど、対策はいくつも実行可能だ。


そしてどれか1つでも効果を発揮すれば最悪の事態は防げる。もちろんトレーラー側には責任はないのだが、なるべくたくさんのチーズの穴を小さくするには、「誰の責任か」は置いておいた方が良いのだ。


何か事故が起きた時に、そこにたまたま居合わせて、たまたまやらかしてしまった人に責任を押し付けても、原因究明は進まない。原因究明がされなければ、同じような事故がまた起きる。自分がもしやらかしてしまった人と同じ立場にいたとして、「自分ならやらかさない」と絶対の自信を持って言えない場合には、仕事の内容が「人間の特性」に合ってない可能性が高い。こういう場合は「人間が気をつける」以外の複数の対策をするべきだろう。


本人に悪意がある場合を除いて、一番悪い人を探してその人に責任を押し付ける責任追及型の対応では、たった1つのチーズの穴を小さくするだけか、場合によってはたった1つの穴も小さくできない。もっと言えば、こういった対応は、他の穴を見逃す行為でもあるのだ。責任者を断罪することで満足してはいけない。


今回のテスラの事故は稀な例とは言え、自動運転の安全性と責任の所在が議論になった。「誰が悪かったのか」という議論ではなく「どうすれば防げたのか」という議論が加速し、人間が運転するにせよ、システムが運転するにせよ、今回の犠牲が少しでも交通事故リスクの低減に繋がることを願いたい。



シートベルトをしている助手席としていない後部座席、どっちが安全?心配の源は「リスク」にある。物事を”ありのまま”に捉える新しい学問。


島崎敢(しまざき・かん)
心理学など人間側からのアプローチによって事故や災害のリスクを減らそうとしている研究者。国立研究開発法人防災科学技術研究所特別研究員。1976年東京都生まれ。静岡県立大学国際関係学部を卒業後、大型トラックやタクシーのドライバーとして生計を立てる。2002年早稲田大学大学院人間科学研究科に進学、修士・博士の学位を取得し、同大助手、助教を経て現職。著書に『心配学 「本当の確率」となぜずれる?』(光文社新書、2016年)がある。



 

  拍手はせず、拍手一覧を見る

コメント
 
1. 2016年7月17日 08:35:02 : 6jC6Ok4X3M : r9HiorRuc1w[616]
自動運転中に起こった事故は機械の責任に決まっている、運転者が居ると言っても自分で運転していない状態で緊急事態に対処しろなんて無理に決まっているだろう、常に緊急事態を想定して緊張しているんなら自分で運転した方がずっと楽だろう。
事故が起これば対策が取られるから安全が増すなんて理屈は事故が起こり得る状況が幾つになるか(おそらく数百万有るだろう)分からなければ何人死ねば安全なのか分からないだろう。

2. 2016年7月17日 09:20:00 : oiWKuSeSBo : y_2dt9ua7uM[13]
テスラから金を貰って,テスラの責任逃れの加担をしているな。

3. 2016年7月17日 17:33:28 : aiU2ted1Zo : uWOUb7TLPnk[1]
何も問題は無いだろう
テスラが運転者の責任と言った時点で、余程おつむの弱い人で無い限りこの車を買う人はいない
事故で亡くなった方はお気の毒だと思うが、今後自動運転を使う人は自己責任という事だ

4. 佐助[3660] jbKPlQ 2016年7月17日 17:33:56 : 9zzRTyeBxk : 4eYUJw@wYHY[101]
(現代ビジネス)は二番煎じの技術革新遅延グループ

何回読んでもわからん,手放ししたときに自動制御に切り替わらなければならない。
結露や雨で見えないのに自動制御車だから手放し?わけわからん。こんなものインチキと言う。

量産前に市場で実用性の実験を繰り返し,問題点を洗い出し,一つ一つ具体的に対策することでしょう,対策出来ないのなら設計上の責任を追及して,何が可笑しいのか洗い出し安全性をクリアしていかなければならない。設計的な責任を追及しないと誰も対策しないで逃げることを提案する。それではよくならない。

原発は危険を無視し安全神話で騙した,そして地震と津波のセイにしている。対策していれば福島事故原発は避けられた可能性がある。そこに既得権基と政治の利権や官僚の天下りがあり,国民は騙されながら寛容だ。全く同じだ。特に日本人は誰かが飛躍的なアイディアを提供すると,我こそはと飛びつき参加意欲を見せる,選挙と同じで勝ち馬に乗ろうとする。失敗すると責任を放棄して逃げる。呆れます。しかも歩いてしまってから考える。欧米では考えられない人種であろう。

現在の技術では自動制御に絶対はない。気象条件・道路の状況・自然界・センサーの異常・コストなど日常的に雨・嵐・結露・光・太陽光線・地震・津波・噴火などクリアが難しい条件が潜んでいる。しかもセンサーは,故障もするし見逃すこともエラーもある。特にカメラになると曇るし結露や夜間は暗視付きルックスでないと誤作動する。そして何よりもオペレータか自動制御のシステムについて何も知らないし熟せない。勿論メガネ有り無しと同じように自動制御システム講習に講義を受けない人は運転してはならない。

乗用車は無人車ではない,運転手が必ずいます。自動車の自動制御はオペレータ優先回路でない車の自動制御はあり得ないのです。手伝い・手助け・危機,危険を予知し回避することが出来る自動制御でオペレータ優先回路が望ましい。

無人車にするのなら原発動力をやめてすべて太陽電子電池に切り替え,高速道路の路肩に水素発電と電磁波起電による二足走行で安全性二重にして高速道路の上に走らせる,磁気浮上鉄道があります,原発の動力でない太陽電子電池にすればコストも安く永久電池となる。また電子にすると壁をよじ登る,地下をもぐらのように掘削する,空中を飛ぶことも,ロボットに変身できるようにしなければならない。流通が画期的に変わる。そのうち電子噴射式になろう,リニアモーターカーはなんなのと言うことになる。原発再稼動するための既得権益としか考えられない。

乗用車の自動制御は,運転手が突然意識不明になったり,雪道カーブで横滑りしたり,視界不良になったり,疲れて居眠りしたり,渋滞で暴走したり,駐車上から落下したりする危機を予知し防止することであり,手放ししたときに自動制御に切り替わらなければならない,しかもセンサーが反応しなくなったらすみやかに停止する機能がなければならない。そしてコストが絡むので,エンジンレス車が本命で,産業革命を加速させなければならない,現在,既得権益を失うために政府は,ばら撒きなどで逃げている。このエンジンレス化は建設機械からダンプや乗用車まで,そして家庭や工場の動力まで画期的に変えられるのです,政府と官僚とマスコミが必死に圧力をかけて遅延させている。今回の産業革命は経済・金融・信用・多極化などすべてクリアする。

真の原因が分かれば解決できない現象はない。古い科学思考は、隣接する空間&異なった空間レベルの固有の法則を無視し、同一の空間と錯覚して、やってみなければ分からない経験科学による試行錯誤は当然と考える。自然は、空間ごとの原理は確定的だが、空間区分せず、統一された原理で作動すると錯覚すると時間がかかる。、


  拍手はせず、拍手一覧を見る

フォローアップ:


★登録無しでコメント可能。今すぐ反映 通常 |動画・ツイッター等 |htmltag可(熟練者向)
タグCheck |タグに'だけを使っている場合のcheck |checkしない)(各説明

←ペンネーム新規登録ならチェック)
↓ペンネーム(2023/11/26から必須)

↓パスワード(ペンネームに必須)

(ペンネームとパスワードは初回使用で記録、次回以降にチェック。パスワードはメモすべし。)
↓画像認証
( 上画像文字を入力)
ルール確認&失敗対策
画像の URL (任意):
投稿コメント全ログ  コメント即時配信  スレ建て依頼  削除コメント確認方法

▲上へ      ★阿修羅♪ > 経世済民110掲示板 次へ  前へ

★阿修羅♪ http://www.asyura2.com/ since 1995
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。
 
▲上へ       
★阿修羅♪  
経世済民110掲示板  
次へ