トップページへ

自動運転車の事故率を見てはダメ

車の運転のコツ » 09運転ブログ » 092車生活 » 自動運転車の事故率を見てはダメ

自動運転車の事故


当サイトで何度か取り挙げている自動運転車の開発ですが、米ラスベガスで新たな事故が発生しました。下記の記事でも課題に触れていますが、危惧されている問題点については、まだまだ解決の糸口がつかめない模様です。下記は当サイトの過去記事です。

 

まずはニュース記事をご覧ください。

●その自動運転バスの公道走行は、「衝突事故」から始まった──「人間」が絡む課題の数々が浮き彫りに
 引用元 https://wired.jp/2018/01/28/las-vegas-shuttle-crash/

自動運転シャトルバスの実験的走行が世界各地で拡大し、ラスヴェガスでは公道での走行が始まった。
ところがスタート早々にトラックにぶつけられる“災難”に見舞われた。人間という「ミスが不可避な存在」への対策が求められるなか、自動運転シャトルバスの公共交通としての可能性について改めて考える。

米国における自動運転シャトルバスの時代は、「衝突」から始まった。実際には軽微な衝突だと、シャトルバスの運営側はコメントしている。

2017年11月8日(米国時間)にラスヴェガスの公道で、運転手のいない小型のシャトルバスの運行が開始した。 担い手は、フランス最大の公共交通輸送サーヴィスを提供し、多国籍で事業展開するケオリス(Keolis)と、フランスの自律走行車メーカーであるナヴィヤ(Navya)、そして米国自動車協会(AAA)だ。

このバスは電気自動車(EV)で、乗客を不安にさせないために係員が1人搭乗。8人の乗客を乗せてフレモントストリートの娯楽地区を約800mのループ状に走行していた。

衝突が起きたのは、運行を始めてからわずか1~2時間後のことだ。ケオリスとAAA、さらに実際にバスに乗っていた男性が 「Digital Trends」に投稿した内容によると、シャトルバスは路地に入ろうとバックしていた配送トラックに遭遇して停車した。

この際、すぐ後ろに別のクルマが来ていたので、後退できなかったという(バスに乗っていた男性の報告によると、後方には6mほどの余裕があり、人間の運転手であれば後退しただろうという)。シャトルバスは、配送トラックがゆっくりとバックしながらバスに当たるまで、その場でただ待機していた。

少なくともクラクションを鳴らすことはできたはずだが、ケオリスの説明によると、自動運転システムが予期しない方法でトレーラーが動いたため鳴らさなかったのだという。AAAのジョン・モレノは、「今回のケースは、われわれが回避しようと努力を続けている人的ミスの格好の例です」と述べている。

 

●自動運転の事故件数が、人間ドライバーを下回れば良い訳ではない理由

今回の自動運転車事故の例は、まさに典型例と言えそうです。記事にある状況で、普通のドライバーであればトラックの動きを予測して、可能な限りバックしてあげるか、クラクションを鳴らして自車の存在を知らせるでしょう。バックするスペースがないなら、場合によっては車を降りてトラックと後続車と言葉を交わして、後続の車列がそれぞれバックしてトラックにスペースを空けるでしょう。そうしないと先に進めないのが明白であれば、誰でもそうするのではないでしょうか。

しかし、AIは予測をしません。人間ドライバーならば、トラック側がこちらに気づいているかどうかが動きで分かりますが、AIの場合は相当数のレアケースの学習を重ねないと無理です。とはいえ、数が少ないからレアケースなのであり、「滅多にない場面だから事故に巻き込まれた」では人間ドライバーと同じです。

このように、人間ドライバーならば起きるはずがない事故が起こってしまう限りは、いくら人間よりも事故全体の件数が少なくなったとしても、自動運転車の普及は望めません。これは、人間の直感と心理的なものが問題ですので、論理的に「事故件数が少なくなれば、自動運転にシフトしていく」とはならないのです。

この現象は社会の他の分野でも頻繁に見られるもので、牛肉のBSE問題や北朝鮮脅威論など、政治経済の話題でもよく見受けられます。毎年発生する食中毒よりも少ないリスクにもかかわらず、全数検査が成されるまで一時輸入禁止措置が取られた牛肉BSE問題や、死者も怪我人も発生せず、軍事的な小競り合いすら発生していない北朝鮮を、あたかも日本人全体の脅威であるかのように過大評価する手法など。これらの問題では、確率論や論理的な計算だけでは、全く世間の情勢を見通すことはできません。

いくら件数が少なくても、ドライバーのいない無人の車が、(人が運転すれば回避できるのにもかかわらず)回避もせずに一直線に衝突に向かっていくのをただただ車内で見守るのは、恐怖以外の何物でもありません。

従って、自動運転車が万人に受け入れられるために必要なのは、事故の絶対件数を少なくすることではありません。そうでははく、次の点が必要になります。

開発者と運営母体が、これに気づいて対策を取らない限り、今後発生するであろう予想外の事故が毎回ニュースでセンセーショナルに取り上げられ、普及が足踏みをしてしまうでしょう。解決のためには現行のエンジニア集団だけでなく、社会学者の参加が不可欠ですが、現状の取組を見る限りでは、普及が遅れてしまいそうなのが残念です。

グーグルが無人の自動運転車を実証実験していた際も、人間のドライバーが運転していれば発生しなかったであろう事故が頻繁しました。やや急なブレーキを掛ける際、人間であれば追突されないように少し後続車のための余裕を残しつつブレーキを掛けるものです。グーグルの自動運転車は、危険とあらばフルブレーキで、機械だからこその最短距離での制動を行っていたものと見られます。その証拠に、「追突された」事故が最も多かったと発表されています。グーグルは「人間のドライバーだから追突事故を起こしたのであり、自動運転車ならばこのようなミスは起こらない」という趣旨の声明を発表しています。本記事の声明と非常に似ています。しかし穿った見方をすれば「追突させた」という格好であるとも受け取れます。人間は機械のようには最短距離で制動できません。したがって、上記2番目のように、人間の直感に寄り添った動きにすることが非常に大切です。

このページ『自動運転車の事故率を見てはダメ』をメールで送る

« 前の記事へ

次の記事へ »

トップページへ