トップページへ

テスラ自動運転機能による事故

車の運転のコツ » 09運転ブログ » 092車生活 » テスラ自動運転機能による事故

テスラ社は、純EVのみの同社ラインナップとともに、いち早く導入した運転支援システムであるオートパイロットを大きな特徴としています。先進的イメージにより、新興メーカーにも関わらず、広く世界に販売していますが、その一方で特徴的な事故も絶えません。

2021年夏には、新たな動きとして、アメリカの運輸当局がテスラ車を事故多発のかどで調査を開始したと報じられました。下記がその記事になります。


"テスラのオートパイロットで死亡事故、当局が調査  8/18(水) 12:01配信 

 ニューヨーク・タイムズやウォール・ストリート・ジャーナルなどの米メディアは8月16日、米運輸省高速道路交通安全局(NHTSA)が米テスラの電気自動車(EV)に備わる運転支援システム「オートパイロット」の正式調査を開始したと報じた。 

 調査の結果次第では、テスラに対しリコール(回収・無償修理)や新たな安全装置の導入を義務付ける可能性があるという。 

■停車中の緊急車両に衝突する傾向

 調査対象となるのは、2014年~21年に製造された「モデルY」「モデルX」「モデルS」「モデル3」で、計約76万5000台。これらの大半は米国で製造された。 

 ニューヨーク・タイムズによると、NHTSAはこれまでテスラのオートパイロットが関与したとみられる約25件の衝突事故を調査してきた。うち8件の事故で10人の死者が出た。中には運転席で寝ていたというものもあった。注意散漫だったり、完全に運転操作を放棄したりして起きた事故もあったという。"
https://news.yahoo.co.jp/articles/35b917513a430b7a4c2090e87f415b9b230a75e5


記事でも分かる通り、「オートパイロット」であるにも関わらず、原因は「注意散漫」だという、矛盾を感じる現状となっています。これは、自動運転レベルでいう、レベル2相当の機能である運転支援の機能に対して「オートパイロット(自動運転)」という名称をつけたこと。そして、そのPRとして、人間のドライバーが運転するのは時代遅れ、とも言わんばかりのCMなどを広めたことによって、社会一般および購入者に、誤解を広めたことが遠因でしょう。

自動運転レベル2においては、運転席に座るドライバーがすべての責任を負います。仮に自動運転レベル3であっても、場所や状況を限定してのシステム任せ、という程度であって、運行行程全般の大半はドライバーが責任を追うのです。つまり、自動運転レベル4以上、すべての場面でシステムが運転する環境に到達しない限りは、ドライバーは安全管理の責任を免れることはないのです。

日本でも一部メーカーが、ことさら「自動運転」という言葉をCMで用いたり、新聞やテレビなどのメディア大手が自動運転の特集で誇張したりと、米国と似たような道筋を歩んでいます。実際に自動車販売店店員が、自動ブレーキの機能を誤認して事故を起こしたりと、米国と似たような誤解はすでに起こっています。

投資家向け広報的な意味合いもあってか、自動車メーカー各社は、開発中の自動運転技術を先んじてアピールしようとする動きが目立ちます。しかし、拙速な広報は米国のような死亡事故を含む悲劇を生みます。そもそも、理想とする完全自動運転というのは、AIがカオス系での完全機能を実現するまでは、実用化することができません。これは当サイトでも繰り返しのべていますが、仮に人間が運転する車よりも事故率が低くなったとしても、自動運転車が社会に広く受け入れられる可能性は低いものです。

日本では、パラリンピック選手が、選手村で自動運転バスに引かれて怪我をし、競技の出場を断念せざるを得なかったという大きな出来事があったばかりです。拙速に普及を狙うことは、結果的に自動運転車が広まることを妨げる結果になるのではないでしょうか。

このページ『テスラ自動運転機能による事故』をメールで送る

« 前の記事へ

次の記事へ »

トップページへ