教習所に通う方、運転の苦手な方向けに練習の仕方とコツを伝授します

運転ブログ

AIの弱点

自動運転にはAIの活用が肝となっていますが、逆にAIだからこその弱点というのも論じられています。
「知能」という名前から、万能感を漂わせていますが、実情は下記の記事にある通り、通常のコンピュータプログラムの延長上にあるものです。
そのAIに運転の全てを頼ることができるのかどうか。これには多くの疑問がつきまといます。長文ですが、記事を引用します。

AIの弱点に振り回される
  これ(引用注;2018年アリゾナで発生した自動運転実験車による死亡事故の原因)は現在のAI(人工知能)の持っている典型的な弱点である。現在のAIというのは「人工(アーティフィシャル)」の「知能(インテリジェント)」とは名ばかりでビッグデータと呼ばれる膨大な情報を統計的に処理して、人間に似た判断へと誤差を縮めていく、つまり統計マシーンに過ぎない。

このAIについては、ディープラーニング技術といって、いかにも「ディープな」思考ができているようなイメージが広まっているが、実際にコンピュータが行なっているのは、ただただ巨大なデータを処理する中で、浮かび上がる特徴的な傾向を集めていく、そうした作業を繰り返しているだけだ。もちろん、その作業自体は多層化されて高度化されている。だが、マシンとして「人間と同じロジック」で判断する能力には至っていない。

その判断のアルゴリズムを作るには、コンピュータが人間の判断を学ぶということがよく行われる。この「人間の判断の学習」だが、実は意外な方法で行われている。近年、ウェブ上で物を買ったり、本人確認をするような場合に、入力しているのは「ロボットではありません」ということを確認させられることがある。

これは「リキャプチャ(reCAPTCHA)」というウェブ上のサービスで、ユーザーは「妙に歪んだ文字」を読まされて「ロボットでないことを証明するために間違えないように読まなくちゃ」とプレッシャーを感じながら入力しているわけだが、このサービスにはウラがある。システムの側では「人間が認識するスペリングの読み方」という「正解」は持っているようで持っていない。反対に、一人一人のユーザーが、妙に歪んだ文字を「読み解いてスペルを入力する」ことで、システムの側が「そうなんだ。人間はそういう風に認識するんだ」という膨大な統計データを集めているのである。ある意味では、誤答の持っている揺れの傾向を調べているのである。

このリキャプチャを開発したのはカーネギーメロン大学だが、その後、その部門をグーグルが買収して現在はグーグルの子会社になっている。そしてグーグル買収前は「OCR(光学式文字読み取り装置)の認識のために人間の判断をマネする」ための活動が主だったのが、今は違ってきている。というのは、グーグルになって以降は、画像を見せて「この中で道路標識はどれですか?」とか「車はどれですか?」、あるいは「商店はどれですか?」などと尋ねてくることが多くなった。

これも種明かしをすると、「不正解者をロボットとみなしてエラーにする」機能もあるのだが、同時に本音として「人間がどんな判断をするのか」を必死になって「ビッグデータ」になるまで収集しているのである。言うまでもなく、標識とクルマの認識は自動運転車向けであり、商店の判別は、ストリートビューを撮影した後に、広告営業をかける対象を絞り込むためだ。そのためにAIに「どんなビジュアルのパターンだと、民家ではなく商店なのか」という判断を学習させているのである。
引用元;自動運転「戦場」ルポ 冷泉彰彦

 


上記の記事でも述べられている通り、AIは統計マシーンであると言えます。膨大なデータを、特定のカテゴライズ処理を経て、確率を計算し、目の前の物体がどのカテゴリーに属する可能性が高いのかを判断する訳です。つまり、結果としての過去の数字を積み重ねることによって、確率的に予測を立てるというスタイルです。そこには、人間のように「なぜそうなるのか」「その結果何が起こりそうか」といった意味づけという概念はありません。

例えば、アリゾナ州の事故のエリアでは、広い道を(信号もないのに)横断しようとする歩行者がもともと多いそうです。AIは、何度も走行学習したり、危険度合いの情報を含むマップデータを読み込んだりして、「ここは無理に横断する歩行者が多発する地点だ」と認識することは可能だったはずです(事故発生の時点ではそこまでしていません)。しかし、なぜこのエリアに無理な横断をする歩行者が多いのか。その結果、どんなことが付随して発生しそうか、といったことまでは、AIは感知しません。

実際には、事故が発生したエリアは、道路の片側に住宅街、反対側には大型シネマを含むショッピングセンターがあるそうです。ショッピングを終えた人が、横断歩道のある交差点まで歩くには遠いため、帰宅のために広い道路を横断する歩行者が後を絶たないそうです。ということは、近所の住人は、車ではなく徒歩や自転車で買い物をすることも多いため、荷物を抱えたまま道路を横断することが予想されます。被害にあった女性も、荷物を運ぶために自転車で出掛けて、大荷物のために自転車を押して歩いたのかも知れません。

このように、意味づけを元に予測する人間と、「無理な横断多発地点」という統計情報だけに基づいて判断するAIとで、運転スタイルが異なるのは当然です。しかし、人間は自分の運転スタイルと異なる場合、恐怖を感じることが知られています。

こうしたAIの性質を、人間的な行動に近づけることが将来的に難しいのであれば、いっそ窓などを全て無くして、外の景色見せないことで、運転スタイルをブラックボックス化した方が受け入れられやすいのかも知れません。事実、車内に運転手がいなくてもロープウェイやジェットコースターなどは、その動きを誰もが受け入れています。自分でも運転できる乗り物に、違った運転スタイルで同乗させるというのは、案外敷居が高いのかも知れません。

こうしたことから、当面はAIの弱点の克服と、判断の仕方を人間の直感に近づけるというのが、当面の目標になるのではないでしょうか。

AIディープラーニングの限界

AIを駆使した自動運転の実験や、限定的に商用利用する試みが広がっています。特にITの先進地区、シリコンバレーを抱えるアメリカでは、先進的な実験が次々と行われているようです。

そんな中、2018年にアリゾナ州で発生した自動運転実験車による衝突死亡事故について状況をまとめた記事が入ってきました。この、人類が初めて経験した、自動操縦による車が人を轢いてしまったという事故の原因が分かってきたようです。そこには、AIのジレンマを垣間見ることができます。下記の引用記事をご覧ください。

 

(アリゾナの事故を受けて)
これに対して、事故から約2ヶ月後の2018年5月7日になって、雑誌『フォーチュン(電子版)』が関係者を取材して得た情報として伝え、さらに連邦交通局が公表した事故調査の結果として公表されたところでは、自動運転システムとしては「対象となる物体」は認識していたそうである。少なくとも、ライダーが無効化されていたり、カメラが認識しなかったといのではないようだ。では、どうしてブレーキの指示が出なかったのかというと、システムが「停止する必要なし」という判断を下し続けたからだという。

 

自動運転車はカメラによる映像情報、レーダーの情報、そしてライダーによる空間スキャン、そして至近距離においては超音波のエコー情報などを「つねに収集し続け」ている。その情報つまり何らかの画像を分析して「当面、自車が進行する方向に障害物がない」ことを確認しながら走り続けてる。音響センサーによる外部の異常音検知もこれに加わる。

その際の判断だが、人間のように理詰めの判断を直感的に瞬時に下すようにはできていない。たとえばシステムは「止まれ」の標識は認識するが、その標識が歪んだり変形している場合に、人間ならばその物体の位置や質感などを感じながら「標識は標識だ」と瞬時に理解する。だが、システムの場合は、傾いたり一部が欠けている標識を「同じ止まれの標識」だと認識するためには、それこそ何十万件という画像処理を経験する中で獲得したアルゴリズム(論理の流れ)によって判断するしかないから、そのレベルに達していなければ「何かを検知」しても、それが「認識不可能(不明な物体)だが危険性はない」と判断した場合は、そのまま進むこともありうる。なぜかというと、「よく分からない」と考えるたびにシステムが停車命令を出していたら乗り心地が悪くなるし、高速の場合だと追突事故の原因にもなりかねないからだ。

報道によれば、今回の事故はシステムが「不明な対象物体」として、停止命令を出さなかったところに問題があるのだという。「風で舞い上がった新聞紙」とか「舞い落ちる落ち葉」といったカテゴリーに落とされていた可能性がある。
引用元;自動運転戦場ルポ

 


今回の事故は、センサーがきちんと人(と自転車)を捉えていたにも関わらず、そのまま速度を落とさずに直進を続けても良いと判断してしまったことに原因がある模様です。判断を下したコンピュータ、つまりAIに問題があったということです。記事では「不明な対象物体」と表現していますが、つまり、AIがディープラーニングをした段階ではデータが不十分である物体です。これに対する認識と、その対処方法に問題があったと考えられます。

学習不足というのはAIだけではなく、人間にももちろん起こり得ます。何かがあるように見えるが、それが何だかまでは分からない。夜間ライトが2つ見えるが、対向する自動車なのか、並走するバイク2台なのか、はたまた自転車なのか、はっきり分からない。道路上にダンボールに見える何かが落ちているようだが、それが何なのか、箱だけなのか中身があるのか、はっきり分からない。このような場面で、人間のドライバーならば、少しだけ速度を落として周囲の車の状況を確認したり、夜間ならライトを上向きにして状況を確認しようとするでしょう。その結果、ダンボール片や新聞紙などであれば、「なーんだ」とつぶやいてそのまま走行していきますし、機材などの落下物であれば、車線変更したりして避けるでしょう。

今回の事故では、このように「分からなければ少し減速する」「何かがありそうだということを周囲にアピールする」「ライトを上向きにする」「(必要なら)軽くクラクションを鳴らす」といった、人間であればごく自然な動きを、ひとつも行わなかったというのが、もっとも怖い点です。それどころか、まったく減速せず、回避するハンドルを切ることもなく、自転車を押す女性を真正面に捉えたまま走り過ぎてしまった訳です。これが、機械が暴走したときの怖さです。自動運転の実験車は、法定速度を守るように設定されますから、決して飛ばしていた訳ではありません。そこから僅かでも減速していれば、衝撃は大幅に少なくなっていたことが想像されます。

もしセンサーが捉えたものが何なのか分からなければ、早めに減速する。後続車にも「何かある」と思わせるように、ブレーキランプを光らせながら、僅かに減速し、問題ないと分かった時点で速度を回復する。近づいてもなお対象物が何なのか分からなければ、安全に(決して急ブレーキではなく)減速していき、最終的には余白を残して停止する。このように、人間にとって自然な動きにすることで、学習不足のもの、未知のものに遭遇しても信頼できるAIになるはずです。以前グーグルの無人運転実験車両が、何度も後方を追突されていましたが、上記のような自然な減速ではなく、急ブレーキを多用していたために追突されたと思われます。周囲の流れに配慮しつつ、よく分からない状況が前方にあれば徐々に減速する。このように、人間的な動きを忠実に追求していくことが、人間のドライバーと混在しながら自動運転車を普及させていく道筋になるのではないでしょうか。

自動運転車のAIが暴走する危険性

開発が進んでいる自動運転技術。そのキモとなるのは、人工知能、いわゆるAIです。従来のコンピュータによるプログラムは、決められた通りにしか動作しないとすると、AIは自ら学習したことに基づいて独自に判断を下すことができます。これだけ聞くと、人間にとても近く、運転だけでなく色々な分野で人間に取って代わる時代も近いのではないかと考えてしまいます。しかし、実態はそうではなく、看過できない問題点をいくつか孕んでいるようです。下記の記事をご覧ください。

 

●自動運転車はなぜ事故を起こすのか…人間は「命に関わるAI」を使いこなせない?

 

―人工知能が人間を支配する2045年問題など、巷(ちまた)では現実感のないAI脅威論が語られることが多いですが、“人間の生死に関わる問題=AIが人間を殺す日”はすでに私たちの足元まで迫ってきていると…。そんな中で今後、AIはどんな方向へと進み、それは人類とどう関わっていくのでしょう?
小林 AIの開発競争はますます過熱し、今後、主流になっていくのが「ニューラルネット(ディープラーニング)」です。これは簡単にいえば脳の仕組みを模倣し、人間がいちいちルールを教え込まなくても、自ら学んで賢くなる機械学習能力を備えた自律型のAI技術のこと。
例えば「自ら標的を定めて突っ込んでいくミサイル」も「病気の発症予測をする医療用AI」も「完全自動運転車」も、この技術が不可欠とも言われます。が、このニューラルネットは内部の情報伝達ルートが複雑すぎて、AIの研究開発に携わる技術者でさえ、その動作メカニズムや思考回路を把握しきれなくなる“ブラックボックス化”の問題が懸念されています。
ブラックボックス化は今後、例えば診断や治療にAIを導入する病院が出てきたとして「この患者は○○という難病に罹(かか)っていて、治療には○○という新薬が有効」とAIが判断しても、その理由や根拠が担当医にもエンジニアにもわからないという事態に繋がります。
また、ニューラルネットを搭載したAI囲碁ソフトが対局中に突如、狂ったような手を連発して自滅することがありますが、そのソフトを開発したエンジニアは「なぜシステムが暴走したのか私たちにも原因はわからない」と言います。これも内部メカニズムを把握できないからです。
現代のAIは、確かに驚くほど高い精度で正解を導き出すことができます。でも、だからといって“ブラックボックス化したAI”を無条件で受け入れ、私たちの生死に関わる重大な判断を委ねることが、果たして賢い選択といえるのかどうか…。
この辺りで一度立ち止まり、人間を不幸にしないAIとの付き合い方を冷静に考えるべき時にきていると思います。
(後略)
引用元;エキサイトニュース

 


記事にあるように、大きな問題点となりそうなのが、判断に至るプロセスのブラックボックス化です。この記事では、医療や囲碁ソフトなどが例示されています。他にも、マイクロソフト社が提供していたネット上のバーチャルキャラクターが、モラル上問題のあるメッセージを連発して一時休止に追い込まれた例も同様です。どのような学習内容が、問題行動につながったのかが、開発者本人にも分からない訳です。

AIが思わぬ判断を下すようになった場合、非常にコントロールが難しいものだと思われます。通常のプログラムのデバックと異なり、学習プロセスは膨大であり、逐一遡っていくのは現実的ではありません。また好ましい学習をするように、部分的に方向付けをしていくのも難しいでしょう。つまり、人間の手が掛からない「自律」へ向かわせると、「管理不能」に向かっていくというジレンマがある訳です。人間の意図を汲み取って管理しやすいようにするには、自律度合いを下げる形になり、自動化、ロボット化から遠ざかってしまいます。

さらに自動運転のプロジェクトでは、別の問題も見えてきます。学習という面に限れば、なるべく多くの車両に様々なケースに遭遇させて、膨大な道路上の「ふるまい」を学習させたいところです。一方で、そうした学習を統合してひとつの優れた学習済みAIを作るのは困難をきわめるでしょう。個々の車両が遭遇したケースは場所も日時も天気も路面も、車両サイズや排気量、タイヤ摩耗度などまちまちであり、一律に同じケースとして統合できるものではありません。個々のケースを人間が検証しながら学習させようにも、多くのデータがブラックボックスと化していれば、膨大な人的資源が必要となり無人化の方向性とは矛盾します。かといって、個々の車両だけに適用される、その車両にオンリーワンのAIということに留めると、走行距離が少ない車両は学習深度が低く、また車両によって判断が異なってしまい実際の路上での「ふるまい」が変わってしまうという問題があります。

マイクロソフトのAIキャラクターのように、SNSにメッセージを発信するだけなら、問題点があればサービス休止をすれば良いでしょう。しかし、車の運転をAIに任せるとなると、万一好ましくない判断をしてしまった場合は、即人命に関わることになります。事故が発生する度にリコールしているようでは、社会的な信頼を得ることはできないでしょう。このあたりが、自動運転車の開発に当たって、非常に難しいところではないでしょうか。

自動運転バスの事故

ラスベガスで乗客を乗せた初の自動運転シャトルバスで、事故が発生しました。期待とは裏腹に、まだ人間の運転に近づくまでには、かなり時間が掛かりそうだという印象を受ける事故内容です。

 

●期待の自動運転バス デビュー早々衝突事故 米国

全米初の自動運転シャトルバスのデビューは、ほろ苦いものとなりました。 

アメリカのラスベガスで8日、全米で初めてとなる自動運転シャトルバスの運用が始まりました。
しかし、開始わずか1時間後にトラックとぶつかる事故が起きます。地元警察によりますと、事故の原因はトラックがバスに気付かずにバックしたためということです。
このシャトルバスは、ラスベガス観光の新しい目玉として期待されていて、乗るのに長い行列ができるほど人気でした。幸い、この事故でのけが人はいませんでした。
このシャトルバスは約1年をかけて進めてられてきたプロジェクトで、テストでは事故は一度もなかったということです。

引用元;ヤフーニュース
https://headlines.yahoo.co.jp/videonews/ann?a=20171110-00000049-ann-int


このニュースを受けて、多くの人が抱いた感想は、「バスを人が運転していたら、ぶつかる前にクラクション鳴らしてたはずだ」というものです。状況にもよりますが、普通のドライバーであれば、自車に気づいていないと思われる前走車に、バックランプが点いた時点でクラクションを鳴らすのではないでしょうか。危険を回避するためにクラクションを鳴らすのは当然の行為です。

事故を起こしたトラックも自動運転の車だったら事故は起こらなかった、という意見もあったようです。しかし、これは極論であり、ジオラマのようなミニチュアの世界の中で、たくさんの自動運転ミニカーを走らせるだけであれば、完璧に事故なく縦横無尽に走らせる技術は既にあるはずです。しかし、それでは人間(や荷物)を運ぶという、車の本分を果たしません。人間の乗り降りはもちろん、人間が道路を使うというリアルワールドで自動運転車を実現させるのであれば、次のことが求められます。すなわち、人間のドライバーが回避できるタイプの事故は、絶対に起こさないこと。その上で、人間のドライバーよりも事故率が低いこと。メーカーは、後者の「事故率」ばかりに目を向けて、前者の「人間なら起こさない事故」を防ぐことに無頓着であるように見えます。つまり、上記記事のシャトルバスのような、クラクションひとつで防げるような事故を、決して起こさないことが非常に大切なのです。なぜなら、たとえ全体の事故率が低かったとしても、このような事故をひとつでも起こすと、利用者の信頼を損なうからです。「やはり人が運転した方が安心だ」となってしまいます。

あらゆる道路で安全運航できる自動運転のためのAIの開発には相当時間が掛かることが予想されます。それまでの間は、できる限り人間との接触を避ける方向で開発するのが折衷案でしょう。その際、電車や新都市交通が採用している安全対策が参考になるのではないでしょうか。


●ゆりかもめや舎人ライナーなどの新都市交通が自動運転のために採用している対策

  • 駅舎はガラス壁とホームドアで完全に人間をホーム室内に留める、閉じ込める
  • 架線を高架とすることで人間だけでなく動物や風による障害物の侵入を避ける
  • 整備歩道を架線と並行にほぼ全線に設けて万一の人的対応がとれる体制を敷く(職員が車両真横まで駆けつけることができる)
  • 緊急時は人間の運転士が運転できる体制をとる

 

ポイントは歩行者つまり人間と、車両との分離です。あらゆる種類の人間の動作、行動を予測するのはAIと言えども不可能です。システムに予測させるのが難しいのであれば、極力難しい場面を避ける、遠ざけるしかありません。そこで、新都市交通などでは上記のように、徹底して車両と人間との交わりを遮断し、完全停車している場合に限って、「乗客のみ」を車両内に入れる、または出すということによって、自動運転を実現しています。

これは車でも同じことで、人間との接触を完全に分離することができない限りは、完全な自動運転は実現しないでしょう。よく言われる「高速道路のみの自動運転」も、完全なものにはできません。新都市交通の徹底した「不確定要素の排除」が、高速道路ではなされていないからです。事故やパンクなどのトラブルで路上に人がいる場合もありますし、緊急工事や落し物拾得で路上に人が立つ場合もあります。また野生動物が路上に侵入することもしばしばありますし、トラックなどから積み荷の落下や、脚立の落下もよく起こります。こうした不確定要素に溢れる高速道路では、新都市交通の専用架線のようにはいかないでしょう。

このような現状であるにも関わらず、上記のニュースのように、人を乗せるバスで自動運転を実験しようという動きが各地であり、日本でもスタートしています。技術が確立していないにも関わらず、性急な実験を実施することは、不測の事故を起こしてはネガティブな印象を社会に与え、結果として自動運転の普及を妨げるだけです。まずは、「人間のドライバーが起こさない事故は、決して起こさない」ということに焦点を絞り、人間の直感に寄り添った技術を地道に開発していくことが大切ではないでしょうか。誰もが利用できる車両になるには、何よりも「信頼できる」というあいまいな乗客の直感が大切だということです。このあたりを、デジタル思考に陥りがちなシリコンバレー組が理解することが肝心なことでしょう。

 電装系の不具合

震災や津波などの被害で停電してしまった時、家庭ではガスファンヒーターや、石油ファンヒーターが動かなったという報告が多数あったそうです。電気が止まったとしても、ガスや石油が燃料の暖房器具なら使えるような気がしますが、そうではありません。操作パネルや着火機構が電動であるため、いくらガスや石油が充分でも、使用することができないのです。

これと似た事象が、自動車でも発生しうることが、次のニュースを見ると分かります。一部引用した記事をご覧ください。

 

2017年12月22日、韓国日報によると、韓国の自動車メーカー現代(ヒュンダイ)・起亜(キア)自動車の一部のモデルに搭載された8段自動変速機が突然5段に固定される現象が発生している事が分かった。

この現象は今年4月頃から「グレンジャーIG」(現代自動車の大型セダン)の一部同好会で知られており、同好会の掲示板には、グレンジャーIG のオーナーを中心に走行中に変速機が突然5段に固定されたり、停車後の出発時に変速が行われていないなどの異常を訴える文章が掲載されていた。

当初、現代・起亜自動車は、その原因としてミッションオイルが十分に予熱されていない状況での走行や、自己診断装置(OBD)機能が搭載された「イベントデータレコーダー」の電子制御装置の干渉と判断したが、グレンジャーIGだけでなく、8段自動変速機を搭載した「ソレント」(起亜自動車の中型SUV)、「マックスクルーズ」(現代自動車のクロスオーバーSUV)など他の車種でも同問題が発生しており、最終的にミッション制御装置(TCU)の異常によるものと結論を下した。

同問題への対応として、9月ごろから無償でTCUの更新を進めているが、更新後もまだ同問題が発生している事から、現代・起亜車はクルーズコントロールスイッチ、スピードセンサーなど、トランスミッションからの異常感知信号以外の信号異常時にも一種のセーフモードに入り5段ギアの固定現象が発生する事があると説明している。

この報道を受け、韓国のネットユーザーからは

「今の車でオイルが十分に温まるまで暖機運転が必要だなんて聞いたことがない」
「現代自動車には8段変速機の技術がないって事だ」
「問題が発生してからその対策をする。いつも対処療法だ」
「一言で言って未完成車じゃないか」

など、現代・起亜自動車グループへの批判の声が多く寄せられた。

また、
「1段ギアの車だね」
と、現代・起亜自動車グループを皮肉る声もみられた。

その他に
「車には乗らないのが一番だ」
とするコメントもあった。
(翻訳・編集/三田) 引用元;
https://www.excite.co.jp/News/chn_soc/20171224/Recordchina_20171224034.html

 


どの車においても、トランスミッション本体は基本的に機械系であり、MTやATなら歯車、CVTならベルトを動かして機能しています。MTは手動であるため、基本としては人間が直接レバーを動かすことで機械系を操作します。しかし、ATなどの変速が自動化されたトランスミッションでは、機械系を自動で動かすための制御部分に電子的な仕組みが使われています。そのため、制御部分に不具合が発生すれば、一切機能しなくなります。トラブル時に手動でカバーする手段というのは用意されていません。

今回はトランスミッションという変速に関わる部分のみの問題としてクローズアップされましたが、今後はこの流れが加速する恐れがあります。

新技術の開発の中心が自動運転へと向かうに当たって、メインとなるのは電装系です。現在ソフトウェアの開発競争といった様相を呈していますが、プログラムの中身もさることながら、そのプログラムを実装するためのハードウェアの信頼性が重要になります。基盤やセンサーなどの電子部品を保護するためのノウハウはすでに自動車メーカーにありますが、今後開発される自動運転に必要なハードウェアは従来のECUの比ではない熱を持つものと予想されます。大量の高解像度画像や映像を絶え間無く高速処理することになりますから、据置コンピューターでも排熱に苦労するところを、どう車両で実現するか。バッテリー消費の激しい演算を、どのように安定稼働させるかというのは大きな壁になるものと思われます。同時に、これらの電装系が不具合を起こせば、やはり車全体が機能不全となり、記事のような問題を起こすことになりかねません。

今後は、制御系の電子部品は、増えることはあっても減ることはないでしょう。そうなると、信頼性の確保と並行して、万が一故障した場合のアナログなバックアップ手段を設けられるかどうかがポイントとなりそうです。飛行機でも、オートパイロットに不具合が生じた際の、マニュアル操作の手段はバックアップ用として存在しており、乗務員も訓練を重ねています。これは安全運行の上では当然の思想でしょう。しかし、制御系を担うシリコンバレー系のソフトウェアメーカーが、ハンドルもペダルもない「運転席のない車」を理想の自動運転車として開発を目指している点が気になります。ハードウェアでもソフトウェアでも、システムに100%というものはなく、一定の割合でトラブルは発生します。その際に何の人的回避行動を取ることが許されず、暴走を始めた密室の中で衝突を待つばかりという状況になったらどうでしょう。万が一そのような事故が1件でも発生し、その時の状況を皆が想像すると「自動運転車は怖い」という世論が形成されるでしょう。例え、自動運転車の方が事故件数自体はとても少なかったとしても、です。つまり、機械の都合で人間の意思とは無関係に動くのではなく、人間の直感に寄り添って動くことが何より大切だということです。

機械駆動の部品を電子制御で動かす際も、そのように人間の直感に寄り添った動き、停止、バックアップ手段を備えておくことが必要になるのではないでしょうか。

at_nob.jpgのサムネール画像

米国で、自動運転の実験車およびテスラなどのオートパイロット中の車における事故が相次いで発生しています。実際に発生している事故の種類は、いろいろなパターンがありますが、今回のテスラ車の事故は、完全に停止中の車に追突したということですので、システムの不備がうかがわれるものです。ニュース記事をご紹介します。

 

【ニューヨーク=有光裕】米カリフォルニア州の警察当局の発表によると、29日午前11時頃、同州のラグナビーチで、米電気自動車大手テスラ製の乗用車が運転支援機能の「オートパイロット」で走行中、停止中のパトカーに追突した。

 

乗用車はセダンタイプで、運転手は軽傷だった。パトカーはスポーツ用多目的車(SUV)で事故当時は無人だった。乗用車はパトカーに衝突した衝撃で、右前方が大きく破損した。警察当局が事故の原因を調べている。

米国では、オートパイロットで走行中だったテスラの車両で事故が相次いでいる。同社は、オートパイロットを使用しても運転中は必ずハンドルに手を置いておくよう、利用者に注意を呼びかけている。

引用元:読売新聞
https://headlines.yahoo.co.jp/hl?a=20180530-00050050-yom-int

 


事故を起こしたテスラ車はモデルSで、追突されたパトカーは全損するほどの衝撃だっということです。

初の自動運転車による死亡事故の例となったUber社の実験車両もそうでしたが、センサーが異物を感知したにも関わらず、コンピューターが「通過して良い」と判断したものに関しては、一切スピードを落とさずに突っ込んでしまうという点に怖さを感じます。人間のドライバーならば、雨天時や夜間など視界が悪かったり、道路上にあるものが何かよく分からない場合は、とりあえず徐行するなどの対応を取るのが普通です。しかし、デジタル機器の常識としては、OKかNGかの2択ですので、人間の感覚とはかけ離れた挙動になってしまいます。実際にはプログラムの調節次第で、人間の直感に近い挙動にすることは可能なはずですので、まずは人間の感覚に寄せるという意識改革が必要になるでしょう。

そして、これらの事故の根本的な原因は、システムへの過信があります。特にテスラ社の宣伝方法に問題があり、「自動運転」という名称を使ったり、「オートパイロットは一般の車よりも3.7倍安全である」という声明を出したりしたことは、上記のような事故の遠因を作ったと言われても反論できないでしょう。実際にはハンドルを両手で握り、しっかと前方を注視していないといけないシステムであるにも関わらず、その事実よりも「自動」「安全」というメッセージの方が強く伝わり過ぎた側面があるからです。そもそも、一般の車と比較して、事故率などを測ることには何の意味もありません。当サイトの別記事でも述べている通り、「人間ドライバーならば起こさない事故は、決して起こさない」ことが最も大切なのであり、この前提がない限り、自動運転車の普及はとん挫してしまいます。この市場のパイオニアになりたいという姿勢は、とても潔いものですが、それだけに安全への配慮は最優先にして欲しいところです。

自動運転車は「怖くて乗れない」ー米国

米国で自動運転の実証実験における事故が相次いで発生し、その結果、米国のドライバーの間で自動運転車に対する不信感が高まるという事態になりました。まず記事をご紹介します。

 

【ニューヨーク共同】自動車メーカーやIT企業が開発中の「完全自動運転車」について、米国のドライバーの73%が「怖くて乗れない」と考えていることが、米国自動車協会(AAA)が4月に実施した調査で分かった。2017年末時点の調査では63%で、完全自動運転車に対する不信感が急激に高まった。

 

今年3月、公道試験中の米配車大手ウーバー・テクノロジーズの自動運転車と歩行者の女性が衝突し、女性が死亡するなど米国では自動運転に関係した事故が相次いだ。AAAは「自動運転が注目を集める中で多数のメディアが事故を報道し、安全性への懸念が強まった」と分析している。

「怖くて乗れない」との回答を性別でみると、女性が83%、男性が63%だった。世代別では、1980年代以降に生まれた「ミレニアル世代」の不安が高まっており、17年末の49%から64%に急上昇した。

産経フォト 2018.5.29
http://www.sankei.com/photo/daily/news/180529/dly1805290009-n1.html

 


全世代において、過半数のドライバーが、自動運転は信頼できないと回答したことになります。女性に至っては8割超の方が乗りたくないという回答をしており、これは重大な結果です。

自動運転車では、実験段階でもこのような事故が発生することは予想されていました。現在の技術、つまりAIや電動化技術を中心にしたITやロボティクスの分野では、事故の発生をゼロにすることはできません。閉じた系である工場内の産業機械でさえも、エラー率を完全にゼロにすることはできていません。ましてや複雑系である道路交通の世界では、事故をゼロにすることは当面、不可能であるというのが一般的な見方です。

日本やドイツではこのことをよく理解していて、もし自動運転の実験中に事故が発生した場合にどう世論が動くのかも予測していたため、相当慎重に実験を行っていました。クローズドなテストコースに限ったり、公道を使う場合は複数の担当者が乗り込んで立ち会ったうえで、ごく低速で走行するなど、細心の注意を払うことが実験段階では必要です。

ところが、開発競争に焦ったのか、それとも米国の国民性なのか、実証実験が性急であった感が否めません。特にGoogleの自動運転実験車のように、ハンドルもペダルも持たない自動運転車をデモンストレーションしたのは失敗でした。上記のように、万一のことが起こるのが現実世界ですが、ハンドルもペダルも持たない車というのは、いざという時に乗員が何の回避行動も取ることができないということを意味します。これは人間の直感に反していて、強い恐怖を与えるものです。

つい先日も日本国内で、高速道路を走行中のバスの運転手が、急病によって意識を失い、乗っていた乗客が3人がかりで停車させて事なきを得たという例がありました。これも、直感的な操作系であったからこそ、とっさに乗り合わせた乗員がハンドルとペダルを横から操作して緊急回避ができた訳です。もしこのバスが、これらの緊急の運転操作を直感的にできない、つまりバックアップの機械的な操作系統を持たない自動運転車であれば、そのまま大きな事故になっていたでしょう。

つまり、このアンケート調査の意味は、ただ事故が発生したから自動運転車に乗りたくないという回答になったのではないということです。そうではなく、人間の直感から離れていく道具、それも殺傷能力を持った車という道具に、拒否反応を示しているということです。

現在は、ある意味で「IT企業による技術のショールーム」となっている自動運転車の開発競争ですが、このことを重く受け止める必要がありそうです。

運転支援システムを巡る訴訟

安全運転を支援するために搭載が進んでいる先進安全装備ですが、誤作動したり機能しなかったりした場合は当然、危険にさらされる可能性があります。そのような想定されるケースに先だって、米国ではテスラ社がそのユーザーから集団訴訟を受けていました。そのことを伝える記事が入ってきましたので、下記にご紹介します。

 

米電気自動車(EV)大手テスラ<TSLA.O>は、同社の「モデルS」と「モデルX」の運転支援機能「オートパイロット」が基本的に使用できず、明らかに危険だとして、購入者らに訴えられていた集団訴訟で原告側と和解した。

 

カリフォルニア州サンノゼの連邦裁判所に24日遅く提出された文書で明らかになった。和解案は判事の承認を受ける必要がある。

原告側は追加で5000ドルを払い、自動緊急ブレーキや車両の横からの衝突に対する警告などの機能をオートパイロットに追加したが、これらの機能は「全く操作不可能だった」と主張。

テスラがウェブサイト上で、ハイウェイを「より安全に」走行できる機能がついていると、誤った情報を伝えた、と指摘していた。

合意案によると、2016─17年にオートパイロットのアップグレードで追加料金を払った原告にはそれぞれ20─280ドルの補償金が支払われる。

テスラは和解基金に500万ドル以上を注入することに合意し、そこから弁護士費用も支払われるという。

今回の訴訟は、テスラの運転支援機能システムが裁判で取り上げられる唯一の案件だったため、自動車業界や法曹界から注目を集めていた。

テスラは和解にあたり、顧客にしっかりと対応すると表明。運転支援機能の起動までに「当社の想定よりも長い時間待たなければならなかった」顧客への補償に応じたとした。

和解案の補償対象は米国の顧客だけだが、テスラは世界中の顧客に同様に補償を行う方針を示している。

和解案は、運転支援機能の起動の遅れが主題となり、安全性を巡る原告の主張には触れなかった。

原告団の代理人はコメントの求めに応じていない。

[ニューヨーク 25日 ロイター]
https://headlines.yahoo.co.jp/hl?a=20180528-00000018-reut-bus_all

 

 

上記記事の通り、和解が成立したということで、そのシステムの問題点や動きなど細かい部分は明らかにされていません。

当記事で明かされている『運転支援機能の起動までに「当社の想定よりも長い時間待たなければならなかった」』という部分から推察すると、コンピューターのハードウェアもしくはソフトウェアの起動動作が、実際の運転シーンに合わないような速度であったということでしょう。これは、車に何らかのコンピューター制御を加える上では当然想定されることで、信頼性の確保には特に注意しなければならない部分であったはずです。

しかし、こうした制御はコンピューターによって統合制御すればするほど、信頼性の確保が難しくなるというジレンマがあります。複雑性が増すほど、エラーの発生率が上がりますし、すべてを統合すると1か所の不具合ですべてが影響を受ける恐れがあります。国内の例ですが、電子制御パーキングの不具合でも、電動スイッチ部分の不良が発生しただけで、車両が走行不能に陥ってしまったケースもあります。

近年進んでいる、将来の自動運転を見据えた先進安全装備は、コンピューターを中心とした電子制御でシステムを統合する方向にあります。上記の通り、複雑化・統合化は進んでいきますので、こうした不具合は今後もたびたび発生するでしょう。そして、そのたびにリコールや場合によってはユーザーによる訴訟という事態に発展するかも知れません。本件は、日本でのシェアがまだまだ低いテスラ社のものではありますが、今後は日本車でも起こりうる事象です。

キーレスエントリーのデメリット

自動車の電子制御化が進んでいますが、ドライバーの直感に寄り添っていない設計が増えているという懸念を、当サイトでたびたび指摘しています。

今回入ってきたニュースは、すでに広く普及している「キーレスエントリー・キーレス始動」に関わる死亡事例についてです。米国では気密性の高いガレージを持つ家が多いからか、エンジンの(誤った)掛けっぱなしが、一酸化炭素中毒を引き起こしてしまうようです。次の記事をご覧ください。

 

●キーレス車で相次ぐ一酸化炭素中毒死、エンジン停止と誤認 米紙

 

ニューヨーク(CNNMoney) 米紙ニューヨーク・タイムズの13日の報道によると、鍵を使わずにエンジンを始動できるキーレス車で、エンジンが停止していなかったことによる一酸化炭素中毒の死者が2006年以降で少なくとも28人、負傷者は45人に上っていることが分かった。

被害者はいずれも、エンジンは停止したと思っていたという。

キーレス車はボタン1つでエンジンが始動でき、電子キーのリモコンはポケットや財布の中に入ったままになる。米国では2000年代初めごろから登場した。

2015年には、キーレス始動車が関連する一酸化炭素中毒で13人が死亡したとして集団代表訴訟が起こされたが、16年9月に訴えを退ける判決が言い渡された。

しかしニューヨーク・タイムズ紙の13日の報道は、この問題が予想以上に広がっている可能性を示唆している。

米自動車業界の標準策定団体は7年前、エンジンが停止していない場合は警告音を出すなどの対策を自動車メーカーに義務付けることを提案。米高速道路交通安全局(NHTSA)が、この提案に沿った新しい規制案を打ち出した。

ところが自動車業界の反対に遭って、規制は今も実現していない。

2013年にはNHTSAがキーレス始動車の安全対策に関して自動車メーカー7社に対する調査に乗り出した。しかし結論が出ないまま、調査は間もなく下火になったとニューヨーク・タイムズは伝えている。

NHTSAは今年3月の時点で同紙に対し、「調査を終え、最善策を見極めた時点で適切な措置を講じる」と説明していた。

自動車メーカーは自主的に警告音などの安全機能を装備しているところもあれば、装備していないところもある。

ニューヨーク・タイムズによると、一酸化炭素中毒による死亡事故に関連した車のほぼ半分は、「レクサス」などトヨタの車が占めているという。

トヨタは同紙の取材に対し、キーレス始動車については「連邦安全基準に準拠、もしくはそれ以上の安全対策」を講じていると説明した。CNNMoneyも同社にコメントを求めたが、これまでのところ返答はない。

引用元CNN https://www.cnn.co.jp/m/usa/35119082.html

 


記事で触れららている通り、死亡事故に関係した約半数がレクサスを含めたトヨタ車であるそうで、米国の事情とは言え完全に他人事とは言えません。日本でも、室内に近い位置に車庫を設けている家庭もありますから、今後同じような事例が起きないとは限りません。

キーレスが登場する前までの伝統的なキーは、家の鍵と同様のスチール製で、ドアのキーシリンダーに差し込んでドアを開け、ハンドル脇のコラム部分のキーシリンダーに差し込んで、ACC(アクセサリー)→イルミ→ON→イグニッションと順番にキーを捻ることでエンジンを掛けのるが普通でした。エンジンが掛かっている間は、キーは指しっぱなしです。エンジンを切るときは逆順に回しすとエンジンが切れてキーを外し、車を出たらキーを回してロックを掛ける流れです。車を外からロックしたということは、キーが車外(つまり手元)にある訳で、エンジンが切れているのは当たり前のことです。

ところが、キーレスが登場したことにより、この車に乗り込むとき、車から降りるときの流れが変わりました。電子キーは、ポケットやバッグに入れっぱなしで取り出す必要はなく、ドアのリクエストボタンを押したり、手をかざしたりすればドアは開き、運転席周りにあるスタートボタンを押せばエンジンは掛かります。エンジンを切るときは、スタートボタンを押し、車外に出た時もリクエストボタンを押すだけで、キーを取り出す必要はありません。エンジンが掛かった状態で、車外に出てロックをしようとすると、警告音が鳴るシステムがほとんどです。しかし、現在の車はいろいろなシーンで警告音が鳴るため、何の警告だか分からずにそのままにするケースもあります。

さらに物事をややこしくしているのが、ハイブリッド車やEV車、そしてアイドリングストップ機能を搭載した車です。これらの車は、常にエンジンが掛かっている訳ではないため、エンジンを切ったから車内が無音なのか、そうではないのかが、直感的には分かりません。システムが起動中なのか、オフになったのかは、メーターパネルを見なければ分かりません。

また最近では、エンジンを停止した後でも、一定時間はデイライトやカーテシライト、メーターパネルやナビなどが点いたままになる車種もあります。これは高級車に多い装備ですが、オフになったのかどうかが直感的に非常に分かりにくいという点で、優れた道具であるとは言えません。

一部のホンダ車のように、エンジンを掛けるときはスタートボタンを一度押し、オフにする時はそのボタンを「長押し」するという仕組みも、良い設計であるとは言えないでしょう。

キーレスに関わることではありませんが、日産車のe-Powerシステムのように、ドライバーの意思とは関係なくエンジンが掛かったりオフになったりするのも、人間の直感とはかけ離れているため、使い易いものであるとは言えません。実際に目撃した例では、駅のローターリーで家族を乗せようと停車したノートe-Powerが、子供とみられる男の子が後部座席に乗り込もうとドアハンドルに手を掛けようとしたまさにその瞬間に、「ブオオーン」とエンジンが掛かり、男の子が伸ばした手を引っ込めて後ずさりしていました。人間の直感にとっては、エンジンが掛かる=発進する、ですし、エンジン音が大きくなるにつれて速度が上がっていくと思うものです。

自然界では、危険なものや速度が速いものは大きく重い音を出しますし、安全なときは大きな動きや音がないものです。EVのように、危険な殺傷力を持っているにも関わらず、無音であったり、起動中であるにも関わらず無音であったりするのは、人間の直感を無視した設計であると言わざるを得ません。多様な電子制御技術を、ただ売りになるための装備として搭載するのではなく、人間の直感に寄り添ったものとして、真の意味で安心と安全を提供する技術にして欲しいと思います。

IMG_2652 (2).JPGのサムネール画像

初めての自動運転車による死亡事故となった、アリゾナ州でのUber車の事故について、続報が入りました。夜間に自転車を押して道路を横切っていた女性を、ノーブレーキで事実上の無人運転車が轢くというショッキングな事件でした。

事故の原因は、可能性として、センサーが認識していなかったケースと、判断をつかさどるソフトウェアが正常に働かなったケースが想定されていました。記事によると、どうやら原因は後者であったようです。

 

◆Uberの自動運転カーが女性をはねて死なせた事故はソフトウェアが人物を「誤検知」と判断したためと判明

Uberが開発を進めていた自動運転カーが夜間の公道を走行中に道路を横断していた女性をはねて死なせてしまった事故の調査が進み、事故の原因は自動運転カーのソフトウェアの誤判断に起因するものであったことが明らかになっています。

Uber Finds Deadly Accident Likely Caused By Software Set to Ignore Objects On Road ? The Information

内部の事情に詳しい2人の情報提供者からの情報をもとにThe InformationのAmir Efrati記者が報じた内容によると、事故の際にUberの自動運転カーのソフトウェアは横断者を認識していたものの、「false positive(誤検知)」だと判断して減速や回避をとらず、そのまま跳ね飛ばしてしまったとのこと。
自動運転カーのソフトウェアにとって、実在する物体と錯覚的に存在するように見えるだけの物体を見分けることは重要な課題であり、車両や歩行者、道路に落ちた大きな石などを極めて高い精度で検知することが求められます。
しかし一方で、風に飛ばされてきたビニール袋や道路脇の空き缶など、安全性にそれほど影響がないと判断できる物体も道路上には存在しており、その見分けを行うことも安全かつ効率的に公道を走行するために重要な要素です。

ここには、安全と効率のトレードオフが存在します。
もし、車両のソフトウェアが注意深くなりすぎると何ら問題のない空き缶や新聞紙にまで反応してしまい、まともに走行することができなくなります。

逆に、検知を甘くすると多少の障害物には文字どおり「目もくれず」ガシガシと走り続けられるようになりますが、本当に避けなければならない障害物にぶつかってしまうことも起こりえます。
そして今回の事故では、まさにその障害物が道路を横断していた女性だったというわけです。

実際に女性がはねられてしまう瞬間の直前までの映像が公開されています。
以下の記事では、車両が減速や急ハンドルを行う様子なく女性に突っ込んでいる様子を確認することができます。

Efrati氏は「Uberが周囲の障害物についてのシステムの警戒度を下げたがっていたのには理由があります。自動運転カーを快適に乗れる車両にすることを目指していたためです」
「Uberは、年内にフェニックス地域においてドライバーなしの自動運転カーに乗客を乗せて走行するという社内目標を達成することを急いでいました」と記しています。

何かある度にいちいちブレーキがかかる自動運転カーなど、とても快適な乗り物とは呼べません。
この課題をクリアするためにUberは開発を行っており、そのさなかに今回の事故が起こってしまいました。
UberはThe Informationの取材に対し、国家運輸安全委員会の調査が行われていることを理由にコメントを拒否しています。

GIGAZINE 2018年05月08日 13時00分 https://gigazine.net/news/20180508-uber-fatal-crush-software-bug/

 

 

記事によると、本件ではライダーと呼ばれる高度なセンサーについてはきちんと女性を認識していました。それにも関わらず、判断を下す部分であるソフトウェアが「そのまま走行して良い対象」であると判断してしまった訳です。

道路上には、車やバイクだけではなく、あらゆるものが散らばっています。車やトラックの落とし物である、軍手や脚立、工具、釘、石、雪、タイヤ片などなど。動物やそれらの死骸、木の枝や落ち葉、ビニール袋や麻袋などなど。場合によっては故障車からのオイルが道に広がっている場合もあります。段ボール片やトロ箱、ビニール袋など、踏んでも問題がなさそうに思えても、中に重量物が入っていることもあります。

これらの道路上の「異物」に遭遇したとき、人間でももちろん対処には限界があってミスも犯しますが、未知のものと遭遇しても感覚的に、そのまま踏んでいくべきか、避けるべきかの判断は誰もが行うことができます。

ところが、自動運転システムの場合は、本件で事故を起こしたソフトウェアのように、個別にそれが何かを検証することなく、一律に一定割合で通過するか停止するかを決める閾値を設定する。もしくは、AIに「異物」をひとつひとつ学ばせていく必要があるでしょう。しかし、ディープラーニングを得意とするAIとは言え、世の中全てものについて学ばせるのは不合理でしょう。そうすると現状の事故を起こしたUberの実験車のように、一律に閾値を設定するしかなく、結局本件のような事故は完全に防ぐことができません。安全側に振って、閾値を高く設定し過ぎると、ビニール袋が空を舞っただけで停車してしまうような車になります。ここが、自動運転車を実用化させることが難しいとされる所以です。

米国ではこのような、性急にも思えるような実証実験が続けられています。ハンドルもペダルもない、完全な自立型の車を理想として開発を進めているIT企業が多いのも特徴です。しかし、直感的にそこまでの性急さには抵抗のある方が日本には多いようです。その理由は、311の大地震をはじめとして、いざという時には、もっとも原始的な力のみが頼りになる、と直感的に知っているからではないでしょうか。残念ながら、津波によって逃げる道すがら犠牲になってしまった方が多数おられましたが、いざその立場に立った時、遠くに見えている津波を避けようと必死にルートを探す場面で、ハンドルもペダルもない自動運転車が想像できるでしょうか。道路インフラも含めたITSで解決できると見る専門家もいますが、日本のような災害の種類が多種に渡る国では、いざとなると自分の意思ですぐに使える、原始的な道具のみが頼りになるのではないでしょうか。

この意味で、人間の直感に忠実であることが、道具として最も大切な要素であると言えます。自動化が進めば、即、優れた道具であるということはできません。本件の事故のように、衝突した後もブレーキすら踏まずに直進した自動運転車を見ると、技術開発の方向性が、残念ながら斜めの方向を向いているのではないかという懸念を禁じ得ません。

▼ 話題の運転教材の一覧はこちらをクリック

ボタンをクリックした後、商品をお選び下さい
車の運転のコツ

Shift-UP Club 運転教材の購入ページ

※上記の教材一覧ページは、代金引換・銀行振込のみ対応
(インフォカートの決済には対応しておりません)

▼よくある質問(Q&A)
Shift-UP Clubとは何ですか?
どのような人が運転教材を使っているのですか?
教材はきちんと届きますか?手元に届くのに何日程度掛かりますか?
家族には購入を知られたくないのですが、品物名の記載はどうなりますか?
インターネットでの注文に不安があります。
教材で本当にうまくできるようになりますか?サポートもありますか?

 

●うまく注文できない場合/携帯からの注文の場合

注文フォームでうまく送信できない場合、 またはパソコン環境をお持ちでない場合は、 携帯メール等から下記情報をお送り頂くことで、 ご注文いただくことが可能です。当方にて確認後、注文確認メールをお送りしますので、内容をご確認下さい。

[お名前]
[ご住所]
[電話番号]
[商品名]
[お支払]
代金引換・銀行振込

●メール送信先
sissyneck@aa.bb-east.ne.jp
●件名
冊子申込み


シフトアップクラブ会員登録





[読者の声No.:648]
■ 車を操縦する感覚があり、運転が楽しい
AT車と比べて、車を操縦する感覚があり...
詳しく
[読者の声No.:646]
■ 操作を学んで自分で操る楽しさを

操作に慣れたら、きっと楽しいカーライフに…


詳しく
[読者の声No.:600]
■ クラッチのつながるポイントに苦労~インタビューより
教習を受けたところではマツダのファミリアが教習車だったのですが...
詳しく
[読者の声No.:599]
■ 読者の声・練習会レポート
今回はMT操作全般をやりたいという愛知県のAさん(女性)のレポートです...
詳しく
>> 読者の声のつづきを見る


▼無料で配送! サンプル教材を請求する
車の運転のコツ 教材サンプル はじめての教材購入が不安な方は、無料サンプル教材をお宅にお届けします。教習ワンポイントアドバイス付き。 ※数字は半角、ハイフンなしで入力ください
お名前
Eメール
Eメール再入力
電話番号
郵便番号
都道府県
住所1
住所2

運転のコツ Shift-UP Clubの活動(安全運転の普及・中古車推進)が
NPO法人日本リユース協会に認められました。

スマホで技能教習・運転のコツを見る
車の運転のコツ。初心者・女性向け
<   
◎ 注文受付中

技能教習でS字クランクや方向転換・縦列駐車に失敗したら、教材で挽回しよう

右左折、車庫入れ、坂道発進。難しい運転も教材を使った予習で克服
紹介マンガ

sitemap2.jpg

サイト運営

Shift-UP Club
郵便:114-0003
住所:東京都北区豊島5-4
TEL:03-3919-1696(9:00~17:00)

メインHP:車の運転のコツ
MT車専用:MT車攻略マニュアル
車庫入れ:車庫入れマニュアル
中級者:運転テクニック集
車検:ユーザー車検マニュアル
メンテナンス:車の日常メンテナンス
女性専用:女性のための運転動画

運転のコツを確認して苦手克服する練習会
教習所10倍活用ガイド
→女性専用サイト
写真 3-1.PNG
写真 4-1.PNG
→スマホで見る方


ロハス雑誌『Nature』に
Shift-UP Clubが
紹介されました

nature.jpgのサムネール画像
特定非営利団体 NPO法人日本モータースポーツ振興機構
交通事故被害者支援活動への協力
社団法人日本自動車連盟
運転で地球に緑を

写真素材のピクスタ


<教習待合い所ライフ>
電子書籍
カードオブプロレス オンラインゲーム
シネマパラダイスch


<PR>