ファーウェイの自動運転システムを搭載した自動車が、高速道路で、割り込んできたトラックの後尾に追突するという事故を起こした。しかし、この事故を検証してみると、「AIと人間の協調」という新たな課題が浮かびあがってきたと三叔科技説が報じた。
すでに始まっている自動運転の時代
ファーウェイの自動運転システム「ADS2.0」を搭載したAITO「問界M7」が高速道路で追突事故を起こし、大きな関心を集めている。
ADS2.0は、都市部の整備された状況であれば、90%以上の操作は車任せにできるレベルにまでなっている。ファーウェイの余承東常務は、今年2024年の春節に深圳から実家のある安徽省に帰省をしたが、400kmほどの行程を一度もハンドル操作をしなかったとSNSに投稿して話題になった。もはや、中国では人が運転をしなくていい、自動運転の時代が始まっている。
自動運転中の事故が発生し、大きな論争に
一方で、「自動運転は怖い」と反感を持つ人たちも多い。2024年3月、そのようなアンチ自動運転派にとって、格好の事件が起きた。高速道路で、自動運転中の問界M7が、トラックに追突をするという事故が起きたのだ。
片側2車線の高速道路で、所有者の女性が運転席に乗り、自動運転中の問界M7は、左車線(追越車線、中国は右側通行)を走行し、右車線(走行車線)をゆっくりと走るトラックを追い抜きにかかっていた。その時、トラックがウィンカーは出したものの、無理なタイミングで追い越し車線に入ってきた。速度差があるため、問界M7はブレーキをかけてもじゅうぶんに減速ができず、トラックに追突をすることになった。
アンチ自動運転派は、ここぞとばかりに自動運転を批判した。「自動運転はやはりダメですね。ネットでは自動運転がどれほど素晴らしいかの映像ばかりが流れてくるが、あれを信じるのは冗談にも程がある」「ファーウェイは、さまざまな試験映像を公開して、障害物を避けられるとアピールしているが、いずれも試験コースでのこと。やっぱり現実の道路では無理がある」。さまざまな否定的な意見がSNSを埋めつくした。
危機回避はAIが行うべきか、人間が行うべきか
ところが、この事故を起こした車の夫がメーカー「セレス」に説明を求めた通話の録音がネットに流出をした。すると、事故は想像するよりも複雑なものであることが判明をした。
セレス側は、ドライブレコーダーの記録に基づいて説明をした。すると、自動運転システムは12時57分23.1秒に前方の車が車線変更をし始めたことを認識した。ここで自動運転はブレーキ操作などをして、衝突を回避する行動に出ることになる。
しかし、0.5秒後、運転席にいた女性がブレーキを踏んでしまった。運転手がハンドルやペダルを操作すると、自動的に自動運転は解除されて、人間の操作が優先されるようになる。そして、AEB(衝突回避ブレーキ)が作動をした。このままであれば、衝突は避けられたかもしれない。
しかし、なぜか運転をしていた女性はアクセルに踏み直している。これにより、AEBは解除され、車は加速をし、追突をしてしまった。
女性はいずれかの方法を選ぶべきだった。
1)何もしないで自動運転に任せたままにする。衝突を回避できた可能性が高い。
2)ブレーキを踏んだのであれば、そのまま踏み続ける。手動運転になるが、AEBが作動して衝突を回避できた可能性が高い。
責められない運転手の自然な反応
つまり、形式的には、女性の運転操作ミスということになるのだが、自動運転賛成派もアンチ派も考え込んでしまった。
後付けで考えれば、女性は何もせずに自動運転に運転を任せるべきだった。しかし、トラックと衝突をしそうになっている状況で、思わずブレーキを踏み込んでしまうのは、人間の自然な反応だ。多くの人が、あの状況では無意識のうちにブレーキを踏んでしまうのではないだろうか。
アクセルを踏み込んでしまったのは致命的な運転操作ミスだが、あの状態でパニックになってしまうことに同情する声も多い。おそらく、自動運転による回避行動も、そして自分でブレーキを踏んでも、体感として減速されている感覚がなく、ペダルの踏み間違いをしたのではないかとパニックになってしまったのだろう。
課題が残されるAIと人間の協調作業
つまり、現在の自動運転技術は非常に成熟をしてきているが、L5自動運転(完全自動運転)ではなく、L2+自動運転(運転主体はあくまでも人間)であるために、自動運転システムと人間の協調作業の部分に課題が残されている。とっさの場合は、人間はパニックになり、最適とは言えない運転操作をしてしまうが、現在の自動運転ではその人間の操作が優先されてしまうのだ。
回避行動においては、人間よりもシステムの方がはるかに優秀だ。だとしたら、回避行動に関しては、人間の操作を無効にし、システムの操作を優先させるという考え方もある。しかし、その発想は現実的ではない。例えば、人間が操作したら大事故になっていた可能性がある状況で、システムが回避行動をしたために軽い物損事故で済んだというケースが出てくる。この場合、自動運転システムが事故を起こしたのだから、メーカーの責任が問われることになる。もし、そうなると、メーカーの負担が過大になるだけでなく、保険金の詐取をねらって意図的に事故を起こす人も出てくることになる。
自動運転システムと人間をどう協調させて安全を確保するか、中国は壮大な社会実験を始めている。