経済インサイド

テスラ車事故が教える自動運転過信の危うさ あくまでも主体は人間 

衝突事故を起こしたテスラ車の残骸=4月17日、米テキサス州(ロイター)
衝突事故を起こしたテスラ車の残骸=4月17日、米テキサス州(ロイター)

 世界的に自動運転技術の開発競争が激化するなか、米電気自動車(EV)大手テスラの車両に乗っていた男性2人が死亡した衝突事故が波紋を広げている。車両の運転席は無人で、部分的自動運転システムを使って走行していた可能性がある。自動運転は事故防止やドライバーの負担軽減につながると期待されるが、人間がシステムを監視する必要がある。原因がどうであれ、テスラ車の事故は自動運転への過信の危うさを改めて印象づけた。

 事故は4月17日、米テキサス州ヒューストン郊外で起きた。2019年型のセダン「モデルS」がカーブを曲がりきれずに車線から外れ、木にぶつかって炎上。助手席と後部座席の男性2人の死亡が確認された。運転席は無人だった。

 車両は、車線維持や自動ブレーキといった「オートパイロット」と呼ばれる部分的自動運転システムを搭載。かなりのスピードで走行していたとみられる。より高度な「フルセルフドライビング(FSD)」機能を備えていた可能性も指摘され、米道路交通安全局(NHTSA)が調査に乗り出した。