テスラの自動運転は現状批判されてもしょうがないと思う

www3.nhk.or.jp

テスラModel Sの半自動運転中、初めての死亡事故が起こりました。

jp.techcrunch.com

事故の原因の一つとして、衝突したトレーラーが白くてカメラが反応しなかった可能性が指摘されています。他にはトレラーの下を通れると判断したという指摘もあります。Model Sはカメラは前方に1台、側面や後部など超音波センサーが360度カバーしているようです。
スバルのアイサイトのようにカメラが2つなら大丈夫だったのでは?という意見もありますが、白くて大きい物に対しては複眼でも測距は難しいと思います。

japanese.engadget.com

事故当時、ドライバーはDVDを見ていた可能性があるようです。自動運転は現在のところ完全に車任せに出来るものは市販されていません。しかし、ほぼ車任せでもほぼ問題ないという状況になると、運転に集中出来ずに居眠りしたりスマホをいじったりとなりそうです。そのためグーグルは人間が運転い関与しない完全自動運転を目指していますし、スバルやポルシェは積極的に人間が運転して危機回避を自動運転に介入させることで安全性を高める方向を目指しています。テスラの自動運転は中途半端であると言われてもしょうがないかと思います。

テスラの自動運転はレベル3にかなり近い、レベル2という状態でしょうか。自動運転のレベル2はアクセル、ブレーキ、操舵のうち複数を機械側がコントロール出来る状態で、レベル3は基本的に機械任せですが何かあれば運転者も運転に関与する必要がある状態です。

response.jp
日本損保協会が自動運転のレベル3まではドライバーの責任であるとしています。またテスラも提供している自動運転はあくまでドライバーの責任になる、としています。完全自動運転でなければ、ドライバーは自動運転に全てを任せることなく運転の責任を負うということになります。

自動運転で事故を防ぐことが出来る一方で、自動運転に対して過度な信頼は避けられる事故を起こす可能性があります。どういった自動運転が適しているのかハッキリとしない段階で、テスラがこのような技術を提供することに対して批判は免れないでしょう。

テスラのオートパイロットモードのベータ版運用に対しては、同じく自動運転技術を開発する自動車メーカーから批判の声が上げられています。自動運転カーを開発中のボルボの技術者は、「テスラのオートパイロットモードは、あたかもあらゆる運転操作を機械が行ってくれるような印象を与えますが、そうではありません。ドライバーはオートパイロットモードでも自動車の動きに責任を持たなければならないのです。ボルボGMなど自動運転技術に取り組む多くの自動車メーカーは、自動運転機能を非公開でテストしています。自動運転機能が完成するまでユーザーに提供されることはありません」と述べ、ベータ版をユーザーの責任のもとテストさせているとテスラの姿勢を批判しています。

http://gigazine.net/news/20160701-autopilot-kill-tesla-driver/