自動運転車で初の公道における過失事故が発生
アメリカのグーグルを始め、世界中で様々な企業が自動運転の車を開発しようとしています。
日本だと、モバゲーで知られるDENAがヤマト運輸と連携し、自動運転技術を生かした次世代物流サービスプロジェクト「ロボネコヤマト」を7月に開始したのは、記憶にあたらしいところです。
ところが今年の3月に、グーグルの自動運転車が、公道上で初めて過失による事故を起こしたという報道がありました。
この自動運転車には人が乗っており、必要に応じて手動の運転に切り替えることができるタイプだったようですが、手動運転に切り替えず、自動運転のままでバスと衝突してしまったようです。
この報道内容が正しければ、この事故は、AI(人工知能)が判断して運転し、その結果起こってしまった事故ということになりそうです。
この場合、事故の責任は誰が負うことになるのでしょうか。
自動運転車が交通事故を起こした場合は、法的な責任として、大きく分けると、民事上の責任と刑事上の責任が生じます。
それぞれの係争で、どのような責任が問われるか、ご説明いたします。
自動運転車が事故を起こした場合に民事・刑事で生じる責任
民事上の責任とは、損害が生じた場合の賠償責任、物を引き渡したり、明け渡したりする責任など、主に財産について、確定された権利義務に則って行う責任と言い換えられます。
今回の事故であれば、壊れた車を修理する責任、けが人がいれば治療費や慰謝料を支払う責任が挙げられます。
こういったものは、運転者がAIでも、その自動車もしくはAIの所有者(今回の事故ではグーグルという会社)が負うことになると予想されます。
では、刑事的な責任はどうなるのでしょうか。
刑事的な責任とは、何らかの犯罪行為(過失を含む)を行った際に、それに対して身柄の拘束を受ける罰を受ける責任が、一般的には想像されると思います。
刑事的な責任は、原則として、犯罪に該当する行為を行った者に科されることになります。
今回の事故では、AIが運転していましたが、AIを身柄拘束して罰を与えることはできません。
かといって、車に乗っていた人は、ハンドル等に触っていたわけではないので、刑事上の過失があると言えるのでしょうか?
今回は、必要に応じて手動運転に切り替えられるようですので、必要に応じて手動運転に切り替える注意義務があったのに、それを怠った、という過失責任が想定されます。
テクノロジーの進化に法律も追いつく必要あり
グーグルの自動運転車は、手動運転もできる性能が備わっているため、今回は民事と刑事それぞれで、責任を見出すことができます。
しかし今後、自動運転の性能が上がり、自動運転者であれば免許がなくても乗れるといった時代が来た場合には、果たして自動運転による事故に関して、乗っている人に刑事上の責任を問えるのか、といった問題が出てくることでしょう。
他方で、自動運転の場合、罰したところで犯罪の抑止にはつながらないので、自動運転の事故については刑事上の責任を全く考慮しない、という方向に進む可能性もあるのではないかと思います。
テクノロジーの進化と共に、法律のキャッチアップも今後必要とされていくことでしょう。
Photo credit: romanboed via Visual Hunt / CC BY