FINANCIAL TIMES
自動運転技術の落とし穴
コラム「アルファビル」担当記者
イザベラ・カミンスカ
我々人間は、過ちや基本的な判断ミスを犯しやすい不完全な存在だ。だから自分たちを助けてくれるような技術を開発する。
自動運転車を例にとろう。安全性を商める技術とされている。だが、開発段階にある現時点でそう考えるのは非常に大胆といえる。
何しろ、安全性の向上を確認する科学的根拠がまだないのだ。手に入る最高のデータといえば、2016年に米カリフォルニア州で 1年かけて行われた走行試験の結果ぐらいだが、同州は気候が温暖で、世界的に見て標準的な運転条件を備えているとは言い難い。
その中で最も良い記録だったのは、米グーグルの自動運転車開発プロジェクトが独立したウェイモの試作車だ。テストドライバーのハンドル操作が必要だったのは、走行距離5127マイル(約8200`)ごとに1回の割合だった。前年より成績は向上したが、完壁にはほど遠い。
米電気自動車大手テスラの記録は非常に悪かった。テスラの試験車4台は同年、1台平均137マイル走行し、自動運転モードが1台当たり45回、およそ3マイルに1回解除された。それだけ事故が起きていたかもしれないということだ。
技術が向上しているのは間違いない。しかし、自動運転車は1990年代半ばに登場し、当時もすでに自動運転化率が98.2%に達した車があった。それに、たとえ技術的な課題が克服できても、社会に予想しないような大きな悪影響がもたらされる事態(負の外部 性)は恐らく防げないだろう。
例えば、米ラィドシェア最大手 ウーバーテクノロジーズの自動運転車が、米アリゾナ州で最近起こした事故だ。試験運転中のウーバ ーの車両に過失はなく、相手の車の運転手が道を譲らなかったのが原因だ。安全な自動運転の普及に向け、道路上での人間の運転手とのやりとりは大きな課題だ。
人間が行動する動機はアルゴリズムの動機とは大きく異なる。基本的に、ほとんどの運転手は自身や他人を守ろうとする。アルゴリズムではそれが保証されない。
3月22日に英ロンドン中心部で起きたテロ事件のような例外はある。とはいえ、運転席に人間が乗っていなくても、リスクは必ずしも減らない。自動運転車はハッキングされれば、いとも簡単に凶器となるからだ。
また、米国では2014年、アルコール中毒死の数が自動車事故死の3倍に上った。運転時には禁酒しても、ハンドルを握らなくて もよくなれば、アルコールや薬物に走る人が増えるかもしれない。 プログラマーに信頼をおけるかという問題もある。企業の雇用主は通常、精巧な報酬・懲罰システムを考案する。労働者に最良の仕事をしてもらうよう動機づけするためだ。労働者は説明責任を負う。 銀行漂や航空管制など、人間の不注意で甚大な影響が出る恐れのある分野では、この種の動機づけは特に重要な意味を持つ。
ところが、自動運転車はプログラマーが設計し維持管理する。人 数が多く説明責任を追及されにくい彼らは、常に適切に動機づけさ れていると言い切れるだろうか。 人間の運転技術を補ううえで、 自動運転車を正当化する根拠は十分あるが、使わないことで我々の 運転能力が衰えるリスクもある。 自分で運転しなければならなくなった時、もはやその力がないことに気づきたくはない。