The Economist
AI規制はテック大手を利する
ビジネス記事を書いていて最も興奮するのは、従来の常識が目の前で変わりつつあることに気づく瞬間だ。背筋に戦慄が走る。大発見を誇りたい気持ちになり、ベストセラー小説の書き出しを構想するかのように、周囲で起きていることを詳細に書き留める。
最近、そんな瞬間を味わった。人工知能(AI)の分野で注目を集めるスタートアップ企業、アンスロピックのサンフランシスコにあるオフィスで同社の共同設立者の一人、ジャック・クラーク氏と話していた時のことだ。
クラーク氏は有害なAIの拡散を抑止するために全世界が協調することが必要だと主張した。その取り組みを1946年に世界の核兵器をすべて国連の管理下に置くことを目指して国連原子力委員会米政府代表(当時)のバーナード・バルーク氏が提案したバルーク案(最終的には実現しなかった)に例えた。
起業家が自ら開発した製品や技術を遠回しにでも核兵器に例える発言は、我々が重大な岐路に立っていることを示唆していた。
対話型AIの「Chat(チャット)GPT」が2022年11月に登場して以来、生成AIが人間の存在意義に疑問を投げかけるようになるのではないかという不安が広がった。しかし、それは違う。
自ら生み出したAIを警戒する開発者たち
AI分野のパイオニアたちは、機械が人間の知能や思考を超えるようなディストピア(反理想郷)が来ることを心配しているわけではない。むしろ、その多くは、自分たちが今生み出している技術に潜む危険を憂慮しているのだ。
生成AIは、インターネット上の文章や画像、音声などを分析した結果を基に人間が作ったようなコンテンツを創出する。今話題のチャットGPTはその一つだ。
これを開発した米新興企業、オープンAIのサム・アルトマン最高経営責任者(CEO)が16日、米上院プライバシー・テクノロジー・法律小委員会の公聴会で証言台に立った。同氏は、チャットボット(自動応答システム)の背後にある「大規模言語モデル(LLM)」がますます強力になっており、リスクを管理するために規制と介入が極めて重要だと述べた。
ルールが確立されていないなかで、オープンAIのようなシリコンバレーのAI関連新興企業の幹部の中には、米政府関係者と話し合うための非公式ルートを作ったという人物もいる。自社チャットボットを検証して判明した潜在的な危険について議論するためだ。人種差別や子どもを対象にした性犯罪、爆弾の作り方に関する情報の提供などの危険が考えられるという。
米インフレクションAIの共同設立者のムスタファ・スレイマン氏は、会話ができる自社のデジタルコンパニオン「Pi(パイ)」の脆弱性を発見したハッカーに近々高額の報奨金を出すことを明らかにした。同氏は本誌(The Economist)の親会社の取締役でもある。
開発者自身が自分たちで生み出した技術を警戒している。この点で、生成AIがもたらした今回のテックブームは少なくとも表面的には過去のブームと異なっている。ベンチャーキャピタルの資本は今回も大量に流れ込んでいる。だが、フェイスブック(現メタ)のモットーだった「素早く行動して、破壊せよ」といった過去のアプローチとは明らかに違う。
AIスタートアップとビッグテックの共生関係
今、多くのスタートアップは安全性を第一に掲げる。シリコンバレーでは「(事前に)許可を取るより(先に実行して、後で)許しを請う方が簡単だ」と言われてきた。今、その格言は捨て去られた。オープンAIやアンスロピック、インフレクションAIなどの新興企業は利益の最大化に歯止めを掛ける組織構造を導入し、利潤のために安全を犠牲にすることはないという姿勢を明示している。
今回のブームが過去と異なるもう一つの点は、自社でLLMを開発するスタートアップが既存の巨大テック企業を頂点とする秩序を崩そうとしていないことだ。むしろそれらの新興企業が大手の地位をより強固にする可能性がある。生成AIの開発レースではスタートアップとテック大手は共生関係にあるのだ。
例えば米マイクロソフトはオープンAIの一大出資者であり、自社のソフトウエアや検索製品の改善にオープンAIの技術を使っている。米アルファベット傘下のグーグルはアンスロピックに多額の出資をしている。アンスロピックは23日に4億5000万ドル(約630億円)の資金調達を実施、それにはグーグルからの追加出資も含まれる。
テック大手のクラウドコンピューティングプラットフォームも新興企業と大手の結び付きを強める要因になっている。新興企業はクラウドサービスを使って自社のAIに大量のデータを学習させ、まるで人間が話しているようなチャットボットを開発する。
マイクロソフトとグーグルはチャットボット開発レースで競合するが、共に新興企業と同様に安全重視の姿勢をみせている。両社はLLMを監視するための新ルールと国際協調が不可欠だと主張している。アルファベットのスンダー・ピチャイCEOは「AIは極めて重要なため、規制する必要がある。しっかりとした規制が必要だ」と述べた。
規制は新規参入のハードルを上げる
強大化するAIモデルが、偽情報や選挙操作、テロ行為、雇用の喪失などの危険をもたらす可能性があることを考えると、テック大手が慎重な姿勢を示すのももっともにみえる。だが、重要な事実を忘れてはいけない。AI規制はテック大手に恩恵をもたらし、その地位の強化につながる可能性があるのだ。大手の方が規制に伴うコスト増への対応力が強い。そのうえ、規制は新規参入のハードルをより高くする。
これは重要な点だ。規制を設ければ、巨大テック企業がそれを利用して生成AIでトップの地位を固めるというトレードオフが生じる。大手は自社製品を強化する方向で新技術を利用しようとし、自社技術に取って代わらせようとはしないだろう。自社の中核事業(マイクロソフトなら企業向けソフトウエア、グーグルなら検索サービス)を守ろうとするはずだ。
そうなれば経済学者シュンペーターが提唱した「創造的破壊」は生まれない。既存の大手がイノベーションのプロセスを握り、「創造的蓄積」とも呼ばれる状況になって、技術が本来の革新力を発揮できなくなる可能性がある。
オープンソースを使ったAIが台頭 このシナリオ通りになるとは限らない。今後の展開のカギを握る一つの要素は、ソフトウエアを形成するソースコードが一般公開されたオープンソースによるAIだ。
メタが自社所有のLLM「LLaMA」を研究のためにオープンソースで公開したが、そのデータが3月にネットで拡散した。シリコンバレーではオープンソースでの開発者が独自開発のモデルに匹敵する性能の生成AIモデルを数百分の1のコストで構築できると話題になっている。
アンスロピックのクラーク氏はオープンソースのAIを「非常に厄介な概念」だという。技術革新を加速させるが、基本的に管理が難しく、敵対国や例えばランサムウエア(身代金要求型ウイルス)を作る17歳の若者の手にかかれば悪用されかねない。こうした懸念を払拭するには、世界中の規制当局が生成AIの問題に取り組む必要がある。
マイクロソフトやグーグル、ひいてはそれらに連なる新興企業は、オープンソースを利用する開発業者よりもあらゆる規制に対処するための資金力が豊富だ。自らを巨大テック企業に上りつめさせた既存のIT(情報技術)システムが安定すれば、テック大手にとってメリットが大きい。今回に限っては、安全と利益の二兎(にと)を追うことができそうだ。