Since 1975
日本語で読むアラビアのニュース
  • facebook
  • twitter

AIは国家安全保障において新たな考え方を要求している

Short Url:
05 Aug 2024 01:08:43 GMT9

人類は道具を作る種だが、作った道具をコントロールできるだろうか?ロバート・オッペンハイマーら物理学者が1940年代に最初の核分裂兵器を開発したとき、彼らは自分たちの発明が人類を滅ぼすのではないかと心配した。そしてそれ以来、核兵器のコントロールは永遠の課題となっている。

現在、多くの科学者は人工知能(通常人間の知能を必要とするタスクを機械に実行させるアルゴリズムやソフトウェア)を、同様に変革をもたらすツールと見なしている。これまでの汎用技術と同様、AIは善悪の両面で大きな可能性を秘めている。がん研究においては、人間のチームが数カ月かけて行うよりも多くの研究を数分で分類し、要約することができる。同様に、人間の研究者が発見するのに何年もかかるようなタンパク質の折り畳みのパターンを、AIは確実に予測することができる。

しかし、AIはまた、不良品やテロリストなど、危害を加えようとする悪質な行為者のコストや参入障壁を低くする。ランド研究所が最近行った研究では、こう警告している: 「天然痘に似た危険なウイルスを復活させる最低コストは10万ドル程度で済むが、複雑なワクチンを開発するには10億ドル以上かかる」

さらに、一部の専門家は、高度なAIが人間よりもはるかに賢くなり、むしろ我々をコントロールするようになるのではないかと懸念している。人工知能として知られるこのような超知能マシンが開発されるまでにかかる時間の見積もりは、数年から数十年とさまざまだ。しかし、いずれにせよ、今日の狭い範囲のAIがもたらすリスクの増大は、すでに大きな関心を必要としている。

40年前から、元政府高官、学者、実業家、ジャーナリストで構成されるアスペン戦略グループは、毎年夏に会合を開き、国家安全保障上の大きな問題に焦点を当ててきた。過去のセッションでは、核兵器、サイバー攻撃、中国の台頭といったテーマを扱ってきた。今年は、AIの国家安全保障への影響に焦点を当て、そのメリットとリスクを検証した。

利点としては、膨大な量の情報データを選別する能力の向上、早期警戒システムの強化、複雑な物流システムの改善、サイバーセキュリティを向上させるためのコンピューターコードの検査などが挙げられる。しかし、自律型兵器の進歩、プログラミング・アルゴリズムの偶発的エラー、サイバーセキュリティを弱める敵対的AIなど、大きなリスクもある。

中国は、より広範なAI軍拡競争に大規模な投資を行っており、構造的な優位性も誇っている。AIにとって重要な3つの資源とは、モデルを訓練するためのデータ、アルゴリズムを開発するための賢いエンジニア、そしてそれらを実行するためのコンピューティング・パワーである。中国は、イデオロギーによって一部のデータセットが制限されているものの、データへのアクセスに関する法的制限やプライバシー制限はほとんどなく、優秀な若いエンジニアを十分に抱えている。米国に最も遅れをとっている分野は、AIの計算能力を生み出す高度なマイクロチップである。

自律型兵器は特に深刻な脅威である。

ジョセフ・S・ナイ・ジュニア

アメリカの輸出規制は、中国がこれらの最先端チップやそれを製造する高価なオランダ製リソグラフィ装置にアクセスすることを制限している。アスペンでの専門家のコンセンサスは、中国はアメリカに1、2年遅れているが、状況は依然として不安定であるというものだった。ジョー・バイデン大統領と習近平国家主席は昨年秋の会談でAIに関する二国間協議を行うことに合意したが、アスペンではAI軍備管理の見通しについて楽観的な見方はほとんどなかった。自律型兵器は特に深刻な脅威である。国連での10年以上にわたる外交の末、各国は自律型殺傷兵器の禁止に合意できなかった。国際人道法は、軍隊が武装した戦闘員と民間人を区別することを求めており、国防総省は長い間、武器を発射する前に意思決定のループに人間が入ることを求めてきた。しかし、飛んでくるミサイルを防御するような状況では、人間が介入する時間はない。

コンテクストが重要である以上、人間は、兵器に何ができて何ができないかをコードで厳密に定義しなければならない。言い換えれば、人間が “ループの中にいる “のではなく、”ループ上にいる “べきなのだ。これは単なる推測の域を出ない。ウクライナ戦争では、ロシア軍がウクライナ軍の信号を妨害し、ウクライナ軍に、いつ発砲するかを自律的に最終決定するための装置をプログラムするよう強制している。

AIの最も恐ろしい危険性の一つは、生物兵器戦争やテロリズムへの応用である。1972年に各国が生物兵器の禁止に合意したとき、自国への「反撃」の危険性があるため、そのような兵器は有用ではないというのが通説だった。しかし、合成生物学を使えば、あるグループを破壊し、別のグループを破壊しない兵器を開発できるかもしれない。あるいは、実験室にアクセスできるテロリストは、1995年に日本でオウム真理教が行ったように、単にできるだけ多くの人を殺したいだけかもしれない。彼らが使用したのはサリンで、これは伝染することはないが、現代ではAIを使って伝染性のウイルスを開発することができる。

核技術の場合、1968年に各国が核不拡散条約に合意し、現在191カ国が加盟している。国際原子力機関(IAEA)は、国内のエネルギー計画が平和目的のみに使用されていることを確認するため、定期的に査察を行っている。また、冷戦下の激しい競争にもかかわらず、原子力技術の主要国は1978年、最も機密性の高い施設や技術知識の輸出を自制することに合意した。このような前例は、2つの技術には明らかな違いがあるものの、AIの道筋を示唆している。

技術の進歩は政策や外交よりも速いというのが定説であり、特にそれが民間部門の激しい市場競争によってもたらされる場合はなおさらである。今年のアスペン・ストラテジー・グループの会合で一つの大きな結論があったとすれば、それは政府がペースを上げる必要があるということだ。

  • アスペン戦略グループの共同議長であるジョセフ・S・ナイ・ジュニア氏は、ハーバード・ケネディスクールの元学部長、元米国防次官補であり、最近では『A Life in the American Century』(Polity Press, 2024)の著者である。©Project Syndicate
特に人気
オススメ

return to top