オープンAIと米国防総省の契約修正を発表
対話型AI「チャットGPT」を開発する米オープンAIは3月2日、米国防総省とのAI利用契約を修正したと発表した。修正された合意には、同社のAIシステムを米国内での監視目的に使用してはならないとする条項が新たに盛り込まれた。
この契約は、機密システムでAI技術を活用するためのもので、同社が2月27日に公表していた。発表後、AIの軍事利用や政府による監視の可能性を巡り、利用者や専門家から懸念が示されていた。
米国民の監視利用を明確に禁止
修正内容では、AIを用いて米国民を追跡・監視する行為を認めないと明記された。民間から取得した個人情報などを使った国内監視も対象外とされる。
また、国家安全保障局(NSA)などの情報機関が同社のAIを利用する場合は、追加の契約変更が必要となる仕組みとした。これにより、AI技術の利用範囲がより厳格に管理される形となる。
発表の拙速さをアルトマン氏が認める
オープンAIのサム・アルトマン最高経営責任者は、SNSのXで契約内容の変更を説明した。
同氏は、最初の発表を急いだことで十分な説明ができず、「便乗的でずさんな印象を与えた」と認めた。AIの軍事利用を巡る問題は複雑であり、より明確な説明が必要だったと指摘している。
競合企業との対立と政府契約の背景
米国防総省は当初、AI企業アンソロピックとも協議を進めていた。しかし同社は、自社AIモデル「クロード」を監視用途や完全自律型兵器に使用することを認めないとする方針を維持し、協議は決裂した。
その後、オープンAIが国防総省との提携を公表したことで、AI企業と政府の関係を巡る議論が広がった。
AIの軍事利用を巡る国際的な議論拡大
AI技術は軍事分野での利用が進んでおり、兵站管理の効率化や膨大なデータ分析などに活用されている。米国やウクライナ、北大西洋条約機構(NATO)は、米企業パランティアのデータ分析技術を軍事情報の処理などに用いている。
AIの軍事利用は今後も拡大する可能性がある一方、監視や自律兵器への転用を巡る倫理的課題が国際社会で議論されている。