AI軍事利用を巡る論争 オープンAIが契約見直し

井村 智規
经过

AIと軍事協力を巡る新たな修正合意

米人工知能企業オープンAIは、機密環境でのAI活用に関する米国防総省との合意内容を見直したと発表した。今回の修正では、AI技術が米国内の市民監視に利用されないよう明確な制限が加えられた。
同社は2月27日に国防総省との提携を公表していたが、その後AIの軍事利用に対する批判が拡大していた。

国内監視へのAI利用を禁止する条項

新たに追加された規定では、AIシステムを米国民の監視目的で使用することを認めないと定めた。個人情報を基にした追跡や分析なども対象外とされている。
さらに、国家安全保障局などの情報機関は、新たな契約締結がない限り同社のAI技術を利用できないことになった。

発表直後に広がった利用者の反発

オープンAIが国防総省との協力を公表した後、利用者の間で反発が広がった。市場調査会社のデータによると、この発表後に対話型AI「チャットGPT」を削除するユーザーが増加したという。
AI企業と政府の関係が透明性を欠くとの指摘もあり、AI技術の利用範囲を巡る議論が活発化した。

競合アンソロピックとの方針の違い

AI企業アンソロピックは、監視や自律兵器開発への技術利用を認めないという原則を掲げている。米国防総省との交渉では、この方針を撤回しなかったため協議は成立しなかった。
こうした経緯の中で、オープンAIが政府と提携したことが注目を集めた。

AI技術の軍事活用と倫理問題

AIは軍事分野で多様な用途に利用されている。兵站管理の効率化や大量データの分析など、軍事作戦の支援技術として導入が進んでいる。
一方で、自律兵器や監視技術への転用を巡る倫理問題も指摘されており、政府と民間企業の関係をどう規制するかが今後の重要な課題となっている。

この記事をシェア