カリフォルニア州、全米初のAI安全規制法を制定

井村 智規
经过

AI企業への安全対策開示義務が成立

米カリフォルニア州のニューサム知事は9月29日、人工知能の大規模開発企業に対して安全対策を義務化する法律に署名した。これは全米で初めての事例となり、AI開発における安全性確保を制度化する動きとして注目されている。

売上高5億ドル以上の企業が対象に

新法は売上高が5億ドル以上の企業を対象とし、最先端AIが引き起こす可能性のある「制御不能」や「生物兵器利用」などのリスクを評価し、対策を開示することを求める。違反した場合は1件につき最高100万ドルの罰金が科される厳しい内容となっている。

シリコンバレーの大手企業に直撃

この規制の影響を直接受けるのは、オープンAI、アルファベット傘下のグーグル、メタプラットフォームズ、エヌビディアといった企業群である。いずれもカリフォルニア州に拠点を置き、州経済を支える重要な存在だが、今後は透明性の高いリスク管理を迫られる。

政治的背景と知事の方針転換

ニューサム知事は昨年、同様の法案に拒否権を行使していた。しかし今回は安全性を重視する姿勢を示し、署名に踏み切った。米メディアは、トランプ政権が中国に対抗するためAI開発を加速させている中で、カリフォルニア州が「安全性で差別化を図る」構図があると指摘している。

評価と懸念が交錯する業界の反応

AI企業アンソロピックの共同創業者は「公共の安全と革新を両立させる枠組み」と評価した。一方、アンドリーセン・ホロウィッツの幹部は「州が連邦に代わってAI市場を統治する前例となる危険がある」とし、スタートアップにとって負担が重すぎると懸念を表明している。

この記事をシェア