生成AIの大規模な開発事業者、政府が法規制へ…「技術革新を阻害」と反対の声も
首相官邸
政府はAI(人工知能)を巡り、国内外の大規模な開発事業者を対象とした法規制の検討に入った。生成AIの安全性への懸念が高まる中、海外では規制を強める動きが目立っており、事業者の自主的な取り組みに委ねてきた従来の方針の軌道修正を模索する。
AIを巡る政策の方向性を議論する「AI戦略会議」を5月下旬に開き、法規制の導入の可否に加え、想定される具体策について議論を始める。自民党内では、大規模なAI開発事業者に対して第三者による安全性の検証や政府との情報共有を義務づける案が出ている。法規制はこうした案がベースになる可能性もあるが、政府内には「強い規制は技術革新を阻害する」として法規制に反対する声もあり、慎重に意見集約を進める考えだ。
政府は今年4月にAI事業者向けのガイドライン(指針)を策定し、事業者に「安全性」などを考慮した偽情報対策などを促している。一方、欧州連合(EU)は、AIのリスクを4分類して開発や運用を規制する「AI法」を成立させており、日本でも国際的な潮流に合わせて法規制を進める必要性が指摘されていた。