人工知能(AI)は、民間と公共の両部門で多くの利点と課題が発生しています。AI技術の機会を活用しつつ、その潜在的な問題をいかに最小限に抑えるかという議論が各国で行われている中、今回は米国議会調査局(CRS : Congressional Research Service)が公開しているしている資料「Regulating Artificial Intelligence: U.S. and International Approaches and Considerations for Congress」を読み解き、そこから得られた知見を自身の学びとして整理しました。
レポートへのリンク⇒ [Regulating Artificial Intelligence: U.S. and International Approaches and Considerations for Congress]
AIの定義と規制上の考慮事項
AIには広く合意された単一の定義は存在しません。例えば2020年の国家AIイニシアティブ法(the National AI Initiative Act of 2020)では、「人間が定義した目標に対し、予測や決定を行うことができる機械ベースのシステム」と定義されています。AIの定義を法的に定めることは、技術が急速に進化する中で複雑な課題となりますが、議会はAIのガバナンスと規制の枠組みを確立するため、共通の定義を提供することが一つの役割となっています。
AI技術は多くのメリットを提供する一方で、雇用の喪失や市民的自由への損害、プライバシーの喪失といったリスクも発生します。AI規制の支持者は、安全性向上や差別的結果からの保護を主張するのに対し、反対者はイノベーションの阻害を懸念しています。政策を策定する上で、安全性促進、セキュリティ重視、イノベーション加速といったアプローチを、対象となる技術や状況に応じて組み合わせる視点が重要であることが改めて言及されています。
米国のAIガバナンスと規制
米国の連邦レベルでは、リスクを管理しつつAIの革新を支援する政策が進められてきました。これまでに制定されたAI関連法は、主に研究開発(R&D)の促進に焦点を当てており、AIの開発や使用に対する広範な規制権限を確立するものではないとのことです。
連邦レベルでの包括的な規制がないため、カリフォルニア州やコロラド州など、各州が独自のAI法を制定する動きが加速しています。この「AI法の寄せ集め」は、事業者にとってコンプライアンス上の課題を生み出しています。
議会では超党派のワーキンググループやタスクフォースが設置され、政策ロードマップの公表など、活発な議論が行われています。一方、行政府では大統領令を通じてAI政策が推進されてきましたが、政権交代によって方針が変更されることもあり、例えばバイデン大統領のAIに関する大統領令は、トランプ大統領によって撤回されています。現在、米国の規制アプローチは、民間部門のAIを直接規制するよりも、連邦政府自身のAI使用を監督することに重点が置かれているようです。
米国におけるAI規制の3つの手法
米連邦政府のAI規制に関するアプローチは、大きく3つに分類できます。一つ目は、コンピューティング能力の閾値などでAI技術そのものを規制する手法です。二つ目は、セクターを横断する形でAI技術の使用を規制する手法。そして三つ目は、金融やヘルスケアといった特定のセクター内でのAI技術使用に焦点を当てる手法です。これらはそれぞれに利点と課題があり、状況に応じて使い分けられています。
AIガバナンスと規制に対する国際的なアプローチ
世界に目を向けると、各国のAI規制へのアプローチは様々です。
英国
英国は、AIに関する一般的な制定法を持たず、AIが使用されるセクターの既存の法的枠組みを通じて規制するアプローチをとってきました。5つの原則(安全・セキュリティ・堅牢性、透明性と説明可能性、公平性、説明責任とガバナンス、競争可能性と救済)を掲げ、プロイノベーションの姿勢を維持しつつ、規制の明確化を目指しています。
欧州連合(EU)
EUは、包括的な「EU AI法」を制定しました。この法律は、AIシステムをリスクのレベルに応じて分類するリスクベースのアプローチを採用しています。「許容できないリスク」を持つAIは原則禁止され、「高リスク」AIには厳しい要件が課されます。一方で、「最小限のリスク」のAIには義務はありません。このアプローチは、基本的人権の保護とイノベーション支援のバランスを取ることを目指していますが、企業のコンプライアンスコストに関する懸念も指摘されています。
中国
中国は、国家安全保障と経済発展を重視し、垂直的で技術に特化した規制枠組みを特徴としています。政府が国家主導の産業政策を通じてAIのような戦略的技術の研究開発を強力に支援し、方向付けている点が他国との大きな違いです。包括的なAI法の草案も公開されており、今後の動向が注目されます。
複数国間および二国間の連携
AIガバナンスは一国だけで完結するものではなく、国際的な連携が不可欠です。米国はOECDやG7、国連などの多国間イニシアティブに積極的に関与しています。また、米英間でAI安全研究所(AISI)の連携協定が結ばれるなど、二国間での協力も進んでいます。
議会への政策考慮事項
議会がAI規制を検討する上で、いくつかの選択肢が考えられています。既存の連邦機関の権限を活用し、現状の枠組みを維持する方法も一つです。しかし、それでは州ごとの「AI法の寄せ集め」問題は解決されません。そこで、NIST AISIのような既存の機関の活動を法制化し、AI開発を支援することも考えられています。
また、影響評価や第三者監査、AI生成コンテンツのラベル付けといった、新たな規制や権限を創設することも選択肢となっています。さらに、規制とは別に、研究資源へのアクセスを支援する「NAIRR」の法制化や、企業が規制の法的リスクから免除されて新製品をテストできる「規制サンドボックス」の創設など、米国内のAI開発と展開を直接支援するアプローチも重要とされています。国際的な整合性を保ちつつ、国内のイノベーションをどう促進するか、これらの要因のバランスをいかに取るかが、今後の政策決定の鍵となっていることも読み取れました。
おわりに
今回、AI規制に関する各国の多様なアプローチを読み解くことを通じて、技術革新を促進しながら、いかにして安全性や公平性といった価値を担保していくかという、現代社会が直面する大きな課題の複雑さを改めて認識しました。
特に、EUのリスクベースのアプローチや、米英のセクター別アプローチ、そして中国の国家主導のアプローチといった違いは、それぞれの社会が何を重視し、どのような未来を目指しているのかを反映しているように感じました。
この分野の動向は非常に速く、今後も継続的に最新の情報を追い、自身の知識をアップデートしていくことの重要性を再確認する機会となりました。