俺人〜OREGIN〜俺、バカだから人工知能に代わりに頑張ってもらうまでのお話

俺って、おバカさんなので、とっても優秀な人工知能を作って代わりに頑張ってもらうことにしました。世界の端っこでおバカな俺が夢の達成に向けてチマチマ頑張る、そんな小さなお話です。現在はG検定、E資格に合格し、KaggleやProbSpaceのコンペに参画しながら、Pythonや機械学習、統計学、Dockerなどの勉強中です。学習したことをブログにアウトプットすることで、自分の身に着けていきたいと思います。まだまだ道半ばですが、お時間がありましたら見て行ってください。

第7回AI戦略会議『AI事業者ガイドライン案』を読み解く【第3部 AI開発者に関する事項】

今回から、12月21日に開催された第7回AI戦略会議総務省経済産業省の連名で報告された『AI事業者ガイドライン案』を数回に分けて、自分なりにゆっくり読み解いていきたいと思います。

今回は、AI事業者となる各主体がのうち、AI開発者が取り組むべき内容が記載された「第3部 AI開発者に関する事項」を読み解きました。

AIの開発や運用、サービス提供を行う皆さんの参考になる情報をご提供できればと思います。

これまでに、読み解いた章については、以下に公開しておりますので、併せてご参照ください。

 oregin-ai.hatenablog.com 

また、G検定でも時事的な法律や制度などの問題も出題されているということなので、受験される方の何かの参考になれれば幸いです。

【目次】

1.ガイドライン全体の構成

AI事業者ガイドライン案』は、別添(付属資料)付録も含めて、大きく5つに分かれています。ガイドラインの用語の定義を中心とした「第1部」、AIの社会的な利用に関する基本理念と指針をまとめAIの利益と社会的リスクへのガバナンス構築の必要性をすべての事業者向けに記載した「第2部」、AIを活用するAI開発者、AI提供者、AI利用者の3主体の留意事項を記載した「第3部」、「第4部」、「第5部」で構成されています。

また、各主体は自身の記載箇所だけでなく、隣接主体に関する事項にも理解を広げることが重要だとされています。

出所:AI事業者ガイドライン案

ページ6

2.今回読んだ範囲の概要

今回は、AI開発者が取り組むべき内容が記載された「第3部 AI開発者に関する事項」を読み解きました。

AI開発者は、AIモデルの設計や変更を通じて、AIシステム全体に大きな影響を与える力を持っているため、社会からはイノベーションを期待されており、その影響は広範囲に及びます。そのため、開発者は自らの作品が社会に与える影響を事前に検討し、必要な対策を講じることが重要であると言及されています。

AI開発者はリスクや社会的影響を考慮し、適切な判断と修正を行うとともに、予期せぬ事故が発生した際には、関係者は説明を求められる可能性があるため、自身の関与を合理的に説明できるように、記録を残すことも重要であると述べられています。

なお、この章では概念的な内容が記載されており、具体的な手法については、別添にて解説されています。別添については、改めて読み解きたいと思います。

3.「データ前処理・学習時」を読み解く

データ前処理・学習時に取り組むべき事項としては以下のような内容が記載されています。

【適切なデータの学習】

  • プライバシーバイデザインに基づき法的規制に配慮しつつ、学習データを適切に収集する。
  • 三者の機密情報や個人情報、知的財産権などを含む場合は、法令に従って適切に扱う。
  • 学習前や学習中、データへのアクセスを管理する機能を導入する。

【データに含まれるバイアスへの配慮】

  • 学習データやモデルの学習過程によっては、バイアスが含まれる可能性があることに留意する。
  • データの質を管理するために、適切な措置を講じる。
  • バイアスを完全に排除できないことを踏まえ、必要に応じて、複数の手法に基づく開発を並行して行う。

4.「AI開発時」を読み解く

AI開発時に取り組むべき事項としては以下のような内容が記載されています。

【人間の生命・心身・財産、及び環境に配慮した開発】

  • 予期しない状況でも機能する性能や、リスクを最小限に抑える方法の検討。

【適正利用に資する開発】

  • 開発者は、事前に想定していない利用による危害を防ぐために、安全に利用可能な範囲を設定して開発を行う。
  • 事前学習済みのAIモデルを事後学習する場合は、商用利用の可否や事前学習データ、必要なスペックなどを考慮する。

【AIモデルのアルゴリズム等に含まれるバイアスへの配慮】

  • AIモデルを構成する各技術要素(入力するプロンプト、推論時に参照する情報、連携する外部サービス等)によってバイアスが含まれることも検討する。
  • バイアスは完全に排除できないことを前提に、多様な手法に基づく開発を行う。

【セキュリティ対策のための仕組みの導入】

  • セキュリティバイデザインに基づき、AIシステムの開発過程を通じて、採用する技術の特性に応じた適切なセキュリティ対策を講じる。

【検証可能性の確保】

  • AIの予測性能や品質を保つために、事後検証のための作業記録を残し、品質の維持・向上を行う。

5.「AI開発後」を読み解く

【最新動向への留意】

  • 日々進化するAIシステムに対する攻撃手法はのリスクに対処するため、開発の各段階で留意すべき点を確認する。

【関係するステークホルダーへの情報提供】

  • AIシステムに関する情報を関連するステークホルダー(AI提供者を通じて行う場合も含む)に適時かつ適切に提供する。
    • 学習等による出力またはプログラムの変化の可能性
    • 技術的特性、安全性確保の仕組み、利用の結果生じる可能性のある予見可能なリスク及びその緩和策等の安全性に関する情報
    • 開発時に想定していない提供・利用により危害が発生することを避けるためのAI開発者が意図する利用範囲
    • AIシステムの動作状況に関する情報、不具合の原因と対応状況
    • 更新を行った場合の内容とその理由の情報
    • AIモデルで学習するデータの収集ポリシーやその学習方法及び実施体制

【AI提供者への共通の指針の対応状況の説明】

  •  AI開発者は、AI提供者に対して、AIの特性やリスクに関する情報を提供し説明する。例えば、AIモデルの技術要素に含まれるバイアスへの対応などを周知する。

【開発関連情報の文書化】

  • トレーサビリティと透明性を向上させるため、開発過程や意思決定に影響を与えるデータ収集、使用されたアルゴリズムなどを可能な限り第三者が検証できる形で文書化する。

6.「AI開発者の取り組みが期待される事項」を読み解く

これまでは、AI開発者にとって重要な取り組み事項が挙げられていましたが、AI開発者の取り組みが期待される事項として、以下のような内容が記載されています。

  • 研究開発の推進: 品質や信頼性の向上、開発方法論の研究など、新たな技術や手法の開発に取り組む。
  • 社会問題への貢献: 持続的な経済成長や社会課題の解決策を提案し、実現に向けて努力する。
  • 国際協力の促進: 国際的な動向や議論に参加し、AI開発者コミュニティや学会への参加を通じて、国際化や多様化を促進する。
  • 情報提供の推進: 社会全体に向けて情報を提供し、透明性を確保する。

7.「「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」における追加的な記載事項」を読み解く

高度なAIシステムを開発するAI開発者には、これまでの記載事項に加えて、「第2部 D. 高度なAIシステムに関係する事業者に共通の指針」と「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」に準拠する必要があるため、以下も遵守すべきと記載されています。

こちらも行動規範全体の内容については、別添を参照するよう記載されています。

  • I. リスクの特定と軽減: 高度なAIシステムの開発段階から導入および市場投入前に、リスクを特定し、緩和策を文書化して定期的に更新する。また、セクターを超えた関係者と連携して、リスクへの対処策を評価する。
  • II. 導入後の脆弱性の特定と緩和: 市場投入後も、脆弱性や悪用されたインシデントを特定し、緩和する。また、報奨金制度やコンテストなどのインセンティブを通じて、責任を持って弱点を開示するインセンティブを与えることを検討する。
  • III. 透明性の向上: AIシステムの能力や限界、適切な使用領域を公表し、透明性を確保する。透明性報告書や技術的文書を最新の状態に保つ。
  • IV. 責任ある情報共有: 産業界や政府、市民社会、学界など、組織間での責任ある情報共有とインシデントの報告を促進する。安全性やセキュリティを確保するための共有基準やメカニズムを開発する。
  • V. リスクベースのアプローチ: AIガバナンス方針を策定し、実施し、開示する。個人情報保護方針やリスク管理方針を含み、定期的に更新する。
  • VI. セキュリティ管理の強化: 物理的セキュリティやサイバーセキュリティ、内部脅威に対する安全対策を強化する。適切な環境での作業と文書管理を義務付け、内部脅威検知プログラムを確立する。
  • VII. 信頼できるコンテンツ認証: AIが生成したコンテンツを識別できるメカニズムを開発し、導入する。透かしや識別子を利用することに加え、この分野の研究に投資する。
  • VIII. リスク管理への投資: 社会的、安全、セキュリティ上のリスクに対処するための研究や投資を行い、リスクに関するベストプラクティスを共有する。
  • IX. 社会問題への対応: AIの開発を通じて、世界の最大の課題(特に気候危機、世界保健、教育等)に取り組む。デジタル・リテラシーの支援や教育プログラムを推進し、市民社会との協力を促進する。
  • X. 国際的な技術規格の推進: 国際的な技術規格の開発を促進し、AIが生成したコンテンツと他のコンテンツを区別できる技術標準を開発する。
  • XI. データ保護の重視: 個人データや知的財産を保護するために、適切なデータインプット対策を実施する。透明性とプライバシー保護のための対策を講じ、セーフガードを導入する

8.おわりに

今回は、『AI事業者ガイドライン案』の「第3部 AI開発者に関する事項」を読み解いてきました。
AI開発者において、どのような事項を実施しなくてはならないかを全体を俯瞰する形で、網羅的に把握することができました。

具体的な行動規範や手法については、別添にて記載されているとのことですので、引き続き読み進めていきたいと思います。

次回は、第4部「AI 提供者に関する事項」に読み進んでいきたいと思います。