俺人〜OREGIN〜俺、バカだから人工知能に代わりに頑張ってもらうまでのお話

俺って、おバカさんなので、とっても優秀な人工知能を作って代わりに頑張ってもらうことにしました。世界の端っこでおバカな俺が夢の達成に向けてチマチマ頑張る、そんな小さなお話です。現在はG検定、E資格に合格し、KaggleやProbSpaceのコンペに参画しながら、Pythonや機械学習、統計学、Dockerなどの勉強中です。学習したことをブログにアウトプットすることで、自分の身に着けていきたいと思います。まだまだ道半ばですが、お時間がありましたら見て行ってください。

俺人トップページ

目次


最近の記事


まとめ記事

これまで私の取り組んできた内容のまとめ記事です。

2023年

2022年

2021年

2020年

2019年

資格関連

G検定、E資格、AWS認定の体験記などです。

G検定

E資格

AWS認定

CISSP


セキュリティ・ガバナンス関連

AIに関するセキュリティやガバナンスに関する記事です。

第7回AI戦略会議 AI事業者ガイドライン

機械学習システムセキュリティガイドライン Version 2.00

AI原則実践のためのガバナンス・ガイドライン ver.1.1


コンペ関連

各種コンペサイトでの振り返りや、記事のまとめです。

ProbSpace

Signate

Nishika

Solafune

Kaggle


講座・書籍関連

受講した講座や取り組んだ書籍の記録です。

米国AI開発者がゼロから教えるDocker講座(U-demy)

 

GCI 2019 Winter(東京大学グローバル消費インテリジェンス寄付講座)

Pythonによるスクレイピング機械学習テクニック

オライリー・ジャパン社「実践 機械学習システム」


実装紹介など

Pythonでの実装や、環境構築などの記事です。

自然言語処理

SVM

自作パソコン


雑記

その他、イベント参加記録などです。

AI・人工知能EXPO2019

f:id:kanriyou_h004:20211115150125j:plain

以上

 

 

 

第7回AI戦略会議『AI事業者ガイドライン案』を読み解く【第5部 AI利用者に関する事項】

今回から、12月21日に開催された第7回AI戦略会議総務省経済産業省の連名で報告された『AI事業者ガイドライン案』を数回に分けて、自分なりにゆっくり読み解いていきたいと思います。

今回は、AI事業者となる各主体がのうち、AI利用者が取り組むべき内容が記載された「第5部 AI利用者に関する事項」を読み解きました。

AIを事業者として利用する皆さんの参考になる情報をご提供できればと思います。

これまでに、読み解いた章については、以下に公開しておりますので、併せてご参照ください。

 oregin-ai.hatenablog.com 

また、G検定でも時事的な法律や制度などの問題も出題されているということなので、受験される方の何かの参考になれれば幸いです。

【目次】

1.ガイドライン全体の構成

AI事業者ガイドライン案』は、別添(付属資料)付録も含めて、大きく5つに分かれています。ガイドラインの用語の定義を中心とした「第1部」、AIの社会的な利用に関する基本理念と指針をまとめAIの利益と社会的リスクへのガバナンス構築の必要性をすべての事業者向けに記載した「第2部」、AIを活用するAI開発者、AI提供者、AI利用者の3主体の留意事項を記載した「第3部」、「第4部」、「第5部」で構成されています。

また、各主体は自身の記載箇所だけでなく、隣接主体に関する事項にも理解を広げることが重要だとされています。

出所:AI事業者ガイドライン案

ページ6

2.今回読んだ範囲の概要

今回は、AI開発者が取り組むべき内容が記載された「第5部 AI利用者に関する事項」を読み解きました。

AI 利用者は、AI 提供者から安全で信頼性のある AI システム・サービスを受け、AI 提供者が意図した範囲内で適正利用し、AI システムを運用することが重要であると記載されています。
また、人間の判断を介在させることで、人間の尊厳や自律を保ちつつ、自己や社会を豊かにし、予期せぬ事故を防ぐことも求められています。
加えて、社会やステークホルダーからの理解を得るためにも求められた説明にこたえることが期待されるとともに、効果的な AI 利用のために必要な知識を習得することも期待されています。

3.「 AIシステム・サービス利用時」を読み解く

 AIシステム・サービスを利用するときに取り組むべき事項としては以下のような内容が記載されています。

  • U-2)i. 安全を考慮した適正利用

    • AI提供者が定めた利用上の留意点に従い、AIシステム・サービスを設計範囲内で利用する。

    • 正確で必要な場合には最新性等が担保されたデータの入力を行う。

    • AIの出力の精度とリスクを理解し、適切に利用する。

  • U-3)i. 入力データとプロンプトのバイアスへの配慮

    • 公平性を保つためにバイアスのないデータを入力し、責任を持ってAIの出力が事業利用できるか判断する。

  • U-4)i. 個人情報の不適切入力とプライバシー侵害への対策

    • 個人情報を不適切に入力しないよう注意する。

    • プライバシー侵害を防ぐために適切な情報収集と対策を行う。

  • U-5)i. セキュリティ対策の実施

    • AI提供者のセキュリティ上の留意点を遵守する。

  • U-6)i. 関連するステークホルダーへの情報提供

    • 公平性を保つためにバイアスのないデータを入力し、AIシステム・サービスの出力結果を取得し、出力結果を事業判断に活用した場合は、その旨を関連ステークホルダーに周知する。

  • U-7)i. 関連するステークホルダーへの説明

    • 関連するステークホルダーの性質に応じて、害のない範囲で適正な利用方法を含む情報を平易かつアクセスしやすい形で提供する。

    • 関連ステークホルダーから提供されるデータを利用する場合は、AIの特性や用途、提供先との接点、プライバシーポリシーなどを考慮し、あらかじめ情報提供を行う。

    • AIの出力結果を特定の個人や集団に対する評価の基礎とする場合、AIを利用していることを評価対象となっている当該個人や集団に通知し、必要に応じて人間の判断を求める機会を設ける。

    • 利用するAIシステム・サービスの性質に応じて、関連ステークホルダーからの問い合わせに対応する窓口を設置し、AI提供者と連携して説明や要望を受け付ける。

  • U-7)ii. 提供された文書の活用と規約の遵守

    • AI提供者から提供されたAIシステム・サービスについての文書を適切に保管・活用する。

    • AI提供者が定めたサービス規約を遵守する。

4.「第2部 D. 高度な AI システムに関係する事業者に共通の指針」に関する事項を読み解く

高度なAIシステムを取り扱うAI利用者は、これまでの記載事項に加えて、「第2部 D. 高度なAIシステムに関係する事業者に共通の指針」について以下の対応を促されています。

【遵守すべきである事項】

  • XII.  高度な AI システムの信頼でき責任ある利用の促進と貢献

【適切な範囲で順すべきである事項】

  • I. リスクの特定と軽減
  • II. 導入後の脆弱性の特定と緩和
  • III. 透明性の向上
  • IV. 責任ある情報共有
  • V. リスクベースのアプローチ
  • VI. セキュリティ管理の強化
  • VII. 信頼できるコンテンツ認証
  • VIII. リスク管理への投資
  • IX. 社会問題への対応
  • X. 国際的な技術規格の推進
  • XI. データ保護の重視

5.おわりに

今回は、『AI事業者ガイドライン案』の「第5部 AI利用者に関する事項」を読み解いてきました。
AI利用者は、事業の用途としてAIシステムやサービスを利用する立場にあり、より直接的に公平性、プライバシー保護、セキュリティ対策、関連ステークホルダーへの説明、文書の活用、規約の遵守などが求められていると感じました。

また、逆に開発等で手を入れられる範囲は限られているので、AIサービス提供者の指定する範囲内での利用が重要であるということも理解できました。

次回以降は、別添の付属資料についても読み進んでいきたいと思います。

 

第7回AI戦略会議『AI事業者ガイドライン案』を読み解く【第4部 AI提供者に関する事項】

今回から、12月21日に開催された第7回AI戦略会議総務省経済産業省の連名で報告された『AI事業者ガイドライン案』を数回に分けて、自分なりにゆっくり読み解いていきたいと思います。

今回は、AI事業者となる各主体がのうち、AIサービスを提供するAI提供者が取り組むべき内容が記載された「第4部 AI提供者に関する事項」を読み解きました。

AIの開発や運用、サービス提供を行う皆さんの参考になる情報をご提供できればと思います。

これまでに、読み解いた章については、以下に公開しておりますので、併せてご参照ください。

 oregin-ai.hatenablog.com 

また、G検定でも時事的な法律や制度などの問題も出題されているということなので、受験される方の何かの参考になれれば幸いです。

【目次】

1.ガイドライン全体の構成

AI事業者ガイドライン案』は、別添(付属資料)付録も含めて、大きく5つに分かれています。ガイドラインの用語の定義を中心とした「第1部」、AIの社会的な利用に関する基本理念と指針をまとめAIの利益と社会的リスクへのガバナンス構築の必要性をすべての事業者向けに記載した「第2部」、AIを活用するAI開発者、AI提供者、AI利用者の3主体の留意事項を記載した「第3部」、「第4部」、「第5部」で構成されています。

また、各主体は自身の記載箇所だけでなく、隣接主体に関する事項にも理解を広げることが重要だとされています。

出所:AI事業者ガイドライン案

ページ6

2.今回読んだ範囲の概要

今回は、AI開発者が取り組むべき内容が記載された「第4部 AI提供者に関する事項」を読み解きました。

AI提供者は、AI開発者が作ったAIシステムに付加価値を与え、それを利用者に提供する役割を果たします。AIの普及と社会経済の成長に貢献しつつも、AIの影響が大きいため、適正な利用を重視したサービス提供が重要で、AIがシステムに適しているかを確認し、ビジネス戦略や社会の変化に柔軟に対応する必要がある旨が記載されています。

また、AIシステムを開発者の意図通りに実装し、正常に運用されるように支援するのが重要であるとともに、利用者には、適切なサポートやサービスを提供し、社会やステークホルダーに不利益をもたらさないように注意する必要がある旨が記載されています。インシデント事例を含む関連情報を共有し、安全で信頼性の高いAIシステムを提供することも期待されています。

3.「 AIシステム実装時」を読み解く

 AIシステム実装時に取り組むべき事項としては以下のような内容が記載されています。

  • P-2)i. 人間の生命・心身・財産、及び環境に配 したリスク対策
    • AI 利用時の関係者の安全を保障し、リスクを最小限に抑える技術(ガードレール)を検討する
  • P-2)ii. 適正利用に資する提供
    • AI 利用上の留意点を提供する
    • AI 開発者が設定した範囲内で活用する
    • 提供時点でのデータの正確性、最新性等を担保する
    • AI開発者が開発した想定利用環境と利用者の利用環境に違いがないかを検討する
  • P-3)i. AI システム・サービスの構成やデータに含まれるバイアスへの配
    • データの公平性やバイアスを検討する
    • 入出力や判断根拠を定期的に評価し、バイアスをモニタリングする
    • 必用に応じAI開発者にバイアスの再評価、改善を促す
    • 利用者のビジネスプロセスや判断を恣意的に制限するようなバイアスが含まれる可能性を検討する
  • P-4)i. プライバシー 護のための仕組みや対策の導入
    • AI システムの実装過程でプライバシー保護の対策を講じる(プライバシー・バイ・デザイン
  • P-5)i. セキュリティ対策のための仕組みの導入
    • AI システムの提供過程でセキュリティ対策を講じる(セキュリティ・バイ・デザイン
  • P-6)i. システムアーキテクチャ等の文書化
    • 意思決定に影響を与える AI システムのシステムアーキテクチャやデータ処理プロセスを文書化する。

4.「AIシステム・サービス提供後」を読み解く

AIシステム・サービス提供後に取り組むべき事項としては以下のような内容が記載されています。

  • P-2)ii. 適正利用に資する提供
    • 定期的に AI システムが適切な目的で使用されているかを確認する
  • P-4)ii. プライバシー侵害への対策
    • AI システムに関するプライバシー侵害に対処し、再発を防止する
  • P-5)ii. 脆弱性への対応
    • 最新のリスクやそれに対応するために、AI システムの提供の各工程で気を付けるべき点の動向を確認する
    • 脆弱性の解消を検討する
  • P-6)ii. 関連するステークホルダーへの情報提供
    • AI システムに関する情報を明確かつアクセスしやすい形で提供し、適切な利用を促進する
      • AIを利用しているという事実や適切/不適切な使用方法等
      • 提供するAIシステム・サービスの技術的特性、利用によりもたらす結果により生じる可能性のある予見可能なリスク及びその緩和策等の安全に関する情報
  • P-7)i. AI 利用者への共通の指針の対応状況の説明
    • AI 利用者に適正な利用を促し、以下の情報を提供する:
      • データの正確性と必要に応じた最新性の注意喚起
      • コンテキスト内学習による不適切な AI モデルの学習に対する警告
      • 個人情報を入力する際の留意点
    • AI システム・サービスへの個人情報の不適切入力に関する警告を提供
  • P-7)ii. サービス規 等の文書化
    • AI 利用者や業務外利用者向けにサービス規定を作成
    • プライバシーポリシーを明示
 

5.「第2部 D. 高度な AI システムに関係する事業者に共通の指針」に関する事項を読み解く

高度なAIシステムを取り扱うAI提供者は、これまでの記載事項に加えて、「第2部 D. 高度なAIシステムに関係する事業者に共通の指針」について以下の対応を促されています。

【遵守すべきである事項】

  • XII.  高度な AI システムの信頼でき責任ある利用の促進と貢献

【適切な範囲で順すべきである事項】

  • I. リスクの特定と軽減
  • II. 導入後の脆弱性の特定と緩和
  • III. 透明性の向上
  • IV. 責任ある情報共有
  • V. リスクベースのアプローチ
  • VI. セキュリティ管理の強化
  • VII. 信頼できるコンテンツ認証
  • VIII. リスク管理への投資
  • IX. 社会問題への対応
  • X. 国際的な技術規格の推進
  • XI. データ保護の重視
 

6.おわりに

今回は、『AI事業者ガイドライン案』の「第4部 AI提供者に関する事項」を読み解いてきました。
AI提供者は、AIシステムを具体的なサービスとして提供する立場にあり、AI開発者とAI利用者の間で適切な情報提供や管理が需要であることがわかりました。

また、サービス提供後も継続して、利用者の判断やビジネスに対して恣意的な影響を与えてしまう可能性についても十分検討する必要があることがわかりました。

次回は、「第 5 部 AI 利用者に関する事項」に読み進んでいきたいと思います。

 

第7回AI戦略会議『AI事業者ガイドライン案』を読み解く【第3部 AI開発者に関する事項】

今回から、12月21日に開催された第7回AI戦略会議総務省経済産業省の連名で報告された『AI事業者ガイドライン案』を数回に分けて、自分なりにゆっくり読み解いていきたいと思います。

今回は、AI事業者となる各主体がのうち、AI開発者が取り組むべき内容が記載された「第3部 AI開発者に関する事項」を読み解きました。

AIの開発や運用、サービス提供を行う皆さんの参考になる情報をご提供できればと思います。

これまでに、読み解いた章については、以下に公開しておりますので、併せてご参照ください。

 oregin-ai.hatenablog.com 

また、G検定でも時事的な法律や制度などの問題も出題されているということなので、受験される方の何かの参考になれれば幸いです。

【目次】

1.ガイドライン全体の構成

AI事業者ガイドライン案』は、別添(付属資料)付録も含めて、大きく5つに分かれています。ガイドラインの用語の定義を中心とした「第1部」、AIの社会的な利用に関する基本理念と指針をまとめAIの利益と社会的リスクへのガバナンス構築の必要性をすべての事業者向けに記載した「第2部」、AIを活用するAI開発者、AI提供者、AI利用者の3主体の留意事項を記載した「第3部」、「第4部」、「第5部」で構成されています。

また、各主体は自身の記載箇所だけでなく、隣接主体に関する事項にも理解を広げることが重要だとされています。

出所:AI事業者ガイドライン案

ページ6

2.今回読んだ範囲の概要

今回は、AI開発者が取り組むべき内容が記載された「第3部 AI開発者に関する事項」を読み解きました。

AI開発者は、AIモデルの設計や変更を通じて、AIシステム全体に大きな影響を与える力を持っているため、社会からはイノベーションを期待されており、その影響は広範囲に及びます。そのため、開発者は自らの作品が社会に与える影響を事前に検討し、必要な対策を講じることが重要であると言及されています。

AI開発者はリスクや社会的影響を考慮し、適切な判断と修正を行うとともに、予期せぬ事故が発生した際には、関係者は説明を求められる可能性があるため、自身の関与を合理的に説明できるように、記録を残すことも重要であると述べられています。

なお、この章では概念的な内容が記載されており、具体的な手法については、別添にて解説されています。別添については、改めて読み解きたいと思います。

3.「データ前処理・学習時」を読み解く

データ前処理・学習時に取り組むべき事項としては以下のような内容が記載されています。

【適切なデータの学習】

  • プライバシーバイデザインに基づき法的規制に配慮しつつ、学習データを適切に収集する。
  • 三者の機密情報や個人情報、知的財産権などを含む場合は、法令に従って適切に扱う。
  • 学習前や学習中、データへのアクセスを管理する機能を導入する。

【データに含まれるバイアスへの配慮】

  • 学習データやモデルの学習過程によっては、バイアスが含まれる可能性があることに留意する。
  • データの質を管理するために、適切な措置を講じる。
  • バイアスを完全に排除できないことを踏まえ、必要に応じて、複数の手法に基づく開発を並行して行う。

4.「AI開発時」を読み解く

AI開発時に取り組むべき事項としては以下のような内容が記載されています。

【人間の生命・心身・財産、及び環境に配慮した開発】

  • 予期しない状況でも機能する性能や、リスクを最小限に抑える方法の検討。

【適正利用に資する開発】

  • 開発者は、事前に想定していない利用による危害を防ぐために、安全に利用可能な範囲を設定して開発を行う。
  • 事前学習済みのAIモデルを事後学習する場合は、商用利用の可否や事前学習データ、必要なスペックなどを考慮する。

【AIモデルのアルゴリズム等に含まれるバイアスへの配慮】

  • AIモデルを構成する各技術要素(入力するプロンプト、推論時に参照する情報、連携する外部サービス等)によってバイアスが含まれることも検討する。
  • バイアスは完全に排除できないことを前提に、多様な手法に基づく開発を行う。

【セキュリティ対策のための仕組みの導入】

  • セキュリティバイデザインに基づき、AIシステムの開発過程を通じて、採用する技術の特性に応じた適切なセキュリティ対策を講じる。

【検証可能性の確保】

  • AIの予測性能や品質を保つために、事後検証のための作業記録を残し、品質の維持・向上を行う。

5.「AI開発後」を読み解く

【最新動向への留意】

  • 日々進化するAIシステムに対する攻撃手法はのリスクに対処するため、開発の各段階で留意すべき点を確認する。

【関係するステークホルダーへの情報提供】

  • AIシステムに関する情報を関連するステークホルダー(AI提供者を通じて行う場合も含む)に適時かつ適切に提供する。
    • 学習等による出力またはプログラムの変化の可能性
    • 技術的特性、安全性確保の仕組み、利用の結果生じる可能性のある予見可能なリスク及びその緩和策等の安全性に関する情報
    • 開発時に想定していない提供・利用により危害が発生することを避けるためのAI開発者が意図する利用範囲
    • AIシステムの動作状況に関する情報、不具合の原因と対応状況
    • 更新を行った場合の内容とその理由の情報
    • AIモデルで学習するデータの収集ポリシーやその学習方法及び実施体制

【AI提供者への共通の指針の対応状況の説明】

  •  AI開発者は、AI提供者に対して、AIの特性やリスクに関する情報を提供し説明する。例えば、AIモデルの技術要素に含まれるバイアスへの対応などを周知する。

【開発関連情報の文書化】

  • トレーサビリティと透明性を向上させるため、開発過程や意思決定に影響を与えるデータ収集、使用されたアルゴリズムなどを可能な限り第三者が検証できる形で文書化する。

6.「AI開発者の取り組みが期待される事項」を読み解く

これまでは、AI開発者にとって重要な取り組み事項が挙げられていましたが、AI開発者の取り組みが期待される事項として、以下のような内容が記載されています。

  • 研究開発の推進: 品質や信頼性の向上、開発方法論の研究など、新たな技術や手法の開発に取り組む。
  • 社会問題への貢献: 持続的な経済成長や社会課題の解決策を提案し、実現に向けて努力する。
  • 国際協力の促進: 国際的な動向や議論に参加し、AI開発者コミュニティや学会への参加を通じて、国際化や多様化を促進する。
  • 情報提供の推進: 社会全体に向けて情報を提供し、透明性を確保する。

7.「「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」における追加的な記載事項」を読み解く

高度なAIシステムを開発するAI開発者には、これまでの記載事項に加えて、「第2部 D. 高度なAIシステムに関係する事業者に共通の指針」と「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」に準拠する必要があるため、以下も遵守すべきと記載されています。

こちらも行動規範全体の内容については、別添を参照するよう記載されています。

  • I. リスクの特定と軽減: 高度なAIシステムの開発段階から導入および市場投入前に、リスクを特定し、緩和策を文書化して定期的に更新する。また、セクターを超えた関係者と連携して、リスクへの対処策を評価する。
  • II. 導入後の脆弱性の特定と緩和: 市場投入後も、脆弱性や悪用されたインシデントを特定し、緩和する。また、報奨金制度やコンテストなどのインセンティブを通じて、責任を持って弱点を開示するインセンティブを与えることを検討する。
  • III. 透明性の向上: AIシステムの能力や限界、適切な使用領域を公表し、透明性を確保する。透明性報告書や技術的文書を最新の状態に保つ。
  • IV. 責任ある情報共有: 産業界や政府、市民社会、学界など、組織間での責任ある情報共有とインシデントの報告を促進する。安全性やセキュリティを確保するための共有基準やメカニズムを開発する。
  • V. リスクベースのアプローチ: AIガバナンス方針を策定し、実施し、開示する。個人情報保護方針やリスク管理方針を含み、定期的に更新する。
  • VI. セキュリティ管理の強化: 物理的セキュリティやサイバーセキュリティ、内部脅威に対する安全対策を強化する。適切な環境での作業と文書管理を義務付け、内部脅威検知プログラムを確立する。
  • VII. 信頼できるコンテンツ認証: AIが生成したコンテンツを識別できるメカニズムを開発し、導入する。透かしや識別子を利用することに加え、この分野の研究に投資する。
  • VIII. リスク管理への投資: 社会的、安全、セキュリティ上のリスクに対処するための研究や投資を行い、リスクに関するベストプラクティスを共有する。
  • IX. 社会問題への対応: AIの開発を通じて、世界の最大の課題(特に気候危機、世界保健、教育等)に取り組む。デジタル・リテラシーの支援や教育プログラムを推進し、市民社会との協力を促進する。
  • X. 国際的な技術規格の推進: 国際的な技術規格の開発を促進し、AIが生成したコンテンツと他のコンテンツを区別できる技術標準を開発する。
  • XI. データ保護の重視: 個人データや知的財産を保護するために、適切なデータインプット対策を実施する。透明性とプライバシー保護のための対策を講じ、セーフガードを導入する

8.おわりに

今回は、『AI事業者ガイドライン案』の「第3部 AI開発者に関する事項」を読み解いてきました。
AI開発者において、どのような事項を実施しなくてはならないかを全体を俯瞰する形で、網羅的に把握することができました。

具体的な行動規範や手法については、別添にて記載されているとのことですので、引き続き読み進めていきたいと思います。

次回は、第4部「AI 提供者に関する事項」に読み進んでいきたいと思います。

 

第7回AI戦略会議『AI事業者ガイドライン案』を読み解く【第2部 AIにより目指すべき社会と各主体が取り組む事項】

今回から、12月21日に開催された第7回AI戦略会議総務省経済産業省の連名で報告された『AI事業者ガイドライン案』を数回に分けて、自分なりにゆっくり読み解いていきたいと思います。

2回目の今回は、AI事業者となる各主体が共通的に取り組むべき内容が記載された「第2部 AIにより目指すべき社会と各主体が取り組む事項」を読み解きました。

AIの開発や運用、サービス提供を行う皆さんの参考になる情報をご提供できればと思います。

これまでに、読み解いた章については、以下に公開しておりますので、併せてご参照ください。

 oregin-ai.hatenablog.com 

 

また、G検定でも時事的な法律や制度などの問題も出題されているということなので、受験される方の何かの参考になれれば幸いです。

【目次】

1.ガイドライン全体の構成

AI事業者ガイドライン案』は、別添(付属資料)付録も含めて、大きく5つに分かれています。ガイドラインの用語の定義を中心とした「第1部」、AIの社会的な利用に関する基本理念と指針をまとめAIの利益と社会的リスクへのガバナンス構築の必要性をすべての事業者向けに記載した「第2部」、AIを活用するAI開発者、AI提供者、AI利用者の3主体の留意事項を記載した「第3部」、「第4部」、「第5部」で構成されています。

また、各主体は自身の記載箇所だけでなく、隣接主体に関する事項にも理解を広げることが重要だとされています。

出所:AI事業者ガイドライン案

ページ6

2.今回読んだ範囲の概要

今回は、AI事業者となる各主体が共通的に取り組むべき内容が記載された「第2部 AIにより目指すべき社会と各主体が取り組む事項」を読み解きました。

AIにより目指す社会としての基本理念や、各主体が取り組む原則、共通の指針が示された上で、AIガバナンスの構築や、高度なAIシステムに関係する事業者に向けた共通の指針について記載されています。

3.「A. 基本理念」を読み解く

AIにより目指す社会の基本理念として2019年3月に策定された「人間中心のAI社会原則」を引用して、次の3つの価値を尊重し、その実現を追求する社会を構築していくべきしています。

  1. 人間の尊厳を尊重する社会:AIを道具として活用し、人間の能力を引き出して豊かな生活を実現する。

  2. 多様性と包摂を尊重する社会:異なる背景や価値観を尊重し、全ての人々が幸せを追求できる社会を目指す。

  3. 持続可能な社会:AIを活用して社会の格差を解消し、地球規模の環境問題等にも対応可能な持続性のある社会を構築する方向に展開させる。

これらの原則は、技術の進歩によらず、未来に向けて目指すべき理念であり、AIにおいても尊重すべきと記載されています。

出所:AI事業者ガイドライン案

ページ11

4.「B.原則」を読み解く

「基本理念」を実現するために、各主体が次の原則に基づいて行動し、社会と連携することが重要と記載されています。

【各主体が取り組む事項】
各主体は、人間中心の考え方に基づき、AIの開発・利用を進める際に、安全性や公平性を確保し、個人情報の保護やセキュリティ対策を行うことが求められます。また、透明性を高め、ステークホルダーに適切な情報を提供することで、責任を果たす必要があります。また、AIの品質向上のために、主体間で連携し、バリューチェーン全体で取り組むことも重要です。

【社会と連携した取り組みが期待される事項】
社会との連携により、AIの恩恵が全ての人々に行き渡るような環境を整える必要があります。教育やリテラシーの向上を促進し、公正な競争やイノベーションの推進に貢献することが期待されます。

5.「C.共通の指針」を読み解く

各主体にまたがる共通の指針については、1)人間中心、2)安全性、3)公平性、4)プライバシー保護、5)セキュリティ確保、6)透明性、7)アカウンタビリティ、8)教育・リテラシー、9)構成競争確保、10)イノベーションの10個の観点から記載されています。

1)人間中心

人間中心を達成するための指針として、各主体に対して以下の事項に留意する必要があると記載されています。

人権と個人の自律:AIの利用は人間の尊厳と個人の自律を尊重し、特に個人の権利に影響を与える場合には慎重に対応する。

意思決定への影響:人間の意思決定や感情を不当に操作する目的のAIは避け、バイアスやフィルターバブルによる影響を最小限に抑える。

偽情報への対策:AIによって作成される偽情報や誤情報に対しては適切な対策を講じ、社会を不安定化させるリスクを最小限にする。

多様性と包摂性:AIの恩恵が全ての人々に行き渡るよう、情報や技術の利用を容易にし、社会的弱者の利用をサポートする。

利用者支援:AIシステムの機能や技術に関する情報を提供し、利用者が理解しやすく、選択肢を適切に利用できるようサポートする。

持続可能性:AIの開発・利用において、ライフサイクル全体で、地球環境への影響も考慮し、持続可能な社会への貢献を目指す。

これらの観点を踏まえた上で、各主体はAIのパフォーマンスを最大限に高め、人々の幸福と豊かさを追求することが期待されています。

 

2)安全性

安全性の指針として、各主体は、AIの開発・提供・利用において、以下の事項に留意する必要があると記載されています。

人間の安全と環境への配慮:AIシステムが正確に動作し、信頼性が高いことや、人々や環境に危害を与えないような対策を講じる。リスク分析や適切な対策を実施し、安全性を確保する。

適正な利用:AIの提供・利用は本来の目的から逸脱せず、主体のコントロール下で行われるようにする。適切な利用規則を整備・明記し、危害を避ける。

適正な学習:AIの特性や用途に合わせて、正確かつ最新のデータを使用し、透明性や法的な規定を遵守する。データの正確性や透明性を確保し、適切な学習が行われるようにする。

 

3)公平性

公平性の指針として、各主体は、AIの開発・提供・利用において、人種、性別、国籍、年齢、政治的信念、宗教などの背景に基づく偏見や差別を最小限に抑え、潜在的なバイアスを最小化し、許容できるかどうかを評価することも重要であると記載されています。

バイアスへの配慮:AIの構成要素に含まれるバイアスを特定し、公平性の問題になり得る要因を検討する。また、特定のAIシステムやサービスが潜在的なバイアスを持つ可能性も考慮する。

人間の判断の介入:AIの出力結果が公平であることを確保するため、人間の判断を介入させることを検討する。無意識のバイアスや潜在的なバイアスに留意し、多様なステークホルダーとの対話を通じて方針を決定する。

 

4)プライバシー保護

プライバシー保護の指針として、各主体は、AIの開発・提供・利用において、関連法令を遵守しつつ、以下の点に留意するよう記載されています。

プライバシーの保護個人情報保護法などの関連法令を遵守し、各主体のプライバシーポリシーを策定・公表する。社会的文脈や人々の合理的な期待を考慮し、関係者のプライバシーを尊重・保護する。個人情報保護法に基づいた対応や国際的な個人データ保護の原則を参照しながら、適切な対応策を検討する。

 

5)セキュリティ確保

セキュリティ確保の指針として、各主体は、AIの開発・提供・利用において、外部からの意図せぬ干渉や中断を防ぐために以下を実施するよう記載されています。

セキュリティ対策:AIシステム・サービスの機密性や完全性、可用性を維持し、安全な利用を確保するために、適切なセキュリティ対策を講じる。システム間の接続や推論対象データに関する検討を通じて、脆弱性を認識し、対策を行う。微細な情報混入により意図しない判定が行われる可能性を踏まえて脆弱性を完全に排除することはできないことを認識して対策を実施する。

最新動向への留意:外部からの攻撃は日々進化しており、これらのリスクに対応するために最新の情報や留意事項を確認し、適切な対策を講じる。

 

6)透明性

透明性の指針として、各主体はAIシステム・サービスの開発・提供・利用において、社会的文脈を考慮し、以下を実施することが重要とされています。

検証可能性の確保:AIの判断プロセスや学習過程などを記録・保存し、透明性を確保する。また、ログの目的や頻度は技術の特性や用途に応じて検討する。

関連するステークホルダーへの情報提供:AIシステム・サービスに関する情報提供を行い、多様な意見を収集し、社会的影響を考慮し提供と説明を行う。

合理的かつ誠実な対応:プライバシーや営業秘密を尊重しながら、関連規程に従い、透明性を高める。

関連するステークホルダーへの説明可能性・解釈可能性の向上:関係者の納得感や安心感を得るために、どのような説明が必要となるかを分析・把握し、適切な説明と証拠の提供を行う。

 

7)アカウンタビリティ

アカウンタビリティの指針として、各主体は、AIシステム・サービスの開発・提供・利用において、アカウンタビリティを重視し以下に対応するよう記載されています。

トレーサビリティの向上:AIシステムの開発・利用に関するデータや意思決定を追跡・遡求可能な状態にする。

共通の指針の対応状況の説明:関係者に対し、AIシステムに関するリスクや対策の進捗状況を定期的に説明する。

責任者の明示:各主体はアカウンタビリティを果たす責任者を明確にする。

関係者間の責任の分配:関係者間の責任を明確にし、社会的な約束により責任を共有する。

ステークホルダーへの具体的な対応リスク管理やポリシー策定を行い、ステークホルダーに情報を提供し、彼らの利益を損なう事態に対処する。

文書化:関連情報を文書化し、必要に応じて参照可能な状態に保管する。

 

8)教育・リテラシー

教育・リテラシーの指針として、各主体は、AIに関わる人々が正しい理解と適切な利用ができるように、以下に対応するよう記載されています。

AIリテラシーの確保:関係者がAIに関する基本的な知識やスキルを持つよう、適切な対策を講じる。

教育・リスキリング:AIの普及により、働き方が変わる可能性があるため、教育やスキルの再編成を検討する。

ステークホルダーへのフォローアップ:AIサービスの安全性向上のため、関係者に対して必要な教育やサポートを提供する。

 

9)公正競争確保

構成競争確保の指針として、各主体は、AI を活用した新たなビジネス・サービスが創出され、持続的な経済成長の維持と社会課題の解決策の提示がなされるよう、AI をめぐる公正な競争環境の維持に努めることが期待されています。

 

10)イノベーション

イノベーションの指針として、各主体に以下が期待されている旨記載されています。

オープンイノベーションの推進:国際的な協力や産学官の連携を通じて、イノベーションを促進する。AIの発展に必要なデータ環境を整える。

相互接続性・相互運用性への配慮:自社のAIシステムが他のシステムと円滑に連携し、相互運用できるようにする。

適切な情報提供:自社のイノベーションに必要な情報を適切に提供し、発展を妨げないよう配慮する。

 

6.「D. 高度なAIシステムに関係する事業者に共通の指針」を読み解く

高度なAIシステムを開発する企業は、前述の指針に加え、広島AIプロセスを通じて策定された国際指針に準拠し、以下の遵守すべきと記載されています。

I) AIライフサイクル全体にわたるリスクの管理: AIシステムの開発から導入前、市場投入後まで、リスクを特定し、軽減するための措置を講じる。

II) 導入後の脆弱性の管理: 導入後の脆弱性や悪用された事例を特定し、対処する。

III) 透明性の確保: AIシステムの能力や限界を公表し、透明性を確保する。

IV) 責任ある情報共有: 開発組織間での責任ある情報共有とインシデントの報告に取り組む。

V) プライバシー保護: 個人情報保護方針やリスク管理方針を策定し、開示する。

VI) セキュリティ管理の強化: 物理的セキュリティやサイバーセキュリティに投資し、実施する。

VII) コンテンツ認証と来歴のメカニズムの導入: AIが生成したコンテンツを識別できるメカニズムを開発・導入する。

VIII) リスク軽減策への投資: 社会的、安全、セキュリティ上のリスク軽減のための研究と投資を行う。

IX) 世界の課題に対する優先順位: 気候危機や世界保健などの課題に対処するため、AIの開発を優先する。

X) 国際的技術規格の推進: 国際的な技術規格の開発を推進し、採用する。

XI) データインプット対策: データの質を管理し、個人情報と知的財産を保護する。

XII) 責任ある利用の促進: リスクの向上に関するリテラシーや認識の向上のための機会を提供する。

7.「E. AIガバナンスの構築」を読み解く

AIを安全かつ安心に活用するためには、各主体が協力し、バリューチェーン全体で共通の指針を実践するためにはAIガバナンスの構築が重要となると記載されています。

具体的な取り組みとしては、以下のサイクルを繰り返し、マルチステークホルダーで連携していく「アジャイル・ガバナンス」の実践がことが重要であると記載されています。

  1. 環境・リスク分析: AIシステムのリスクを分析し、社会的受容性や外部環境の変化を考慮する。

  2. AIガバナンス・ゴールの設定: AIの開発・提供・利用に関するポリシーを策定し、ゴールを設定する。

  3. AIマネジメントシステムの設計: ゴールを達成するためのマネジメントシステムを設計し、運用する。

  4. 評価と改善: AIマネジメントシステムの効果をモニタリングし、継続的に改善する。

  5. 環境・リスク分析の再実施: 外部環境の変化を踏まえて、再びリスク分析を行い、必要に応じてゴールを見直す。

また、AIガバナンスの検討に際しては、以下のポイントに留意することにも言及されています。

  • バリューチェーンやリスクチェーンの観点から主体間の連携を確保する。
  • データの流通やリスク管理について明確にし、国際社会の検討状況を考慮する。

これらの取り組みを通じて、AIを安全に利用し、社会の発展に貢献することが期待されています。

出所:AI事業者ガイドライン案

ページ25

8.おわりに

今回は、『AI事業者ガイドライン案』の「第2部 AIにより目指すべき社会と各主体が取り組む事項」を読み解いてきました。
これまで、様々なAIに関するガイドラインが各所から発行され、散在していた事項が集約され、俯瞰的に閲覧できるガイドラインであると感じました。

このガイドラインを確認することで、AI開発・提供・利用において、どのような点に留意しなくてはならないかを全体的に把握できました。

次回は、第3部「AI 開発者に関する事項」に読み進んでいきたいと思います。

 

第7回AI戦略会議『AI事業者ガイドライン案』を読み解く【第1部 AIとは】

今回から、12月21日に開催された第7回AI戦略会議総務省経済産業省の連名で報告された『AI事業者ガイドライン案』を数回に分けて、自分なりにゆっくり読み解いていきたいと思います。

今回は、ガイドラインの用語の定義を中心とした「第1部 AIとは」を読み解きました。

AIの開発や運用、サービス提供を行う皆さんの参考になる情報をご提供できればと思います。

これまでに、読み解いた章については、以下に公開しておりますので、併せてご参照ください。

 oregin-ai.hatenablog.com 

 

また、G検定でも時事的な法律や制度などの問題も出題されているということなので、受験される方の何かの参考になれれば幸いです。

【目次】

1.ガイドライン全体の構成

AI事業者ガイドライン案』は、別添(付属資料)付録も含めて、大きく5つに分かれています。ガイドラインの用語の定義を中心とした「第1部」、AIの社会的な利用に関する基本理念と指針をまとめAIの利益と社会的リスクへのガバナンス構築の必要性をすべての事業者向けに記載した「第2部」、AIを活用するAI開発者、AI提供者、AI利用者の3主体の留意事項を記載した「第3部」、「第4部」、「第5部」で構成されています。

また、各主体は自身の記載箇所だけでなく、隣接主体に関する事項にも理解を広げることが重要だとされています。

出所:AI事業者ガイドライン案

ページ6

2.今回読んだ範囲の概要

今回は、ガイドラインの用語の定義を中心とした「第1部 AIとは」を読み解きました。

AIのなりたちや概念を説明したあと関連する用語が定義されています。

3.AIのなりたちや概念を読み解く

冒頭にAIのなりたちや概念が記載されています。

1956年にダートマス会議で初めて使用されましたが、確立された定義はなく、人間の思考に似たコンピュータプログラムや知的な判断ができるシステムを指す言葉とされています。

機械学習ディープラーニングの発展により、特定の分野に特化せず、汎用的なAIの開発が進んでいることからも、「AI」といっても、種類が多岐にわたっており、今後のAI技術のあり方について専門家でも予測が困難であるとされています。

このような状況を踏まえ、ガイドライン上の認識を統一するために用語が定義されています。

4.関連する用語の定義を読み解く

このガイドラインは、以下の通り、用語が定義されています。

  • AI
    現時点で確立された定義はなく(統合イノベーション戦略推進会議決定 「人間中心の AI 社会原則」(2019 年 3 月 29 日))、広義の人工知能の外延を厳密に定義することは困難である。本ガイドラインにおける AI は「AI システム」自体や、機械学習をするソフトウ アやプロ ラムを含む抽象的な概念とする。
    (参考として JIS X22989 では ISO/IEC22989 に基づき、以下のように定義されている)
    <学問分野>AI システムのメカニズム及び適用の研究開発
    注釈 1. 研究開発は、コンピュータサイエンス、データサイエンス、自然科学、人文科学、数学等、幾つもの分野にわたって行うことが可能である
  • AIシステム
    活用の過程を通じて様々なレベルの自律性をもって動作し学習する機能を有するソフトウ アを要素として含むシステムとする(機械、ロボット、クラウドシステム等)。
    (参考として JIS X22989 では ISO/IEC22989 に基づき、以下のように定義されている)
    人間が定義した所与の目標の集合に対して、コンテンツ、予測、推奨、意思決定等の出力を生成する工学的システム
    注釈 1. 工学的システムは、人工知能に関連する様々な技法及びアプローチを使用して、作業の実施に使用可能であるデータ、知識、プロセス等を表すモデルを開発することが可能である
    注釈 2. AI システムは、様々な自動化のレベルで動作するように設計されている
    (参考として OECD AI Principles overview では以下のように定義されている)
    AI システムは、明示的または暗黙的な目的のために推測するマシンベースのシステムである。受け取った入力から、物理環境または 想環境に影響を与える可能性のある予測、コンテンツ、推奨、意思決定等の出力を生成する。AI システムが異なれば、導入後の自律性と適応性のレベルも異なる
  • 高度 AI システム
    最先端の基盤モデル及び生成 AI システムを含む、最も高度な AI システムを指す。
  • AI モデル (ML モデル )
    AI システムに含まれ、学習データを用いた機械学習によって得られるモデルで、入力データに応じた予測結果を生成する。
    (参考として JIS X22989 では ISO/IEC22989 に基づき、以下のように定義されている)
    入力データ又は情報に基づいて推論(inference)又は予測を生成する数学的構造
    例 : 単変量線形関数 y=θ0+θ1x が、線形回帰を使用して訓練されている場合、結果のモデルは、y=3+7x のようになる
    注釈 1. 機械学習モデルは、機械学習アルゴリズムに基づく訓練の結果として得られる
  • AI サービス
    「AI システム」を用いた役務を指す。利用者への価値提供の全般を指しており、AI サービスの提供・運は、AI システムの構成技術に限らず、人間によるモニタリン やステークホルダーとの適切なコミュニケーション等の非技術的アプローチも連携した形で実施される。
  • 生成 AI
    文章や画像、プロ ラム等を生成できる AI モデルに基づく AI の総称を指す。
  • AI ガバナンス
    AI の利活用によって生じるリスクをステークホルダーにとって受容可能な水準で管理しつつ、そこからもたらされる正のインパクトを最大化することを目的とする、ステークホルダーによる技術的、組織的、及び社会的システムの設計及び運用。

出所:AI事業者ガイドライン案

ページ8、ページ9

全体的に様々な定義を参照しつつ整合性が取れるよう少し抽象化された定義となっているように感じました。

しかしながら「AIシステム」について、「自立性をもって動作し学習する機能を有するソフトウェアを要素として含むシステム」と明記されていることで、システムの一部にでもAIが組み込まれていれば全て「AIシステム」として扱うことが明確になった点はわかりやすいと思います。

5.おわりに

今回は、『AI事業者ガイドライン案』の「第1部 AIとは」を読み解いてきました。

意外と認識されているようで曖昧になりがちな「AI」自体にさかのぼって定義されていることで、今後読み進めるガイドラインの対象がわかりやすくなりました。

また、今回定義されて終わりではなく、「はじめに」で言及されたように、Living DocumentとしてAIの動向や技術の進展に柔軟に改定されていくものと思われます。常に最新版を参照している必要がありそうです。

次回は、第2部「AI により目指すべき社会と各主体が取り組む事項」に読み進んでいきたいと思います。

 

第7回AI戦略会議『AI事業者ガイドライン案』を読む【まとめ】

12月21日に開催された第7回AI戦略会議総務省経済産業省の連名で報告された『AI事業者ガイドライン案』を数回に分けて、自分なりにゆっくり読み解きました。

読み解きが完了した章から順次投稿してまいります。

AI事業者ガイドライン

【はじめに】

【第1部 AIとは】

【第2部 AIにより目指すべき社会と各主体が取り組む事項】

【第3部 AI開発者に関する事項】

【第4部 AI提供者に関する事項】

【第5部 AI利用者に関する事項】

別添(付属資料)

【別添.はじめに】

【別添 1.第 1 部関連】

【別添 2.第 2 部関連 】

【別添 3.AI 開発者向け】

【別添 4.AI 提供者向け】

【別添 5.AI 利用者向け】

【別添 6.「AI・データの利用に関する契約ガイドライン」を参照する際の主な留意事項について】

 

2023年下半期の振り返り(実社会での貢献の模索、積み上げの継続)

2023年下半期は、上半期に参加させていただいた活動を踏まえ実社会でどのように貢献できるかを模索し始めました。また、コンペ参加や資格取得など積み上げも継続しました。

今年は、色々な方々と接する機会が増えたことで、いままでとは違った新たな視点や、自身の足らない部分に気づくことができて、非常に有意義な一年でした。

来年も、「ゆっくりでも止まらなければけっこう進む」の精神で頑張って行きたいと思います。

【目次】

【コンペ関連】

1.ProbSpace で総合ランキング1位をキープ

昨年に引き続き、データ分析好きが集まる交流プラットフォーム「ProbSpace」で開催されたコンペに参加し、総合ランキング1位を継続しています。

2023年下期は、野菜取引価格の予測で3位に入賞し久々の金トロフィーをゲットしました。また、「タクシー需要予測 」では途中なかなか集中して取り組めなかったものの後半でなんとか追い上げて13位と銀圏内に入ることができました。

野菜取引価格予測の解法については、以下に公開しています。ご参考まで。

oregin-ai.hatenablog.com

Probspaceでは、トロフィー圏内が続いているので、この調子で、引き続き取り組んでいきたいと思います。

 

2.Solafuneのコンペに参戦

ProbSpace以外には、Solafune」にも参戦いたしました。

Solafune では、の「生成画像とオリジナル画像の分類」コンペで最終順位14位でした。残念ながらTop10入りならずでしたが、生成画像に関するコンペに参加できたのは有意義でした。

 

【積み上げ関連】

1. CISSP(Certified Information Systems Security Professional)取得

ISC2(International Information Systems Security Certification Consortium)が認定を行っている国際的に認められた情報セキュリティ・プロフェッショナル認定資格であるCISSP(Certified Information Systems Security Professional)を取得しました。

試験は6時間の長丁場で、1度回答して次の問題に進むともう回答を変更したり見直したりできない形式の試験でした。かなりハードな試験でしたが何とか合格することができ、資格取得することができました。

以下に体験記を投稿していますので、今後受験される方は参考にしてください。

oregin-ai.hatenablog.com


2.GX検定 アドバンスト合格

また、カーボンニュートラル関連の研究に参画させていただいているので、環境省認定制度『脱炭素アドバイザー アドバンスト』に対応予定のGX資格を取得しました。

技術的な話題だけでなく、制度や国際的な取り組みなど多岐にわたる知識を習得することができました。

GX検定 | SkillUp Green (green-transformation.jp)

3.AI倫理関連の学習

業務上、AIの技術的な内容だけでなく倫理的なところも含めたリスクに関して、知識が必要となってきたため、AI倫理に関しても学習しました。
学習に使った書籍は以下の通りです。

 

 【研究開発関連】

1.機械学習システムセキュリティガイドライン Version 2.00の予習

来年から、日本ソフトウェア科学会機械学習工学研究会から2023年9月に公開されている『機械学習システム セキュリティガイドライン』の改訂に携わらせていただけることになりました。

先立ちまして、『機械学習システム セキュリティガイドライン Version 2.00』を予習しました。以下にまとめていますので、ご興味のある方はご参照ください。

oregin-ai.hatenablog.com

おわりに

2023年下期は、上期で活動に参加させていただいた際にいろいろなお声がけをいただき、新たな取り組みに参加できるようになりました。今後も、今社会で求められていることと、自身のスキル・知識を照らし合わせて、最大限貢献できるよう様々な活動を模索していきたいと思います。

また、一人ではできなかったことも、多種多様な方々とご一緒させていただくことで、実現できることも増えてきました。

引き続き、自身のスキルを磨くとともに、社会の動向を把握することを継続していきたいと思います。

今年も1年、ありがとうございました。

来年もよろしくお願いいたします。

 

【これまでの道のり】

oregin-ai.hatenablog.com

oregin-ai.hatenablog.com

oregin-ai.hatenablog.com