俺人〜OREGIN〜俺、バカだから人工知能に代わりに頑張ってもらうまでのお話

俺って、おバカさんなので、とっても優秀な人工知能を作って代わりに頑張ってもらうことにしました。世界の端っこでおバカな俺が夢の達成に向けてチマチマ頑張る、そんな小さなお話です。現在はG検定、E資格に合格し、KaggleやProbSpaceのコンペに参画しながら、Pythonや機械学習、統計学、Dockerなどの勉強中です。学習したことをブログにアウトプットすることで、自分の身に着けていきたいと思います。まだまだ道半ばですが、お時間がありましたら見て行ってください。

『AI原則実践のためのガバナンス・ガイドライン ver. 1.1』を読む【前編】

今回は、経済産業省の「AI原則の実践の在り方に関する検討会」から2022年1月に公開されている『AI原則実践のためのガバナンス・ガイドライン ver. 1.1』を数回に分けて、自分なりにゆっくり読み解いていきたいと思います。

www.meti.go.jp

これからAIの開発や運用を行う皆さんの参考になる情報をご提供できればと思います。

また、G検定でも時事的な法律や制度などの問題も出題されているということなので、受験される方の何かの参考になれれば幸いです。

【目次】

1.今回読んだ範囲の概要

今回は、「A.はじめに」、「B.定義」を読み解きました。

本編ではないので、通常はさらっと読み飛ばしてしまう箇所ですが、よくよく読んでみると、なかなか趣深い内容でした。

ざっくり以下のような内容が記載されていました。

  • このガイドラインは、法的拘束力はなく、AI原則の実践を支援するために実践すべき行動目標と、仮想的な実践例や実務的な対応例を提示している。
  • このガイドラインは、AIを提供するAI事業者(AIシステム開発者、AIシステム運用者、データ事業者)を対象としている。

では、各章をもう少し掘り下げて読み解いていきます。

2.「A.はじめに」を読み解く

「はじめに」は、「1. AI ガバナンス・ガイドラインの狙い 」、「2. 本ガイドラインの法的性格」、「3. 他のガイドライン等との関係 」、「4. AI ガバナンス・ガイドラインの使い方 」、「5. Living Document」の5つの項で構成されています。

このガイドラインの狙いとしては、大きく以下の2点となっています。

  • AIの社会実装の促進に必要なAI原則の実践を支援すべく、AI事業者が実践すべき行動目標を提示
  • 行動目標に対応する仮想的な実践例AIガバナンス・ゴールとの乖離を評価するための実務的な対応例を例示

つまり、AI原則の実践するための例が記載されているので、事業者はこの事例を参考に対応できるというガイドラインとのことです。ただし、これらの事例は参考例であり、網羅的とすることは意図していないそうなので、注意が必要です。

ちなみに、AI社会原則は、以下の7つの原則になります。

(AI社会原則については、内閣府「AI戦略2019」の概要と取り組み状況もご参照ください)

  1. 人間中心の原則
  2. 教育・リテラシーの原則
  3. プライバシー確保の原則
  4. セキュリティ確保の原則
  5. 公正競争確保の原則
  6. 公平性、説明責任及び透明性の原則
  7. イノベーションの原則

法的性格や他のガイドラインとの関係については、以下の通りです。

このため、法的にやらなくてはならないという内容ではなく、ガイドラインは、以下のように使うと記載されています。

  • 行動目標については、一般的かつ客観的な目標であり、社会に対して一定の負のインパクトを与えうる AI システムの開発・運用等に関わる全ての AI 事業者が実施すべきもの
  • 実践例や乖離評価例の採否は AI 事業者の任意に委ねられることはも
    ちろん、採用する場合であっても各自の事情に応じた修正や取捨選択を検討する必要がある

つまり、法的拘束力はないものの、行動目標については全てのAI事業者が実施すべきとしています。そして、実践例や評価例はAI事業者で事情に応じて修正や取捨選択を検討するような使い方をするガイドラインだと記載されています。

また、本ガイドラインは「Living Document 」とのことで、このガイドライン自体の在り方の検討を継続し、必要に応じて改定が行われるため、最新版をチェックすることが必要となりそうです。

実際、2021年7月にVer.1.0が出てから、半年後の2022年1月にはVer.1.1が出ています。

3.「B.定義」を読み解く

この章は、単に用語の定義だろうと、さらっと読み飛ばそうと思ったのですが、なかなか趣深い内容が記載されていたので、読み解いていきたいと思います。

私が注目したのは、このガイドラインが誰を対象としているかについてです。

このガイドラインでは、対象を以下の通りとしております。

  • ガイドラインでは、AI事業者(AIシステム開発者、AIシステム運用者、データ事業者)を対象としている。
  • AIシステム利用者:他のAIシステム開発者が開発したAIシステムや他のAIシステム運用者が提供するAIシステムを単に利用するものであって、AIシステムの運用や性能維持等に責任を負わない者

つまり、サービスを提供する事業者側を対象としており、SaaSのようなサービスをビジネスで利用するAIシステム利用者は対象外と読み取れます。

これは、前提となる組織体系を経営陣、情報システム部門、利用部門等として、自組織でシステムを利用する場合のITガバナンスを記載している、「システム管理基準」(経済産業省)とは少し異なっているようです。

ただし、経営層と運営層の2層を想定しながら整理している点においては、

ITガバナンス層とITマネジメント層の2層を想定しながら整理している「システム管理基準」と同じ考え方となっているようです。

4.おわりに

今回は、『AI原則実践のためのガバナンス・ガイドライン ver. 1.1』の「A.はじめに」と「B.定義」を読み解いてきました。

これまで「システム管理基準」などに記載されたITガバナンスでは、システムを導入する側がどのような戦略でガバナンスをかけていくかという視点で記載されているのに対して、このガイドラインでは、システムを提供する側の視点で記載されているのが特徴的だと感じました。

それだけ、AIを使用したシステムにおいては、ブラックボックス化しやすくて、システムを提供する側の説明責任や倫理観がこれまで以上に求められるのではないかという感想です。

ガバナンス一つとっても、AIについては、これまでのシステムとは異なってきそうなので、引き続き、情報収集が必要だと、改めて思いました。

では、次回は「C. AI ガバナンス・ガイドライン 」を読み解いていきたいと思います。