俺人〜OREGIN〜俺、バカだから人工知能に代わりに頑張ってもらうまでのお話

俺って、おバカさんなので、とっても優秀な人工知能を作って代わりに頑張ってもらうことにしました。世界の端っこでおバカな俺が夢の達成に向けてチマチマ頑張る、そんな小さなお話です。現在はG検定、E資格に合格し、KaggleやProbSpaceのコンペに参画しながら、Pythonや機械学習、統計学、Dockerなどの勉強中です。学習したことをブログにアウトプットすることで、自分の身に着けていきたいと思います。まだまだ道半ばですが、お時間がありましたら見て行ってください。

E資格対策振り返り(応用数学-情報理論-エントロピー)

E資格(JDLA Deep Learning for ENGINEER 2019 #2)対策として、今回は、応用数学の分野のうち、情報理論-エントロピーを振り返ります。

深層学習では、以下の4つが既知のものとして登場してきます。

  1. 自己情報量
  2. エントロピー
  3. カルバック・ライブラー情報量(KLダイバージェンス)
  4. クロスエントロピー

今回はこれらのうち、2つ目のエントロピーについて、振り返っていきます。

 

エントロピー

1.エントロピーとは何か

エントロピーとは、ある確率分布に従った事象系において「どの事象が発生したか知ったときに、どの程度情報量を得られそうか」をあらわしています。

エントロピーが大きい」=「大きな情報量が得られそう」ということになります。

情報量の定義に立ち戻って考えると、情報量は「確率が低い事象(不確定な事象)が発生すればするほど大きくなる」ので、エントロピーが大きいということは、それだけ不確定な状態であることをあらわします。

このことから、エントロピーは、「事象系の曖昧さ度合をあらわす」と行った表現もされます。

2.エントロピーを求める

エントロピーは、「どの事象が発生したか知ったときに、どの程度情報量を得られそうか」で定義されることから、事象系が以下の確率で発生する時、

f:id:kanriyou_h004:20191020175023p:plain

それぞれの情報量は、

f:id:kanriyou_h004:20191020175414p:plain

となり、この各事象の自己情報量期待値を求めることが、「どの事象が発生したか知ったときに、どの程度情報量を得られそうか」になります。

つまり、エントロピーは以下の通りで求まります。

f:id:kanriyou_h004:20191020180454p:plain

f:id:kanriyou_h004:20191020180747p:plain

 

以上で、E資格の情報理論で頻出の数式の2つ目のエントロピーにたどり着くことができました。

エントロピーの概念が理解できれば、自己情報量と期待値の組み合わせで求めることができるので、比較的理解がしやすかったです。

 

次回は、カルバック・ライブラー情報量について振り返っていきたいと思います。

今後も、引き続き、復習をかねて、E資格対策を振り返っていきたいと思います。

 

2019年8月31日(土)にE資格を受験して、合格しました!

E資格対策として勉強の進め方や、参考書などをまとめました。

これから受験される方がいらっしゃいましたらご参考まで。

oregin-ai.hatenablog.com 

 

 2019年3月9日(土)にG検定を受験し、見事合格できました!

受験の体験記や勉強法などを別のブログにまとめました。

これから受験される方がいらっしゃいましたらご参考まで。

g-kentei.hatenablog.com

 【E資格対策に使った参考書】