俺人〜OREGIN〜俺、バカだから人工知能に代わりに頑張ってもらうまでのお話

俺って、おバカさんなので、とっても優秀な人工知能を作って代わりに頑張ってもらうことにしました。世界の端っこでおバカな俺が夢の達成に向けてチマチマ頑張る、そんな小さなお話です。現在はG検定、E資格に合格し、KaggleやProbSpaceのコンペに参画しながら、Pythonや機械学習、統計学、Dockerなどの勉強中です。学習したことをブログにアウトプットすることで、自分の身に着けていきたいと思います。まだまだ道半ばですが、お時間がありましたら見て行ってください。

GCI 2019 Winterを無事修了できました!(東京大学グローバル消費インテリジェンス寄付講座)~その1~

12月から受講していたGCI 2019 Winter(東京大学グローバル消費インテリジェンス寄付講座)を無事修了できました!

f:id:kanriyou_h004:20200328150306g:plain

最後の課題(事業提案)が、非常に難関だったので、今月は、なかなブログ更新ができず久しぶりの投稿となりました。(←言い訳)

でも、その甲斐あって、無事修了することができ、得られたものも非常に大きいものでした。

今回は、その1として、本講座の応募から、前半戦(第1回~第4回の講義)までを振り返っていきたいと思います。

GCI 2019 Winter(東京大学グローバル消費インテリジェンス寄付講座)

1.GCI 2019 Winter(東京大学グローバル消費インテリジェンス寄付講座)とは何か

この講座は過去、東京大学内で6期、オンラインで3期の開催実績があり、東大生だけでなく、社会人も受講可能なデータサイエンスの基礎から、機械学習スキルまで、習得できる講座です。(東大生以外は、オンラインでの受講になります。また、今回は、社会人だけでなく、他大学生や高専生も応募可能でした。)

この講座の最大の魅力(私にとってかもしれませんが)は、3カ月にわたる講座にもかかわらず、「無料」で受講できることです。

全8回のカリキュラムで、1回ごとに期限付き宿題の提出や、kaggle形式のコンペティション、事業提案を実施する課題など、修了するためには、かなりハードな取り組みとなります。

しかしながら、ステップ・バイ・ステップで進めていくことができるので、最後までやり遂げることができました。

得られるものは非常に大きいものでしたので、是非お勧めです!

2.応募・試験

この講座は、以下のページで募集があるので、お知らせをチェックして、募集があったときに応募いたしました。

gci.t.u-tokyo.ac.jp

応募にあたっては、簡単なプロフィールや、応募動機などを記載する必要があります。

その後、事前試験の案内がメールで届くので、リンク先にあるWeb試験を受験いたします。

試験内容は、numpyの基本的な処理が中心なので、Pythonを使って機械学習を経験したことがあれば、それほど難しい問題ではありません。

時間も結構あるので、落ち着いて確認しながら対応すれば大丈夫だと思います。

受験時に実行結果を確認しながら対応するために、事前にJupyter notebookなどのPythonの実行環境は導入しておく必要があります。

講義~その1~

1.講義概要

週に1回か、2週に1回程度のペースで、全8回分の講義があります。

オンラインでの受講の場合は、1回の講義でipynb形式のファイルが1、2個提供され、講義内容とサンプルコードが記載されています。

このファイルの内容を確認し、サンプルコードを実行しながら理解を進めていきます。

時々、練習問題や、総合問題が出題され、実際に手と頭を動かしながら対応していくので、1つのファイルをやり終えると、少しレベルアップした実感がわきます。

次に、1回の講義ごとに宿題のipynb形式ファイルがあります。

この宿題が、なかなか曲者で、講義ファイルで少しレベルアップした気になっていた私に、「理解した気になっていませんか?」と改めて理解を深める努力を促してくれる問題になっています。

宿題の提出は、出力結果を提出するのではなく、作成した関数自体を、専用のフォームに張り付けて提出することになります。

毎日決まった時間にサーバ上で実行され、正解であれば1、不正解であれば0、実行エラーであれば1000が返ってくるようにシステム化されています。

提出した時点では結果が分からないので、毎回ドキドキしながら判定の時間を待っていました。(これがまた、受験の結果発表みたいで楽しかったです。)

2.第1回(12/18)データサイエンスとは、Python基礎、ライブラリ

第1回目の講義は、データサイエンティストを「ビジネスの課題に対して、統計や機械学習(数学)とプログラミング(IT)スキルを使って、解決する人」と定義することから始まります。

(まさか、この定義が、最終課題で試されることになるとは、この時は知る由もない私でした。)

そして、Pythonnの基礎的な構文と、Numpy,Scipy,Pandas,Matplotlibなどの機械学習では必須のライブラリの基礎を学習します。

この辺りは、E資格受験時に叩き込んだ知識があったので、難なくこなすことができました。(E資格受けておいてよかった~。)

3.第2回(12/25)Pythonによる科学計算とデータ加工処理の基礎(Numpy,Pandas)

 第2回目の講義は、Numpy,ScipyやPandasなどのライブラリをより深く学んでいきます。それぞれのライブラリは使ったことがありましたが、肌感覚でつかっていたので、体系的に学べたことは、非常に有意義でした。

また、Pythonのプログラミングという視点だけでなく、積分最適化問題など数学的な視点でも取り組むことができる、1粒で2度おいしい講義でした。

2回目ともなると、投稿した宿題の正解が返ってくるのを待つわくわく感がたまらなくなってきました。

4.第3回(1/8)データサイエンスにおけるデータの可視化(Matplotlib)

 第3回目の講義は、機械学習の特徴量分析を行う際などに必須のデータの可視化ライブラリ(Matplotlib)を学んでいきます。

こちらは、時系列データを扱ったり、マーケティングなどビジネス的な視点でも学習することができました。

デシル分析や、パレート図など、「う~ん懐かしい!」という用語がいっぱい出てきてマーケティングのよい復習になりました。

5.第4回(1/15)確率統計の基礎

 第4回目の講義は、確率統計の基礎を学んでいきます。

確率統計は、E資格で学習をしていたものの、知らない用語がいっぱいでてきて、今までのは基礎の基礎の基礎だったんだと改めて思い知りました。

確率統計は奥が深いです。統計検定でも受験して体系的に学びなおしたい意欲がわいてきました。

ここまでくると、がぜん機械学習感が増してきて、宿題を提出する際もkaggleなどのコンペに提出するような緊張感も出てきました。

 

 今回の復習は、ここまでです。

前半戦でもかなり盛りだくさんの内容でした。

次回は、その2として、講義の後半戦とコンペティション、最終課題について復習していきたいと思います。

 


 

2019年8月31日(土)にE資格を受験して、合格しました!

E資格対策として勉強の進め方や、参考書などをまとめました。

これから受験される方がいらっしゃいましたらご参考まで。

oregin-ai.hatenablog.com 

 

 2019年3月9日(土)にG検定を受験し、見事合格できました!

受験の体験記や勉強法などを別のブログにまとめました。

これから受験される方がいらっしゃいましたらご参考まで。

g-kentei.hatenablog.com

 【E資格対策に使った参考書】