TensorFlowを使って、実際にコードを動かしながら、DeepLearningの仕組みを段階的に学んでいきましょう。
目次
・No.1 TensorFlow Tutorialの数学的背景 − MNIST For ML Beginners(その1)
平面上の2種類のデータをロジスティック回帰で直線的に分類するという、機械学習の基礎を説明します。
・No.2 TensorFlow Tutorialの数学的背景 − MNIST For ML Beginners(その2)
線形多項分類器とソフトマックス関数で、3種類以上のデータを分類する方法を説明します。
・No.3 TensorFlow Tutorialの数学的背景 − TensorFlow Mechanics 101(その1)
No.1で説明した問題に対して、もっとも単純なニューラルネットワークを適用して、複雑な境界を持つ分類を実現します。
・No.4 TensorFlow Tutorialの数学的背景 − TensorFlow Mechanics 101(その2)
No.3のニューラルネットワークに対して、Unit数の増加やActivation関数の取り換えを試します。
・No.5 TensorFlow Tutorialの数学的背景 − TensorFlow Mechanics 101(その3再び)
ニューラルネットワークを2段階にすることで、「特徴変数の抽出」+「特徴変数による分類」という処理を実現します。
・No.6 TensorFlow Tutorialの数学的背景 − Deep MNIST for Experts(その1)
畳み込み演算を用いて、画像データの特徴を抽出する方法を説明します。
・No.7 TensorFlow Tutorialの数学的背景 − Deep MNIST for Experts(その2)
畳み込み演算のフィルターを機械学習で最適化することで、もっとも単純なCNN(畳み込みニューラルネットワーク)を実現します。
・No.8 TensorFlow Tutorialの数学的背景 − Deep MNIST for Experts(その3)
MNISTの手書き数字を分類するCNNを作ります。畳み込み層を2段階にすることで、99.2%の識別率を実現します。
・No.9 TensorFlow Tutorialの数学的背景 − Vector Representations of Words
NLP(自然言語処理)のタスクである、単語の「ベクトル表現」を生成する処理について解説します。
・No.10 TensorFlow Tutorialの数学的背景 − Convolutional Neural Networks (その1) CNNに入力する画像データの前処理について解説します。
Jupyterを用いたコード解説
各パートの実装コードを学習するJupyterのノートブックを実験的に用意しています。
※ Jupyterについては、下記の記事を参考にしてください。
ノートブックのファイルは下記から入手することができます。
・No.1: Liner binary categorizer using Logistic regression.ipynb
・No.2: MNIST with simple softmax.ipynb
No.3以降も順次用意していきます!