AI時代にこそ役に立つ数学の学び直し・リスキリング
(アーカイブ配信付)
■1日目 12月16日(月)
AI機械学習に的を絞った行列・偏微分・確率密度の超入門
本セミナー1日目では,AI機械学習の原理を知るために最低限必要な数学に絞り込んで,受講者があらためて中学数学から思い出すことから始めます。機械学習の専門書のようにさらっと数式定義式を示すだけでなく,学習計算における単純な数値例計算を順をおって書き示します。受講者が2日目のニューラルネット機械学習の内部計算原理を受講する準備として最低限に絞り込んだ数式の使い方を丁寧に説明します。
[プログラム]
1.AI機械学習と数学
1.1 AI機械学習の再確認
1.2 ニューラルネット入門
1.3 学習ツールと学習原理
2.代数の復習
2.1 関数(変数とパラメータは立場の違い)
2.2 和の記号(意味は簡単,Σ記号に慣れる)
2.3 ベクトル(ニューラルネットの変数,内積,ノルム)
2.4 行列(ニューラルネットの内部計算)
3.指数関数の復習
3.1 累乗(指数関数への準備)
3.2 対数・指数関数(eの導入)
3.3 指数関数の応用(ニューラルネットの活性化関数)
4.微分の復習
4.1 微分と偏微分(変数とパラメータの変化率)
4.2 初歩関数の微分公式(機械学習に使う最小限)
4.3 合成関数の微分(ニューラルネットのパラメータ調整)
5.確率統計の復習
5.1 確率基礎(条件つき確率)
5.2 確率変数(離散から連続へ,確率密度の概念)
5.3 正規分布(誤差分布の定番)
□質疑応答□
■2日目 12月23日(月)
AI機械学習原理を理解するための数式読み方入門
本セミナー2日目は,前半までの数式記号に限定した範囲で,AI機械学習の基礎中の基礎の項目であるニューラルネット計算原理を解説します。本セミナー後半の到達点としては,ニューラルネット計算誤差関数の最小化アルゴリズム計算の理解です。そのため,AIのなかでもニューラルネットに絞り込みんで確実に内部計算を追えるようにします。そのほかへの展開は,これまで数式が障壁だったのを本セミナーで乗り越えた受講者が自ら開拓されていくものと考えます。
[プログラム]
6.データへの数式あてはめ
6.1 データと回帰式(データの傾向・数式あてはめ)
6.2 最小2乗法(偏微分,合成関数の適用)
7.ニューラルネットのしくみ
7.1 NNのしくみ(ディープラーニングとは)
7.2 簡単な数式モデル(勉強用の数式設定)
7.3 順伝搬(出力計算の流れ)
8.AI機械学習のしくみ
8.1 損失関数(学習誤差全体の数式)
8.2 勾配急降下法(最小2乗法の次の手)
9.誤差逆伝搬計算のしくみ
9.1 誤差逆伝搬の考え(ディープラーニングの場合)
9.2 重み調整の数式(合成偏微分の適用を理解)
9.3 学習最適化手法
10.事例:GPTの数式を見てみよう
10.1 自然言語のベクトル埋込み
10.2 Transformerニューラルネット
10.3 実は数式計算しているだけ
□質疑応答□