Entries
- 2021
- 9/20 深層学習とは何か?
- 5/10 SPVMを使ったディープラーニング高速化
- 2020
- 11/18 Perlのディープラーニングのライブラリ - AI::MXNet
- 10/26 逆誤差伝播法 - バックプロパゲーション 書き始め
- 10/23 パラメーター更新最適化アルゴリズムとは
- 10/22 Adam - SGDを改善したパラメーター更新最適化アルゴリズム
- 10/21 多段の関数の場合の傾きの求め方 - 合成関数の微分
- 10/20 傾き(かたむき)とは - 微分係数
- 10/19 tanh関数 - 活性化関数
- 10/18 tanh関数の導関数 - 活性化関数の導関数
- 10/17 確率的勾配降下法(SGD) - 重みとバイアスのパラメータの更新
- 10/16 バイアスとは
- 10/15 重みとは
- 10/7 Xavierの初期値
- 10/6 Heの初期値
- 10/5 正規分布に従う乱数を求める
- 10/2 softmax関数
- 10/1 ReLU関数の導関数 - 活性化関数の導関数
- 9/29 列優先の行列を作成する
- 9/28 行列とは
- 9/27 softmax関数とクスエントロピー誤差の合成関数の導関数
- 9/26 ピュアPerlで書いたMNIST手書き認識ディープラーニング
- 9/24 ベクトルの内積の計算
- 9/23 学習率とは
- 9/22 逆誤伝播法 - 逆誤差伝播法
- 9/21 勾配(こうばい)とは
- 9/20 シグモイド関数の導関数
- 9/19 導関数とは
- 9/17 転置行列を求める
- 9/16 期待される出力を確率で表現する
- 9/15 ディープラーニングで初期入力から最終出力を得る計算過程
- 9/14 行列の積の計算
- 9/13 ベクトルの和を求める
- 9/12 行列の和を求める
- 9/11 ReLU関数 - 活性化関数
- 9/10 二乗和誤差を求める - 損失関数
- 9/9 MNISTラベル情報を読み込む
- 9/8 Perl+ディープラーニングで手書き文字認識
- 9/7 MNIST画像情報を読み込む
- 9/6 訓練データをランダムにシャッフルする
- 9/5 隠れ層におけるニューロンの数を表現する
- 9/4 エポックという単位は訓練データを一巡することを指す
- 9/3 シグモイド関数 - 活性化関数
- 9/2 活性化関数とは
- 9/1 損失関数とは
- 8/31 クロスエントロピー誤差を求める - 損失関数
- 8/30 バッチサイズとは - オンライン学習、ミニバッチ学習、バッチ学習
- 8/29 行列の差を求める
- 8/28 ベクトルの差を求める
- 3/11 各層の重みとバイアスのパラメーターの初期値の設定方法
- 3/6 出力層における計算
- 3/2 中間層における計算 - m個の入力をn個の出力に変換する