確率的勾配降下法
そのような勾配法ですが,
というのも,
fwはモデルによって一つの点に対する誤差であったり,
これを勾配法で解くためにwでの微分を求めても,
勾配法でパラメータを更新するには,を計算しなくてはいけません。データは10個とか100個ではなく,
なにかいい方法はないものでしょうか。nで和をとるのが大変なのだから,
これならデータ点がいくらたくさんあっても一回の計算は超簡単でとてもハッピー……いやいやさすがに,
ところが実はそんなひどい話がまかり通っていまして,
というわけで名前も付いていて,
nはやはりすべての値をぐるっと一周するのですが,
ちなみに
話を元に戻して,
データ点xnごとにfw(xn)のwに関する最小点は異なりますから,
一方,
確率的勾配降下法の性質について,
ちなみに,
パーセプトロンの場合
さて,
パーセプトロンでは,
:予測が間違っているとき
:予測が正しいとき
したがって誤差関数は次のようになります。
ただし Mはパラメータa,b,cの元で不正解になるデータ(xn,yn,tn)を与えるnの集合とします。
この誤差関数Eを目的関数とした最適化問題を確率的勾配降下法で解いてみましょう。
確率的勾配降下法ですから,
予測が正解していればE(xn;a,b,c)=0であり,
このことから,
この式のηを1にすれば,
先ほど,
これはパーセプトロンのこのアルゴリズムに特化したアプローチで示されているもので,
パーセプトロンの学習アルゴリズムは,
今回紹介した確率的勾配降下法は,