• 本当は、田舎に庵を建てて隠遁生活したいけど、先立つものも無いので自宅で..。

【Pyton】Recurrent Neural Network

ようやくRNNの入り口までたどりついた。 参考にしたのは、このサイト

いつものように、変数の型を調べてみた。

出力が見難くなるので、バッチ数や隠れ層のノード数は少なめにした。

隠れ層に渡すhiddenの初期値は、要素が全て0。 出力はバッチ数だけ出て、hiddenは、hidden_size * num_batchになった。

これと正解の出力と比較して重みとバイアスを修正していって、NNの時と同じように次の出力が推定できるということらしい。

隠れ層のノード数をどういう風に決めるのかとか重みやバイアスの修正のしかたのアルゴリズムとか理解できていないけど、PyTorchを使えば何とかなりそうな気がしてきた。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA