はじめての深層学習(ディープラーニング)プログラミング

サポートページ

この記事を読むのに必要な時間:およそ 0.5 分

補足情報

(2016年12月9日更新)

P.129 4.8 本文2~3行目のURLについて

P.129に掲載しているseq2seqのチュートリアルページから,本書で解説したr0.8が削除されてしまいました。最新バージョンのURLは,

https://www.tensorflow.org/versions/r0.12/tutorials/seq2seq/index.html

です。

ただし本書の内容はr0.8で確認したものですので,上記サイトの内容と異なる可能性があることをご承知おきください。

Facebookサポートサイト

著者の清水亮氏により,Facebookの公開グループ「はじめての深層学習プログラミング」が開設されています。アップデート情報や本書に関するご質問ができます。本書をお持ちの方はよろしければご参加ください。

https://www.facebook.com/groups/first.deeplearning.programming/

Deelについて

2016年12月9日にDeelの修正を行いました。この日以前にgit cloneをされた方は,たいへんお手数ですが,git pullをしてから本書の内容をお試しください。

最新版のChainerをインストールする場合

最新版(2016年12月9日現在でv1.18.0)のChainerをインストールする場合は,Python 2.7.8以降である必要があります。ご注意ください。

お詫びと訂正(正誤表)

本書の以下の部分に誤りがありました。ここに訂正するとともに,ご迷惑をおかけしたことを深くお詫び申し上げます。

(2017年6月12日最終更新)

P.61 本文下から4行目

2層パーセプトロン
1層パーセプトロン

P.61 本文下から3行目

2層パーセプトロン
1層パーセプトロン

(以下,2017年4月19日更新)

P.92 リスト3.2 CharRNN.pyのコード9行目


9: l0 = F.linear(1, units),

9: embed = F.EmbedID(n_vocab, n_units),

P.93 リスト3.2 CharRNN.pyのコード29行目


29: h0 = F.relu(self.l0(x))

29: h0 = self.embed(x)

P.94 リスト3.2 CharRNN.pyのコード66行目


66: volatile = not train)

66: volatile = not train) for name in ('c1', 'h1', 'c2', 'h2', 'c3', 'h3','c4','h4','c5','h5')}

P.95 リスト3.3 train.pyのコード15行目からのload_data関数


15: def load_data(args):
16:     vocab = {}
17:     print ('%s/input.txt'% args.data_dir)
18:     # words = codecs.open('%s/input.txt' % args.data_dir, 'rb','UTF-8').read()
19: 
20:     dat = []
21:     for l in open('%s/input.txt' % args.data_dir).readlines():
22:         data = eval(l[:-1])
23:         dat.append(data)
24: 
25:     words = dat
26:     dataset = np.ndarray((1,1), dtype=np.float32)
27:     for i, word in enumerate(words):
28:         if word not in vocab:
29:             vocab[word] = len(vocab)
30:         dataset[i] = word
31:     print 'corpus length:', len(words)
32:     print 'vocab size:', len(vocab)
33:     return dataset, words, vocab

15: def load_data(args):
16:     vocab = {}
17:     print ('%s/input.txt'% args.data_dir)
18:     words = codecs.open('%s/input.txt' % args.data_dir, 'rb','UTF-8').read()
19:     words = list(words)
20:     dataset = np.ndarray((len(words),), dtype=np.int32)
21:     for i, word in enumerate(words):
22:         if word not in vocab:
23:             vocab[word] = len(vocab)
24:         dataset[i] = vocab[word]
25:     print 'corpus length:', len(words)
26:     print 'vocab size:', len(vocab)
27:     return dataset, words, vocab

(以下,2016年12月27日更新)

P.19 1.4 実行例の1行目

$ cd deel
削除

P.56 2.2 OR演算の学習プログラムのコード9行目

9: l=L.Linear(2, 1),
9: l1=L.Linear(2, 1),

P.57 OR演算の学習プログラム解説のコード9行目

9: l=L.Linear(2, 1),
9: l1=L.Linear(2, 1),

P.58 OR演算の学習プログラムに活性化関数を加えたプログラム解説のコード9行目

9: l=L.Linear(2, 1),
9: l1=L.Linear(2, 1),

P.119 図4.6

誤
正

※出力「y」の手前の「sigmoid」が不要。