連載
機械学習 はじめよう
機械学習は,様々な分野で使われています。本連載では,「理論編」と「実践編」に分けて,機械学習の技術概念やコードの実装方法を紹介していきます。
- 第21回(最終回) 機械学習 はじめよう
- 未知のデータへの対応能力
- きれいなモデルと汚いデータ
- 機械学習は必ず間違える
- 機械学習を使わずのすすめ
- 終わりに
2013年12月25日
- 第20回 ロジスティック回帰の実装
- パーセプトロンの実装の復習
- ロジスティック回帰の実装
2013年10月2日
- 第19回 ロジスティック回帰の学習
- 確率的勾配降下法の復習
- ロジスティック回帰の学習
- 確率に変換する関数
2013年6月19日
- 第18回 ロジスティック回帰
- 予測の信頼度
- 判別関数を確率化
- ロジスティック回帰
- 尤度関数の最適化
2013年2月13日
- 第17回 パーセプトロンを実装してみよう
- パーセプトロンの復習
- パーセプトロンの実装
- 人工データの生成
- パーセプトロンの役割
2012年11月30日
- 第16回 最適化のための勾配法
- 最適化
- 勾配法
- 勾配法の問題点
- 確率的勾配降下法
- パーセプトロンの場合
2012年8月22日
- 第15回 分類問題ことはじめ
- 分類問題
- 分類関数による定式化
- パーセプトロン
- パーセプトロンの解き方
2012年6月7日
- 第14回 ベイズ線形回帰を実装してみよう
- 普通の線形回帰のコードを復習
- 事後分布の平均と共分散を求める
- 共分散の眺め方
- 予測分布を描く
- パラメータαとβの決め方
- 次回予告
2012年4月6日
- 第13回 ベイズ線形回帰[後編]
- ベイジアンふたたび
- ベイジアン+線形回帰
- 事前分布の選び方
- ベイズ線形回帰を解く
- 正則化ふたたび
- まとめ
2012年1月25日
- 第12回 ベイズ線形回帰[前編]
- 線形回帰を確率の問題に
- ノイズ=確率分布
- 確率版の線形回帰を解く
- まとめ
2011年12月22日
- 第11回 線形回帰を実装してみよう
- 線形回帰の復習
- 実装のための準備
- 線形回帰の実装
- 推定した関数を図示する
- 様々な条件で試す
2011年11月16日
- 第10回 ベイズ確率
- 「確率」を求める
- 合格する「確率」
- ベイズ確率,ふたたび
- 事後分布 ― 結果を使って「自信」を更新
- 事前分布 ― 最初の「自信」
- 共役事前分布 ― 都合のいい事前分布
- まとめ
2011年6月3日
- 第9回 線形回帰[後編]
- 戻らないけど「回帰」
- 線形回帰
- 線形回帰の例
- 過学習(over-fitting)
- 過学習を防ぐ正則化
- 正則化つき線形回帰
- まとめ
2011年3月2日
- 第8回 線形回帰[前編]
- 2つの変数の関係を見つけよう
- 隠されていた3つの仮定
- まとめ,そして「回帰」へ
2011年2月16日
- 第7回 代表的な離散型確率分布
- matplotlibのインストール
- 確率分布とは
- まとめ
2011年2月1日
- 第6回 Numpyの導入
- Numpyの導入
- インストール
- Numpy簡単な使い方
- 終わりに
2010年12月13日
- 第5回 正規分布[後編]
- 正規分布
- 正規分布の平均と分散
- 中心極限定理
- 「よく使う分布」はどうしてよく使う?
- 多次元正規分布
- 今回のまとめ
2010年9月24日
- 第4回 正規分布[前編]
- 第2回・第3回の復習
- 離散な確率と連続な確率
- 確率密度関数
- 連続確率の加法定理
- 確率の平均と分散
2010年9月8日
- 第3回 ベイジアンフィルタを実装してみよう
- ベイジアンフィルタとは
- 環境構築
- bag-of-wordsを利用したテキスト分類
- 文章を形態素に分割する
- ベイジアンフィルタの実装
- ナイーブベイズのアルゴリズム
- 訓練フェーズの実装
- 推定フェーズの実装
- カテゴリの推定
- 実行してみよう
- 次回のお知らせ
2010年8月23日
- 第2回 確率の初歩
- 機械学習と確率
- 確率変数と確率分布
- 同時確率と条件付き確率
- 確率の加法定理・乗法定理
- 事後確率とベイズの公式
- モデルのパラメータ数
- 確率変数の独立性と「よいモデル」
- ナイーブベイズによる文書分類
2010年7月13日