この記事を読むのに必要な時間:およそ 0.5 分
お詫びと訂正(正誤表)
本書の以下の部分に誤りがありました。ここに訂正するとともに,ご迷惑をおかけしたことを深くお詫び申し上げます。
P.255 本文1行目
誤 |
なぜこの値がTPに等しくなるかというと、分子がTPと等しくなるその理由ですが、分子の数式は |
正 |
なぜこの値がTPに等しくなるかというと、この数式は |
P.33 図1.6の散布図の横軸のラベル
誤 |
Relative Difference Perfpmance |
正 |
Relative Difference Performance |
P.42 数式
P.212 TNの説明
誤 |
モデルがクラスAだと判定して、実際にクラスAでないケース(TN) |
正 |
モデルがクラスAでないと判定して、実際にクラスAでないケース(TN) |
P.219 理解しにくい記述のため修正
誤 |
Macro ROC-AUCは単純に各クラスのAUCの値の平均をとるため最も高い値になります。しかし、クラスごとのAUCから算出しているわけではなく、前述のMicro の算出方法によってデータ全体で算出しているため、各クラスごとのサンプル数によっては他のどのクラスのAUCよりも高くなるケースがあります。 |
正 |
3章で紹介した「予測値を降順に並べ変えたとき、真のクラスがPositiveのデータが上に偏っている」というROC-AUCの特徴を思い出します。データ全体で予測値を降順に並べ変えた場合、予測値の上位には多数派のクラス0とクラス1の両方が多くを占めるため、Micro ROC-AUCが最も高い値になっています。 |
P.123 本文
誤 |
レコメンドと情報検索を例に考えていきましょう。 |
正 |
レコメンドを例に考えていきましょう。 |
「と情報検索」が不要です。
P.129 本文
誤 |
1.8節で前述した通り |
正 |
3.7節で前述した通り |
P.240 URL
誤 |
https://scikit-learn.org/stable/auto_examples/model_selection/plot_roc.html |
正 |
https://scikit-learn.org/1.1/auto_examples/model_selection/plot_roc.html |
P.73 ディレクトリ構造
誤 |
Evaluation_for_binary_classifications.ipynb
|
正 |
Evaluation_for_regression.ipynb
|
P.191 コードブロック2行目(plot_confusion_matrixではなく,confusion_matrix)
誤 |
import matplotlib.pyplot as plt
from sklearn.metrics import plot_confusion_matrix
from sklearn.model_selection import train_test_split
|
正 |
import matplotlib.pyplot as plt
from sklearn.metrics import confusion_matrix
from sklearn.model_selection import train_test_split
|