評価指標入門 〜データサイエンスとビジネスをつなぐ架け橋

サポートページ

この記事を読むのに必要な時間:およそ 0.5 分

お詫びと訂正(正誤表)

本書の以下の部分に誤りがありました。ここに訂正するとともに,ご迷惑をおかけしたことを深くお詫び申し上げます。

(2023年2月27日最終更新)

P.255 本文1行目

なぜこの値がTPに等しくなるかというと、分子がTPと等しくなるその理由ですが、分子の数式は
なぜこの値がTPに等しくなるかというと、この数式は

P.33 図1.6の散布図の横軸のラベル

Relative Difference Perfpmance
Relative Difference Performance

P.42 数式

+その他固定費
-その他固定費

P.212 TNの説明

モデルがクラスAだと判定して、実際にクラスAでないケース(TN)
モデルがクラスAでないと判定して、実際にクラスAでないケース(TN)

P.219 理解しにくい記述のため修正

Macro ROC-AUCは単純に各クラスのAUCの値の平均をとるため最も高い値になります。しかし、クラスごとのAUCから算出しているわけではなく、前述のMicro の算出方法によってデータ全体で算出しているため、各クラスごとのサンプル数によっては他のどのクラスのAUCよりも高くなるケースがあります。
3章で紹介した「予測値を降順に並べ変えたとき、真のクラスがPositiveのデータが上に偏っている」というROC-AUCの特徴を思い出します。データ全体で予測値を降順に並べ変えた場合、予測値の上位には多数派のクラス0とクラス1の両方が多くを占めるため、Micro ROC-AUCが最も高い値になっています。

(以下2023年2月16日更新)

P.123 本文

レコメンドと情報検索を例に考えていきましょう。
レコメンドを例に考えていきましょう。

「と情報検索」が不要です。

P.129 本文

1.8節で前述した通り
3.7節で前述した通り

P.240 URL

https://scikit-learn.org/stable/auto_examples/model_selection/plot_roc.html
https://scikit-learn.org/1.1/auto_examples/model_selection/plot_roc.html

(以下2023年2月15日更新)

P.73 ディレクトリ構造

Evaluation_for_binary_classifications.ipynb
Evaluation_for_regression.ipynb

P.191 コードブロック2行目(plot_confusion_matrixではなく,confusion_matrix)

import matplotlib.pyplot as plt
from sklearn.metrics import  plot_confusion_matrix
from sklearn.model_selection import train_test_split
import matplotlib.pyplot as plt
from sklearn.metrics import confusion_matrix
from sklearn.model_selection import train_test_split