一文讀懂分類模型評估指標
模型評估是深度學習和機器學習中非常重要的一部分,用于衡量模型的性能和效果。本文將逐步分解混淆矩陣,準確性,精度,召回率和F1分數。
混淆矩陣
混淆矩陣是在分類問題中用于評估模型性能的表格,它展示了模型對樣本的分類情況?;煜仃嚨男斜硎緦嶋H類別,列表示預測類別。對于二分類問題,混淆矩陣的結構如下:
- True Positive (TP): 實際為正例,模型預測為正例的樣本數,模型正確識別正面實例的能力。更高的TP通常是可取的
- False Negative (FN): 實際為正例,模型預測為負例的樣本數,根據應用程序的不同,這可能是關鍵的(例如,未能檢測到安全威脅)。
- False Positive (FP): 實際為負例,模型預測為正例的樣本數,強調模型在不應該預測為正的情況下預測為正的情況,這可能會產生取決于應用的后果(例如,醫療診斷中不必要的治療)
- True Negative (TN): 實際為負例,模型預測為負例的樣本數,反映模型正確識別否定實例的能力。通常需要更高的TN
初學者看起來很亂,其實這樣理解就非常簡單了,后面的Negative/Positive 為模型預測值,前面的True/False 為模型預測是否正確,比如True Negative,代表,模型預測是Negative并且與實際的值對比是True 也就是預測正確的,這樣就好理解了。以下是一個簡單的混淆矩陣:
from sklearn.metrics import confusion_matrix
import seaborn as sns
import matplotlib.pyplot as plt
# Example predictions and true labels
y_true = [1, 0, 1, 1, 0, 1, 0, 0, 1, 0]
y_pred = [1, 0, 1, 0, 0, 1, 0, 1, 1, 1]
# Create a confusion matrix
cm = confusion_matrix(y_true, y_pred)
# Visualize the blueprint
sns.heatmap(cm, annot=True, fmt="d", cmap="Blues", xticklabels=["Predicted 0", "Predicted 1"], yticklabels=["Actual 0", "Actual 1"])
plt.xlabel("Predicted")
plt.ylabel("Actual")
plt.show()
當你想強調正確的預測和整體準確性時,使用TP和TN。當你想了解你的模型所犯的錯誤類型時,使用FP和FN。例如,在誤報成本很高的應用程序中,最小化誤報可能是至關重要的。
比如一個垃圾郵件分類器。混淆矩陣可以理解正確識別了多少垃圾郵件,錯誤標記了多少非垃圾郵件。
基于混淆矩陣,可以計算許多其他評估指標,例如準確度、精確度、召回率和F1分數。
Accuracy
根據我們上面的總結,計算的是能夠正確預測的的比例,分子是TP和TN都是True,也就是模型預測對了的總數
Precision
可以看到公式,他計算的是Positive 的占比,也就是說數據中所有Positive的,正確預測對了有多少,所以精確度Precision又被稱作查準率
在誤報有重大后果或成本的情況下,這是至關重要的。例如在醫學診斷模型中,精確度確保只對真正需要治療的人進行治療。
Recall
召回率,也稱為靈敏度或真陽性率,關注模型捕獲所有正類實例的能力。
從公式中可以看到,它主要是計算模型捕獲了多少實際的Positive,也就是Positive的占比,所以Recall又被稱作查全率
F1 Score
F1分數是一個在精確度和召回率之間取得平衡的指標,為模型的性能提供了一個全面的衡量標準。它是查準率和查全率的調和平均值,計算公式為:
F1分數很重要,因為它提供了精確率和召回率之間的折衷。當你想在準確率和召回率之間找到平衡時,或者說針對一般的應用可以使用F1 Score
總結
本文對混淆矩陣、準度、精度、召回率和F1分數進行了詳細的介紹,使用這些指標可以很好地評估和增強模型的性能。