AUC(Area Under the Receiver Operating Characteristic Curve)是一种用于评估二分类模型性能的指标,主要用于度量模型在不同阈值下的整体性能。ROC曲线是以不同的分类阈值为基础,绘制出模型的真正例率(True Positive Rate,又称为召回率)与假正例率(False Positive Rate)之间的关系。
AUC即ROC曲线下的面积,其值范围在0到1之间,AUC值越大表示模型在不同阈值下的性能越好。
AUC的计算原理如下:
在一些机器学习框架和库中,计算AUC的函数通常已经包含在性能评估工具中。例如,使用scikit-learn
库,可以通过sklearn.metrics.roc_auc_score
函数来计算AUC值。
from sklearn.metrics import roc_auc_score
# y_true是实际标签,y_scores是模型预测的概率或分数
auc = roc_auc_score(y_true, y_scores)
print("AUC:", auc)
其中,y_true是实际的二分类标签,y_scores是模型预测的概率或分数。