敏感度_特异性_支持#
- imblearn.metrics.sensitivity_specificity_support(y_true, y_pred, *, labels=None, pos_label=1, average=None, warn_for=('sensitivity', 'specificity'), sample_weight=None)[source]#
计算每个类别的灵敏度、特异性和支持度。
灵敏度是比率
tp / (tp + fn)
,其中tp
是真阳性的数量,fn
是假阴性的数量。灵敏度量化了避免假阴性的能力_[1]。特异性是比率
tn / (tn + fp)
,其中tn
是真阴性的数量,fn
是假阴性的数量。特异性量化了避免假阳性_[1]的能力。支持度是
y_true
中每个类别的出现次数。如果
pos_label is None
并且在二分类中,如果average
是'weighted'
之一,此函数返回平均敏感性和特异性。更多内容请参阅用户指南。
- Parameters:
- y_truearray-like of shape (n_samples,)
真实(正确)目标值。
- y_predarray-like of shape (n_samples,)
分类器返回的估计目标。
- labelsarray-like, default=None
当
average != 'binary'
时要包含的标签集,以及如果average is None
时的顺序。数据中存在的标签可以被排除,例如在计算多类平均值时忽略多数负类,而数据中不存在的标签将在宏平均值中导致0分量。对于多标签目标,标签是列索引。默认情况下,y_true
和y_pred
中的所有标签按排序顺序使用。- pos_labelstr, int or None, default=1
如果
average='binary'
且数据是二元的,则报告该类。 如果pos_label is None
并且在二元分类中,如果average
是'weighted'
之一,则此函数返回平均敏感性和特异性。 如果数据是多类的,则此设置将被忽略; 设置labels=[pos_label]
和average != 'binary'
将仅报告该标签的分数。- averagestr, default=None
如果
None
,则返回每个类的分数。否则,这将决定对数据执行的平均类型:'binary'
:仅报告由
pos_label
指定的类别结果。 这仅在目标(y_{true,pred}
)为二元时适用。'micro'
:通过计算总的真正例、假反例和假正例来全局计算指标。
'macro'
:计算每个标签的指标,并找到它们的未加权平均值。这不考虑标签不平衡的情况。
'weighted'
:计算每个标签的指标,并根据支持度(每个标签的真实实例数量)找到它们的加权平均值。这改变了“宏”以考虑标签不平衡;它可能导致F分数不在精确度和召回率之间。
'samples'
:计算每个实例的指标,并找到它们的平均值(仅对多标签分类有意义,这与
accuracy_score
不同)。
- warn_fortuple or set of {{“sensitivity”, “specificity”}}, for internal use
这决定了在使用此函数仅返回其一个指标的情况下将发出哪些警告。
- sample_weightarray-like of shape (n_samples,), default=None
样本权重。
- Returns:
- sensitivityfloat (if
average is None
) or ndarray of shape (n_unique_labels,) 敏感性指标。
- specificityfloat (if
average is None
) or ndarray of shape (n_unique_labels,) 特异性指标。
- supportint (if
average is None
) or ndarray of shape (n_unique_labels,) y_true
中每个标签的出现次数。
- sensitivityfloat (if
参考文献
[1]示例
>>> import numpy as np >>> from imblearn.metrics import sensitivity_specificity_support >>> y_true = np.array(['cat', 'dog', 'pig', 'cat', 'dog', 'pig']) >>> y_pred = np.array(['cat', 'pig', 'dog', 'cat', 'cat', 'dog']) >>> sensitivity_specificity_support(y_true, y_pred, average='macro') (0.33..., 0.66..., None) >>> sensitivity_specificity_support(y_true, y_pred, average='micro') (0.33..., 0.66..., None) >>> sensitivity_specificity_support(y_true, y_pred, average='weighted') (0.33..., 0.66..., None)