几何平均分数#

imblearn.metrics.geometric_mean_score(y_true, y_pred, *, labels=None, pos_label=1, average='multiclass', sample_weight=None, correction=0.0)[source]#

计算几何平均数。

几何平均数(G-mean)是各类别敏感度的乘积的根。该度量试图在保持这些准确度平衡的同时,最大化每个类别的准确度。对于二分类问题,G-mean是敏感度和特异度乘积的平方根。对于多类问题,它是每个类别的敏感度乘积的更高次根。

为了与其他不平衡性能度量兼容,当average != 'multiclass'时,可以在一对多的基础上分别为每个类别计算G-mean。

最佳值为1,最差值为0。传统上,如果分类器至少有一个类别未被识别,G-mean将解析为零。为了缓解这一特性,对于高度多类别的情况,可以将未识别类别的敏感性“修正”为用户指定的值(而不是零)。此选项仅在average == 'multiclass'时有效。

更多内容请参阅用户指南

Parameters:
y_truearray-like of shape (n_samples,)

真实(正确)目标值。

y_predarray-like of shape (n_samples,)

分类器返回的估计目标。

labelsarray-like, default=None

average != 'binary' 时要包含的标签集,以及如果 average is None 时的顺序。数据中存在的标签可以被排除,例如在计算多类平均值时忽略大多数负类,而数据中不存在的标签将在宏平均值中导致0个组件。

pos_labelstr, int or None, default=1

如果average='binary'且数据是二元的,则报告该类。 如果pos_label is None并且在二元分类中,如果average'weighted'之一,则此函数返回平均几何平均值。 如果数据是多类的,则此设置将被忽略; 设置labels=[pos_label]average != 'binary'将仅报告该标签的分数。

averagestr or None, default=’multiclass’

如果 None,则返回每个类的分数。否则,这将决定对数据执行的平均类型:

'binary':

仅报告由pos_label指定的类别结果。 这仅在目标(y_{true,pred})为二元时适用。

'micro':

通过计算总的真正例、假反例和假正例来全局计算指标。

'macro':

计算每个标签的指标,并找到它们的未加权平均值。这不考虑标签不平衡的情况。

'multiclass':

没有取平均值。

'weighted':

计算每个标签的指标,并根据支持度(每个标签的真实实例数量)找到它们的加权平均值。这改变了“宏”以考虑标签不平衡;它可能导致F分数不在精确度和召回率之间。

'samples':

计算每个实例的指标,并找到它们的平均值(仅对多标签分类有意义,这与accuracy_score不同)。

sample_weightarray-like of shape (n_samples,), default=None

样本权重。

correctionfloat, default=0.0

将未识别类别的敏感度从零替换为给定值。

Returns:
geometric_meanfloat

返回几何平均值。

注释

参见 不平衡学习特有的指标

参考文献

[1]

Kubat, M. 和 Matwin, S. “解决不平衡训练集的诅咒:单边选择” ICML (1997)

[2]

Barandela, R., Sánchez, J. S., Garcıa, V., & Rangel, E. “学习策略在类别不平衡问题中的应用”, Pattern Recognition, 36(3), (2003), pp 849-851.

示例

>>> from imblearn.metrics import geometric_mean_score
>>> y_true = [0, 1, 2, 0, 1, 2]
>>> y_pred = [0, 2, 1, 0, 0, 1]
>>> geometric_mean_score(y_true, y_pred)
0.0
>>> geometric_mean_score(y_true, y_pred, correction=0.001)
0.010...
>>> geometric_mean_score(y_true, y_pred, average='macro')
0.471...
>>> geometric_mean_score(y_true, y_pred, average='micro')
0.471...
>>> geometric_mean_score(y_true, y_pred, average='weighted')
0.471...
>>> geometric_mean_score(y_true, y_pred, average=None)
array([0.866...,  0.       ,  0.       ])

使用 imblearn.metrics.geometric_mean_score 的示例#

使用重采样比较集成分类器

Compare ensemble classifiers using resampling

不平衡学习特有的指标

Metrics specific to imbalanced learning