逻辑回归#

链接到算法描述:线性模型

class interpret.glassbox.LogisticRegression(feature_names=None, feature_types=None, linear_class=<class 'sklearn.linear_model._logistic.LogisticRegression'>, **kwargs)#

逻辑回归。

目前是scikit-learn中线性模型的封装:scikit-learn/scikit-learn

初始化类。

Parameters:
  • feature_names – 特征名称列表。

  • feature_types – 特征类型的列表。

  • linear_class – 一个 scikit-learn 线性类。

  • **kwargs – 在初始化时传递给线性类的Kwargs。

explain_global(name=None)#

为模型提供全局解释。

Parameters:

name – 用户定义的解释名称。

Returns:

一个解释对象,将特征-值对可视化为水平条形图。

explain_local(X, y=None, name=None)#

为提供的实例提供本地解释。

Parameters:
  • X – 用于解释的X的Numpy数组。

  • y – 用于解释的y的Numpy向量。

  • name – 用户定义的解释名称。

Returns:

一个解释对象,将每个实例的特征-值对可视化为水平条形图。

fit(X, y)#

将模型适配到提供的实例。

Parameters:
  • X – 用于训练实例的Numpy数组。

  • y – 作为训练标签的Numpy数组。

Returns:

它本身。

predict(X)#

对提供的实例进行预测。

Parameters:

X – 实例的Numpy数组。

Returns:

每个实例的预测类别标签。

predict_proba(X)#

在提供的实例上进行概率估计。

Parameters:

X – 实例的Numpy数组。

Returns:

每个类别的实例的概率估计。

score(X, y, sample_weight=None)#

返回给定测试数据和标签的平均准确率。

在多标签分类中,这是子集准确度 这是一个严格的指标,因为您要求每个样本的 每个标签集都被正确预测。

Parameters:
  • X (形状为 (n_samples, n_features) 的数组) – 测试样本。

  • y (形状为 (n_samples,) 或 (n_samples, n_outputs) 的数组类) – X 的真实标签。

  • sample_weight (形状为 (n_samples,)的类数组, 默认=None) – 样本权重。

Returns:

scoreself.predict(X) 相对于 y 的平均准确率。

Return type:

浮点数