使用R风格公式拟合模型

自版本0.5.0起,statsmodels允许用户使用R风格的公式来拟合统计模型。在内部,statsmodels使用patsy包将公式和数据转换为模型拟合中使用的矩阵。公式框架非常强大;本教程仅触及表面。公式语言的完整描述可以在patsy文档中找到:

加载模块和函数

In [1]: import statsmodels.api as sm

In [2]: import statsmodels.formula.api as smf

In [3]: import numpy as np

In [4]: import pandas

请注意,除了通常的 statsmodels.api 之外,我们还调用了 statsmodels.formula.api。实际上,这里仅使用 statsmodels.api 来加载数据集。formula.api 包含了许多与 api 中相同的函数(例如 OLS、GLM),但它还为大多数这些模型提供了小写形式的对应函数。通常,小写模型接受 formuladf 参数,而大写模型则接受 endogexog 设计矩阵。formula 接受一个字符串,该字符串以 patsy 公式的形式描述模型。df 接受一个 pandas 数据框。

dir(smf) 将打印可用模型的列表。

兼容公式的模型具有以下通用调用签名: (formula, data, subset=None, *args, **kwargs)

使用公式的OLS回归

首先,我们拟合在入门页面上描述的线性模型。下载数据,子集列,并按列表删除以移除缺失的观测值:

In [5]: df = sm.datasets.get_rdataset("Guerry", "HistData").data

In [6]: df = df[['Lottery', 'Literacy', 'Wealth', 'Region']].dropna()

In [7]: df.head()
Out[7]: 
   Lottery  Literacy  Wealth Region
0       41        37      73      E
1       38        51      22      N
2       66        13      61      C
3       80        46      76      E
4       79        69      83      E

拟合模型:

In [8]: mod = smf.ols(formula='Lottery ~ Literacy + Wealth + Region', data=df)

In [9]: res = mod.fit()

In [10]: print(res.summary())
                            OLS Regression Results                            
==============================================================================
Dep. Variable:                Lottery   R-squared:                       0.338
Model:                            OLS   Adj. R-squared:                  0.287
Method:                 Least Squares   F-statistic:                     6.636
Date:                   三, 16 10 2024   Prob (F-statistic):           1.07e-05
Time:                        18:36:39   Log-Likelihood:                -375.30
No. Observations:                  85   AIC:                             764.6
Df Residuals:                      78   BIC:                             781.7
Df Model:                           6                                         
Covariance Type:            nonrobust                                         
===============================================================================
                  coef    std err          t      P>|t|      [0.025      0.975]
-------------------------------------------------------------------------------
Intercept      38.6517      9.456      4.087      0.000      19.826      57.478
Region[T.E]   -15.4278      9.727     -1.586      0.117     -34.793       3.938
Region[T.N]   -10.0170      9.260     -1.082      0.283     -28.453       8.419
Region[T.S]    -4.5483      7.279     -0.625      0.534     -19.039       9.943
Region[T.W]   -10.0913      7.196     -1.402      0.165     -24.418       4.235
Literacy       -0.1858      0.210     -0.886      0.378      -0.603       0.232
Wealth          0.4515      0.103      4.390      0.000       0.247       0.656
==============================================================================
Omnibus:                        3.049   Durbin-Watson:                   1.785
Prob(Omnibus):                  0.218   Jarque-Bera (JB):                2.694
Skew:                          -0.340   Prob(JB):                        0.260
Kurtosis:                       2.454   Cond. No.                         371.
==============================================================================

Notes:
[1] Standard Errors assume that the covariance matrix of the errors is correctly specified.

分类变量

查看上面打印的摘要,注意到patsy确定Region的元素是文本字符串,因此它将Region视为一个分类变量。patsy的默认设置还包括一个截距,因此我们自动删除了一个Region类别。

如果Region是一个我们想要明确处理为分类的整数变量,我们可以使用C()操作符来实现:

In [11]: res = smf.ols(formula='Lottery ~ Literacy + Wealth + C(Region)', data=df).fit()

In [12]: print(res.params)
Intercept         38.651655
C(Region)[T.E]   -15.427785
C(Region)[T.N]   -10.016961
C(Region)[T.S]    -4.548257
C(Region)[T.W]   -10.091276
Literacy          -0.185819
Wealth             0.451475
dtype: float64

更多高级功能的示例,例如 patsy 的分类变量函数,可以在这里找到:Patsy: 分类变量的对比编码系统

运算符

我们已经知道,“~”用于分隔模型的左侧和右侧,而“+”用于向设计矩阵添加新列。

移除变量

“-” 符号可以用于移除列/变量。例如,我们可以通过以下方式从模型中移除截距:

In [13]: res = smf.ols(formula='Lottery ~ Literacy + Wealth + C(Region) -1 ', data=df).fit()

In [14]: print(res.params)
C(Region)[C]    38.651655
C(Region)[E]    23.223870
C(Region)[N]    28.634694
C(Region)[S]    34.103399
C(Region)[W]    28.560379
Literacy        -0.185819
Wealth           0.451475
dtype: float64

乘法交互

“:” 在设计矩阵中添加一个新列,该列是其他两列的乘积。“*” 也会包括被相乘的各个列:

In [15]: res1 = smf.ols(formula='Lottery ~ Literacy : Wealth - 1', data=df).fit()

In [16]: res2 = smf.ols(formula='Lottery ~ Literacy * Wealth - 1', data=df).fit()

In [17]: print(res1.params)
Literacy:Wealth    0.018176
dtype: float64

In [18]: print(res2.params)
Literacy           0.427386
Wealth             1.080987
Literacy:Wealth   -0.013609
dtype: float64

运算符可以实现许多其他功能。请参阅patsy文档以了解更多信息。

函数

您可以将矢量化函数应用于模型中的变量:

In [19]: res = smf.ols(formula='Lottery ~ np.log(Literacy)', data=df).fit()

In [20]: print(res.params)
Intercept           115.609119
np.log(Literacy)    -20.393959
dtype: float64

定义一个自定义函数:

In [21]: def log_plus_1(x):
   ....:     return np.log(x) + 1.0
   ....: 

In [22]: res = smf.ols(formula='Lottery ~ log_plus_1(Literacy)', data=df).fit()

In [23]: print(res.params)
Intercept               136.003079
log_plus_1(Literacy)    -20.393959
dtype: float64

命名空间

请注意,上述所有示例都使用调用命名空间来查找要应用的函数。可以通过eval_env关键字控制使用的命名空间。例如,您可能希望使用patsy:patsy.EvalEnvironment提供自定义命名空间,或者您可能希望使用一个“干净的”命名空间,我们通过传递eval_func=-1来提供。默认情况下,使用调用者的命名空间。如果用户命名空间或传递给patsy的数据结构中有人使用了变量名C,并且在公式中使用C来处理分类变量,这可能会产生(不)预期的后果。有关更多信息,请参阅Patsy API 参考

使用公式与尚不支持它们的模型

即使某个 statsmodels 函数不支持公式,您仍然可以使用 patsy 的公式语言来生成设计矩阵。 这些矩阵随后可以作为 endogexog 参数传递给拟合函数。

生成 numpy 数组:

In [24]: import patsy

In [25]: f = 'Lottery ~ Literacy * Wealth'

In [26]: y, X = patsy.dmatrices(f, df, return_type='matrix')

In [27]: print(y[:5])
[[41.]
 [38.]
 [66.]
 [80.]
 [79.]]

In [28]: print(X[:5])
[[   1.   37.   73. 2701.]
 [   1.   51.   22. 1122.]
 [   1.   13.   61.  793.]
 [   1.   46.   76. 3496.]
 [   1.   69.   83. 5727.]]

yX 将是 patsy.DesignMatrix 的实例,它是 numpy.ndarray 的子类。

生成 pandas 数据框:

In [29]: f = 'Lottery ~ Literacy * Wealth'

In [30]: y, X = patsy.dmatrices(f, df, return_type='dataframe')

In [31]: print(y[:5])
   Lottery
0     41.0
1     38.0
2     66.0
3     80.0
4     79.0

In [32]: print(X[:5])
   Intercept  Literacy  Wealth  Literacy:Wealth
0        1.0      37.0    73.0           2701.0
1        1.0      51.0    22.0           1122.0
2        1.0      13.0    61.0            793.0
3        1.0      46.0    76.0           3496.0
4        1.0      69.0    83.0           5727.0
In [33]: print(sm.OLS(y, X).fit().summary())
                            OLS Regression Results                            
==============================================================================
Dep. Variable:                Lottery   R-squared:                       0.309
Model:                            OLS   Adj. R-squared:                  0.283
Method:                 Least Squares   F-statistic:                     12.06
Date:                   三, 16 10 2024   Prob (F-statistic):           1.32e-06
Time:                        18:36:39   Log-Likelihood:                -377.13
No. Observations:                  85   AIC:                             762.3
Df Residuals:                      81   BIC:                             772.0
Df Model:                           3                                         
Covariance Type:            nonrobust                                         
===================================================================================
                      coef    std err          t      P>|t|      [0.025      0.975]
-----------------------------------------------------------------------------------
Intercept          38.6348     15.825      2.441      0.017       7.149      70.121
Literacy           -0.3522      0.334     -1.056      0.294      -1.016       0.312
Wealth              0.4364      0.283      1.544      0.126      -0.126       0.999
Literacy:Wealth    -0.0005      0.006     -0.085      0.933      -0.013       0.012
==============================================================================
Omnibus:                        4.447   Durbin-Watson:                   1.953
Prob(Omnibus):                  0.108   Jarque-Bera (JB):                3.228
Skew:                          -0.332   Prob(JB):                        0.199
Kurtosis:                       2.314   Cond. No.                     1.40e+04
==============================================================================

Notes:
[1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
[2] The condition number is large, 1.4e+04. This might indicate that there are
strong multicollinearity or other numerical problems.

Last update: Oct 16, 2024