使用 R 风格公式拟合模型¶
从 0.5.0 版本开始,statsmodels
允许用户使用 R 风格公式拟合统计模型。在内部,statsmodels
使用 patsy 包将公式和数据转换为用于模型拟合的矩阵。公式框架非常强大;本教程只触及了皮毛。在 patsy
文档中可以找到公式语言的完整描述
加载模块和函数¶
In [1]: import statsmodels.api as sm
In [2]: import statsmodels.formula.api as smf
In [3]: import numpy as np
In [4]: import pandas
请注意,除了通常的 statsmodels.api
之外,我们还调用了 statsmodels.formula.api
。实际上,statsmodels.api
在这里只用于加载数据集。 formula.api
包含了许多与 api
中相同的函数(例如 OLS、GLM),但它也为大多数这些模型保留了小写形式的对应函数。一般来说,小写模型接受 formula
和 df
参数,而大写模型则采用 endog
和 exog
设计矩阵。 formula
接受一个字符串,该字符串以 patsy
公式的形式描述模型。 df
接受一个 pandas 数据帧。
dir(smf)
将打印可用模型的列表。
支持公式的模型具有以下通用调用签名:(formula, data, subset=None, *args, **kwargs)
使用公式进行 OLS 回归¶
首先,我们拟合了 入门 页面上描述的线性模型。下载数据、子集列,并进行列表级删除以移除缺失观测值
In [5]: df = sm.datasets.get_rdataset("Guerry", "HistData").data
In [6]: df = df[['Lottery', 'Literacy', 'Wealth', 'Region']].dropna()
In [7]: df.head()
Out[7]:
Lottery Literacy Wealth Region
0 41 37 73 E
1 38 51 22 N
2 66 13 61 C
3 80 46 76 E
4 79 69 83 E
拟合模型
In [8]: mod = smf.ols(formula='Lottery ~ Literacy + Wealth + Region', data=df)
In [9]: res = mod.fit()
In [10]: print(res.summary())
OLS Regression Results
==============================================================================
Dep. Variable: Lottery R-squared: 0.338
Model: OLS Adj. R-squared: 0.287
Method: Least Squares F-statistic: 6.636
Date: Thu, 03 Oct 2024 Prob (F-statistic): 1.07e-05
Time: 16:08:49 Log-Likelihood: -375.30
No. Observations: 85 AIC: 764.6
Df Residuals: 78 BIC: 781.7
Df Model: 6
Covariance Type: nonrobust
===============================================================================
coef std err t P>|t| [0.025 0.975]
-------------------------------------------------------------------------------
Intercept 38.6517 9.456 4.087 0.000 19.826 57.478
Region[T.E] -15.4278 9.727 -1.586 0.117 -34.793 3.938
Region[T.N] -10.0170 9.260 -1.082 0.283 -28.453 8.419
Region[T.S] -4.5483 7.279 -0.625 0.534 -19.039 9.943
Region[T.W] -10.0913 7.196 -1.402 0.165 -24.418 4.235
Literacy -0.1858 0.210 -0.886 0.378 -0.603 0.232
Wealth 0.4515 0.103 4.390 0.000 0.247 0.656
==============================================================================
Omnibus: 3.049 Durbin-Watson: 1.785
Prob(Omnibus): 0.218 Jarque-Bera (JB): 2.694
Skew: -0.340 Prob(JB): 0.260
Kurtosis: 2.454 Cond. No. 371.
==============================================================================
Notes:
[1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
分类变量¶
查看上面打印的摘要,请注意 patsy
确定了 *Region* 的元素是文本字符串,因此它将 *Region* 视为分类变量。 patsy
的默认值也是包含截距,因此我们自动删除了 *Region* 类别之一。
如果 *Region* 是一个整型变量,我们希望将其明确地视为分类变量,可以使用 C()
运算符
In [11]: res = smf.ols(formula='Lottery ~ Literacy + Wealth + C(Region)', data=df).fit()
In [12]: print(res.params)
Intercept 38.651655
C(Region)[T.E] -15.427785
C(Region)[T.N] -10.016961
C(Region)[T.S] -4.548257
C(Region)[T.W] -10.091276
Literacy -0.185819
Wealth 0.451475
dtype: float64
更多关于 patsy
分类变量功能的示例,请参阅此处:Patsy:分类变量的对比编码系统
运算符¶
我们已经看到,“~” 将模型的左侧与右侧分开,“+” 将新列添加到设计矩阵中。
删除变量¶
“-” 符号可用于删除列/变量。例如,我们可以通过以下方式从模型中删除截距
In [13]: res = smf.ols(formula='Lottery ~ Literacy + Wealth + C(Region) -1 ', data=df).fit()
In [14]: print(res.params)
C(Region)[C] 38.651655
C(Region)[E] 23.223870
C(Region)[N] 28.634694
C(Region)[S] 34.103399
C(Region)[W] 28.560379
Literacy -0.185819
Wealth 0.451475
dtype: float64
乘法交互¶
“:” 将一个新列添加到设计矩阵中,该列包含另外两列的乘积。 “*” 还将包含一起相乘的各个列
In [15]: res1 = smf.ols(formula='Lottery ~ Literacy : Wealth - 1', data=df).fit()
In [16]: res2 = smf.ols(formula='Lottery ~ Literacy * Wealth - 1', data=df).fit()
In [17]: print(res1.params)
Literacy:Wealth 0.018176
dtype: float64
In [18]: print(res2.params)
Literacy 0.427386
Wealth 1.080987
Literacy:Wealth -0.013609
dtype: float64
运算符还可以实现许多其他功能。请查阅 patsy 文档,以了解更多信息。
函数¶
您可以将向量化函数应用于模型中的变量
In [19]: res = smf.ols(formula='Lottery ~ np.log(Literacy)', data=df).fit()
In [20]: print(res.params)
Intercept 115.609119
np.log(Literacy) -20.393959
dtype: float64
定义自定义函数
In [21]: def log_plus_1(x):
....: return np.log(x) + 1.0
....:
In [22]: res = smf.ols(formula='Lottery ~ log_plus_1(Literacy)', data=df).fit()
In [23]: print(res.params)
Intercept 136.003079
log_plus_1(Literacy) -20.393959
dtype: float64
命名空间¶
请注意,以上所有示例都使用调用命名空间来查找要应用的函数。使用的命名空间可以通过 eval_env
关键字来控制。例如,您可能希望使用 patsy:patsy.EvalEnvironment
提供自定义命名空间,或者您可能希望使用“干净”命名空间,我们通过传递 eval_func=-1
来提供。默认情况下,使用调用者的命名空间。如果例如用户命名空间中或传递给 patsy
的数据结构中存在名为 C
的变量,并且在公式中使用 C
来处理分类变量,那么这可能会导致(不)预期的后果。有关更多信息,请参阅 Patsy API 参考。
在不支持公式的模型中使用公式¶
即使给定的 statsmodels
函数不支持公式,您仍然可以使用 patsy
的公式语言生成设计矩阵。然后,可以将这些矩阵作为 endog
和 exog
参数传递给拟合函数。
生成 numpy
数组
In [24]: import patsy
In [25]: f = 'Lottery ~ Literacy * Wealth'
In [26]: y, X = patsy.dmatrices(f, df, return_type='matrix')
In [27]: print(y[:5])
[[41.]
[38.]
[66.]
[80.]
[79.]]
In [28]: print(X[:5])
[[ 1. 37. 73. 2701.]
[ 1. 51. 22. 1122.]
[ 1. 13. 61. 793.]
[ 1. 46. 76. 3496.]
[ 1. 69. 83. 5727.]]
y
和 X
将是 patsy.DesignMatrix
的实例,它是 numpy.ndarray
的子类。
生成 pandas 数据帧
In [29]: f = 'Lottery ~ Literacy * Wealth'
In [30]: y, X = patsy.dmatrices(f, df, return_type='dataframe')
In [31]: print(y[:5])
Lottery
0 41.0
1 38.0
2 66.0
3 80.0
4 79.0
In [32]: print(X[:5])
Intercept Literacy Wealth Literacy:Wealth
0 1.0 37.0 73.0 2701.0
1 1.0 51.0 22.0 1122.0
2 1.0 13.0 61.0 793.0
3 1.0 46.0 76.0 3496.0
4 1.0 69.0 83.0 5727.0
In [33]: print(sm.OLS(y, X).fit().summary())
OLS Regression Results
==============================================================================
Dep. Variable: Lottery R-squared: 0.309
Model: OLS Adj. R-squared: 0.283
Method: Least Squares F-statistic: 12.06
Date: Thu, 03 Oct 2024 Prob (F-statistic): 1.32e-06
Time: 16:08:49 Log-Likelihood: -377.13
No. Observations: 85 AIC: 762.3
Df Residuals: 81 BIC: 772.0
Df Model: 3
Covariance Type: nonrobust
===================================================================================
coef std err t P>|t| [0.025 0.975]
-----------------------------------------------------------------------------------
Intercept 38.6348 15.825 2.441 0.017 7.149 70.121
Literacy -0.3522 0.334 -1.056 0.294 -1.016 0.312
Wealth 0.4364 0.283 1.544 0.126 -0.126 0.999
Literacy:Wealth -0.0005 0.006 -0.085 0.933 -0.013 0.012
==============================================================================
Omnibus: 4.447 Durbin-Watson: 1.953
Prob(Omnibus): 0.108 Jarque-Bera (JB): 3.228
Skew: -0.332 Prob(JB): 0.199
Kurtosis: 2.314 Cond. No. 1.40e+04
==============================================================================
Notes:
[1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
[2] The condition number is large, 1.4e+04. This might indicate that there are
strong multicollinearity or other numerical problems.