楼主: hylnwoau
6993 0

[程序分享] 利用glmnet函数实现岭回归与Lasso [推广有奖]

  • 0关注
  • 5粉丝

已卖:368份资源

硕士生

62%

还不是VIP/贵宾

-

威望
0
论坛币
2943 个
通用积分
22.3624
学术水平
2 点
热心指数
0 点
信用等级
0 点
经验
4552 点
帖子
61
精华
0
在线时间
263 小时
注册时间
2017-5-22
最后登录
2022-12-25

楼主
hylnwoau 发表于 2019-1-29 21:56:07 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

利用glmnet函数实现岭回归和Lasso

#Hitters(棒球)数据集介绍

library(ISLR)

names(Hitters)

#[1] "AtBat"     "Hits"      "HmRun"   

# [4] "Runs"      "RBI"       "Walks"   

#[7] "Years"     "CAtBat"    "CHits"   

#[10] "CHmRun"    "CRuns"     "CRBI"     

#[13] "CWalks"    "League"    "Division"

#[16] "PutOuts"   "Assists"   "Errors"   

#[19] "Salary"    "NewLeague"

sum(is.na(Hitters$Salary))

Hitters=na.omit(Hitters)    #先剔除缺失值

####岭回归和Lasso####

x=model.matrix(Salary~.,Hitters)[,-1]  #删除了截距项

y=Hitters$Salary

library(glmnet)

grid=10^seq(10,-2,length=100)#10^-210^10

ridge.mod=glmnet(x,y,alpha=0,lambda=grid)

grid[50]   #11497.57

grid[60]   #705.4802

dim(coef(ridge.mod))

ridge.mod$lambda[50]  #lamuda=11498时的系数向量

ridge.mod$lambda[60]   #lamuda=705时的系数向量

#说明,比较上述两个系数向量,可知lamuda值小,岭回归的系数更大

#预测lamuda值为50的岭回归系数

predict(ridge.mod,s=50,type="coefficients")[1:20,] #将系数矩阵转化为向量

#划分训练集和测试集

set.seed(1)

train=sample(1:nrow(x),nrow(x)/2)

test=(-train)

y.test=y[test]

ridge.mod=glmnet(x[train,],y[train],alpha= 0,lambda = grid,thresh = 1e-12)

ridge.pred=predict(ridge.mod,s=4,newx=x[test,])

mean((ridge.pred-y.test)^2)  # lamuda=4,MSE=101036.8

mean((mean(y[train])-y.test)^2)   #只含截距项模型的测试误差193253.1

ridge.pred=predict(ridge.mod,s=1e10,newx= x[test,])

mean((ridge.pred-y.test)^2)  # lamuda=10^10,MSE=193253.1

#lamuda很大时,模型的测试误差与只含截距项模型的测试误差相当

set.seed(1)

cv.out=cv.glmnet(x[train,],y[train],alpha=0)

par(mfrow=c(1,1))

plot(cv.out)

                              

bestlam=cv.out$lambda.min  #交叉验证确定最优的lamuda=211.7416

ridge.pred=predict(ridge.mod,s=bestlam,newx= x[test,])

mean((ridge.pred-y.test)^2)  # lamuda=212,96015.51

out=glmnet(x,y,alpha=0)

predict(out,type="coefficients",s=bestlam)[1:20,]

#岭回归无法将系数变量压缩至0

###

#最小二乘即lamda=0的岭回归

ridge.pred=predict(ridge.mod,s=0,newx= x[test,],exact = TRUE)

mean((ridge.pred-y.test)^2)  #114783

lm.fit=lm(y~x,subset= train)

lasso.mod=glmnet(x[train,],y[train],alpha=1,lambda=grid)

plot(lasso.mod)

set.seed(1)

cv.out=cv.glmnet(x[train,],y[train],alpha=1)

plot(cv.out)

bestlam=cv.out$lambda.min  #交叉验证确定最优的lamuda=35.32063

lasso.pred=predict(lasso.mod,s=bestlam,newx= x[test,])

mean((lasso.pred-y.test)^2)   # lamuda=35, MSE=100743.4

out=glmnet(x,y,alpha=1)

predict(out,type="coefficients",s=bestlam)[1:20,]

#Lasso的系数估计结果是稀疏的


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:统计 R语言 R语言学习 回归、方差解释量、R语言、SPSS

已有 1 人评分经验 论坛币 收起 理由
dxystata + 100 + 10 精彩帖子

总评分: 经验 + 100  论坛币 + 10   查看全部评分

本帖被以下文库推荐

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2026-1-16 11:16