2266 0

[源码分享] 文本挖掘之数据爬虫 [推广有奖]

  • 0关注
  • 12粉丝

博士生

50%

还不是VIP/贵宾

-

威望
0
论坛币
215 个
通用积分
3.0135
学术水平
9 点
热心指数
23 点
信用等级
9 点
经验
3985 点
帖子
132
精华
0
在线时间
133 小时
注册时间
2017-3-3
最后登录
2018-7-28

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
       今天主要介绍一下,文本挖掘的数据获取方式,上一篇很多人在问数据如何获取,今天给大家介绍下数据获取的方式,主要利用爬虫抓取数据。基于,之前对python爬虫没接触过,尝试过用R爬虫,今天就来介绍下,如何用R爬取股吧的评论数据,关于R爬虫网上也有很多参考资料,在参考了网上大神的思路方法后,自己尝试了对股吧数据进行爬取,结果爬取下来的数据还是比较规范,能够满足我的分析需求的。       R进行爬虫,经常用的包有RCurl和rvest两个包,这里我主要介绍rvest包爬虫,大致的思路其实是一样的,爬虫之前需要对网页有个基本的了解,会查看网页相应的审核元素,找到相应的节点所在的位置,找到节点的类型class,这些了解了,后面爬虫就会得心应手很多。不多说了,先上代码吧。
library(rvest)
library(xml2)
library(sqldf)
library(gsubfn)
library(proto)
library(RSQLite)
library(DBI)
library(data.table)
library(stringr)
extradata<-function(i,non_pn_url){
     url<-paste0(non_pn_url,i)##先给一个没有页码的网页#
     web<-html(url)#通过html解析网页##
     title<-web %>% html_nodes("div.articleh span.l3 a")%>%html_text()%>% .[c(seq(1,86,1))] %>% as.character()##找到评论数据对应的节点类型,匹配获取节点##
     paperlink<-gsub("\\?source\\=search","",web %>% html_nodes("div.articleh") %>% html_attr("href"))%>% .[c(seq(2,20,2))]##获取网页跳转连接##
     paperlink<-paste0("http://www.eastmoney.com/",paperlink) %>% as.character()###输入无页码链接 ##
     author<-web %>% html_nodes("div.articleh span.l4") %>% html_text()##匹配获取作者的class节点
     posttime<-web %>% html_nodes("div.articleh span.l6") %>% html_text()
     update_time<-web %>% html_nodes("div.articleh span.l5") %>% html_text()
     count_of_comment<-web %>% html_nodes("div.articleh span.l2") %>% html_text()
     count_of_read<-web %>% html_nodes("div.articleh span.l1") %>% html_text()
     data.frame(title,author,posttime,update_time,count_of_comment,count_of_read)##构造一个数据框##
}
finaldata<-data.frame()
url<-'http://guba.eastmoney.com/list,002373.html?from=BaiduAladdin'##获取有页码的第一页的链接
for(i in 1:25){
    extradata(i,url)
    finaldata<-rbind(finaldata,extradata(i,url))
}##这里是抓取了25页的数据#
finaldata1<-as.data.frame(finaldata)
names(finaldata)
dim(finaldata1)
head(finaldata)
        最后来看看爬虫抓取的数据效果


       爬虫内容今天就介绍到这里,后续有新的发现在跟进 ,希望小伙伴们多提提意见,这里也感谢参考的牛人大神们的分享。


文章改编自《文本挖掘之数据爬虫》

原文链接:http://quant.jd.com/community/subjectDetails/175


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝


您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注jr
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-11-6 00:33