楼主: 建宇
4568 20

[有偿编程] R语言写一个网络爬虫的程序 [推广有奖]

  • 6关注
  • 0粉丝

已卖:56份资源

副教授

57%

还不是VIP/贵宾

-

威望
0
论坛币
16659 个
通用积分
2.7421
学术水平
86 点
热心指数
39 点
信用等级
46 点
经验
2630 点
帖子
641
精华
0
在线时间
1180 小时
注册时间
2013-9-16
最后登录
2019-6-28

楼主
建宇 发表于 2016-3-17 18:54:40 |AI写论文
100论坛币
求各路大神用R语言写一个网络爬虫的程序,具体是爬寻医问药网前20页的问题
问题网址 http://club.xywy.com/list_all.htm

最佳答案

关键词:网络爬虫 R语言 club list HTTP 网络爬虫 程序

本帖被以下文库推荐

沙发
huangkaimingkay 在职认证  发表于 2016-3-17 18:54:41
xunyiwenyao

xunyiwenyao.rar
下载链接: https://bbs.pinggu.org/a-1996117.html

134.89 KB

本附件包括:

  • xunyiwenyao.csv

已有 1 人评分经验 学术水平 热心指数 信用等级 收起 理由
accumulation + 100 + 1 + 1 + 1 精彩帖子

总评分: 经验 + 100  学术水平 + 1  热心指数 + 1  信用等级 + 1   查看全部评分

藤椅
建宇 发表于 2016-3-17 18:55:17
谢谢大神指导啊

板凳
建宇 发表于 2016-3-18 12:02:58
大家帮帮忙吧

报纸
jiangbeilu 学生认证  发表于 2016-3-18 13:36:50
给你一个读第2页的代码,自己模仿着写完全部吧:
  1. library(XML)
  2. url<- paste("http://club.xywy.com/list_all_",2:20,".htm",sep="")
  3. url[1]

  4. html<-htmlParse(url[1],encoding="gbk")
  5. zz<- xpathSApply(html,"//tr",xmlValue)
  6. newdata <-iconv(zz,"utf-8","gbk")
  7. newdata<- newdata[-c(1,22)]
  8. newdata1 <- strsplit(newdata,"\n")
  9. question <- sapply(newdata1,function(x) x[2])
复制代码
已有 2 人评分学术水平 热心指数 信用等级 收起 理由
十五弟 + 1 + 1 + 1 精彩帖子
万人往LVR + 3 精彩帖子

总评分: 学术水平 + 4  热心指数 + 1  信用等级 + 1   查看全部评分

地板
建宇 发表于 2016-3-21 10:28:39
jiangbeilu 发表于 2016-3-18 13:36
给你一个读第2页的代码,自己模仿着写完全部吧:
大神,我需要前20页问题的具体内容,不是问题标题
能不能帮忙修改下
在这谢谢了!

7
jiangbeilu 学生认证  发表于 2016-3-21 10:36:04
给你的代码,自己摸索是可以的。
具体的内容你再考虑考虑哈。自己多学点东西

8
建宇 发表于 2016-3-21 10:55:57
jiangbeilu 发表于 2016-3-21 10:36
给你的代码,自己摸索是可以的。
具体的内容你再考虑考虑哈。自己多学点东西
好的,我试试,主要是着急用

9
建宇 发表于 2016-3-21 12:04:20
建宇 发表于 2016-3-21 10:55
好的,我试试,主要是着急用
试了试,写不出,因着急用,求版主帮忙写写吧,我比葫芦画瓢学习下

10
建宇 发表于 2016-3-21 18:08:28
jiangbeilu 发表于 2016-3-21 10:36
给你的代码,自己摸索是可以的。
具体的内容你再考虑考虑哈。自己多学点东西
试了试,写不出,因着急用,求版主帮忙写写吧,我比葫芦画瓢学习下

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2025-12-31 00:02