楼主: sword852369
1974 1

[问答] 爬取天猫评论,每次爬取的数据量都不一样,求大神解答 [推广有奖]

  • 2关注
  • 0粉丝

硕士生

1%

还不是VIP/贵宾

-

威望
0
论坛币
2408 个
通用积分
2.8500
学术水平
1 点
热心指数
1 点
信用等级
0 点
经验
1328 点
帖子
50
精华
0
在线时间
172 小时
注册时间
2014-6-11
最后登录
2024-4-20

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
import requests
import re

urls = []
for i in list(range(1,51)):
    urls.append('https://rate.tmall.com/list_detail_rate.htm?itemId=523840172328&spuId=457482192&sellerId=2260385300&order=1&currentPage=%s'%i)

username=[]
auctionSku=[]
rateContent=[]
rateDate=[]
goldUser=[]

headers={'user-agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36',
    'accept-encoding':'gzip, deflate, br',
    'accept-language':'zh-CN,zh;q=0.8'
}

for url in urls:
    content = requests.get(url,headers=headers).text               

    username.extend(re.findall('"displayUserNick":"(.*?)"',content))
    auctionSku.extend(re.findall(re.compile('"auctionSku":"(.*?)","auctionTitle"'),content))
    rateContent.extend(re.findall(re.compile('"rateContent":"(.*?)","rateDate"'),content))
    rateDate.extend(re.findall(re.compile('"rateDate":"(.*?)","reply"'),content))
    goldUser.extend(re.findall(re.compile('"goldUser":(\w+),"id":'),content))
    print(username)

#然后打印每个字段的长度
a=[username,rateContent,rateDate,auctionSku,goldUser]
for i in range(5):
    print(len(a[i]))
上面的爬虫代码试了好几次,每次爬取后面打印出来的字段长度都不一样,正常打印出来是爬取的页数*每页的20条,但每次都少几页的样子,一会儿多一会儿少的,不知道这是我代码问题还是传说中天猫的反爬虫造成的,各位有经验的朋友麻烦指点指点,谢谢!!!

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝


沙发
残阳_等待 发表于 2017-8-21 02:44:19 |只看作者 |坛友微信交流群
抽空研究下

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-5-4 04:41