楼主: sword852369
2208 1

[问答] 爬取天猫评论,每次爬取的数据量都不一样,求大神解答 [推广有奖]

  • 2关注
  • 0粉丝

已卖:114份资源

硕士生

2%

还不是VIP/贵宾

-

威望
0
论坛币
2403 个
通用积分
2.7000
学术水平
1 点
热心指数
1 点
信用等级
0 点
经验
1328 点
帖子
50
精华
0
在线时间
172 小时
注册时间
2014-6-11
最后登录
2024-9-15

楼主
sword852369 发表于 2017-8-20 00:14:57 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
import requests
import re

urls = []
for i in list(range(1,51)):
    urls.append('https://rate.tmall.com/list_detail_rate.htm?itemId=523840172328&spuId=457482192&sellerId=2260385300&order=1&currentPage=%s'%i)

username=[]
auctionSku=[]
rateContent=[]
rateDate=[]
goldUser=[]

headers={'user-agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36',
    'accept-encoding':'gzip, deflate, br',
    'accept-language':'zh-CN,zh;q=0.8'
}

for url in urls:
    content = requests.get(url,headers=headers).text               

    username.extend(re.findall('"displayUserNick":"(.*?)"',content))
    auctionSku.extend(re.findall(re.compile('"auctionSku":"(.*?)","auctionTitle"'),content))
    rateContent.extend(re.findall(re.compile('"rateContent":"(.*?)","rateDate"'),content))
    rateDate.extend(re.findall(re.compile('"rateDate":"(.*?)","reply"'),content))
    goldUser.extend(re.findall(re.compile('"goldUser":(\w+),"id":'),content))
    print(username)

#然后打印每个字段的长度
a=[username,rateContent,rateDate,auctionSku,goldUser]
for i in range(5):
    print(len(a[i]))
上面的爬虫代码试了好几次,每次爬取后面打印出来的字段长度都不一样,正常打印出来是爬取的页数*每页的20条,但每次都少几页的样子,一会儿多一会儿少的,不知道这是我代码问题还是传说中天猫的反爬虫造成的,各位有经验的朋友麻烦指点指点,谢谢!!!

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝


沙发
残阳_等待 发表于 2017-8-21 02:44:19
抽空研究下

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2025-12-29 01:15