数据分析师学习实例:Python拉勾爬虫-经管之家官网!

人大经济论坛-经管之家 收藏本站
您当前的位置> 数据>>

数据分析

>>

数据分析师学习实例:Python拉勾爬虫

数据分析师学习实例:Python拉勾爬虫

发布:ada89k | 分类:数据分析

关于本站

人大经济论坛-经管之家:分享大学、考研、论文、会计、留学、数据、经济学、金融学、管理学、统计学、博弈论、统计年鉴、行业分析包括等相关资源。
经管之家是国内活跃的在线教育咨询平台!

经管之家新媒体交易平台

提供"微信号、微博、抖音、快手、头条、小红书、百家号、企鹅号、UC号、一点资讯"等虚拟账号交易,真正实现买卖双方的共赢。【请点击这里访问】

提供微信号、微博、抖音、快手、头条、小红书、百家号、企鹅号、UC号、一点资讯等虚拟账号交易,真正实现买卖双方的共赢。【请点击这里访问】

数据分析师学习实例:Python拉勾爬虫以下是数据分析师学习的一个实例教程,本篇文章内容以深圳地区数据分析师为例。希望可以对正在学习数据分析师相关内容的同学有所帮助。Python拉勾爬虫拉勾因其结构化的数据比较多 ...
扫码加入数据分析学习群


数据分析师学习实例:Python拉勾爬虫

以下是数据分析师学习的一个实例教程,本篇文章内容以深圳地区数据分析师为例。希望可以对正在学习数据分析师相关内容的同学有所帮助。

Python拉勾爬虫

拉勾因其结构化的数据比较多因此过去常常被爬,所以在其多次改版之下变得难爬。不过只要清楚它的原理,依然比较好爬。其机制主要就是AJAX异步加载JSON数据,所以至少在搜索页面里翻页url不会变化,而且数据也不会出现在源代码里。

数据解析

这是深圳地区的数据分析师页面,用Chrome检查打开。在XHR中可以看到一个以postionAjax.json开头的脚本,打开Preview看一下,可以看到:

可以发现这些数据与前端的数据一致,此时我们已经找到了数据入口,就可以开始爬了。

数据爬取

在Headers里可以查看请求方式:

Request Header:

RequestURL:https://www.lagou.com/jobs/posit ... dtionalResult=false

Request Method:POST

Status Code:200 OK

Remote Address:106.75.72.62:443

从Request Header中可以看到,是用POST提交表单方式查询的(所以如果你直接点开Request URL你会发现数据不对,因为没有提交表单数据)。

那么我们就可以在Python中构造请求头以及提交表单数据来访问:

import requests

import time

from sqlalchemy import create_engine

import pandas as pd

from random import choice

import json

import numpy

engine=create_engine(#这里填你自己数据库的参数#) # 连接数据库

dl = pd.read_sql("proxys",engine)

def get_proxy(dl):

n= choice(range(1, len(dl.index)))

proxy = {"http":"http://%s:%s"%(dl["ip"][n],dl["port"][n]),

"https": "http://%s:%s" % (dl["ip"][n],dl["port"][n])}

return(proxy)

def get_header():

headers = {

"User-Agent": ""Mozilla/4.0 (compatible; MSIE 6.0;Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR2.0.50727)"",

"Accept": "application/json, text/javascript, */*;q=0.01",

"Content-Type": "application/x-www-form-urlencoded;charset=UTF-8",

"Referer":"https://www.lagou.com/jobs/list_%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90%E5%B8%88?px=default&city=%E6%B7%B1%E5%9C%B3&district=%E5%8D%97%E5%B1%B1%E5%8C%BA",

"X-Requested-With": "XMLHttpRequest",

"Host": "www.lagou.com",

"Connection":"keep-alive",

"Cookie":"user_trace_token=20160214102121-0be42521e365477ba08bd330fd2c9c72;LGUID=20160214102122-a3b749ae-d2c1-11e5-8a48-525400f775ce;tencentSig=9579373568; pgv_pvi=3712577536;index_location_city=%E5%85%A8%E5%9B%BD;SEARCH_ID=c684c55390a84fe5bd7b62bf1754b900;JSESSIONID=8C779B1311176D4D6B74AF3CE40CE5F2; TG-TRACK-CODE=index_hotjob;Hm_lvt_4233e74dff0ae5bd0a3d81c6ccf756e6=1485318435,1485338972,1485393674,1485423558;Hm_lpvt_4233e74dff0ae5bd0a3d81c6ccf756e6=1485423598;_ga=GA1.2.1996921784.1455416480;LGRID=20170126174002-691cb0a5-e3ab-11e6-bdc0-525400f775ce",

"Origin": "https://www.lagou.com",

"Upgrade-Insecure-Requests":"1",

"X-Anit-Forge-Code": "0",

"X-Anit-Forge-Token": "None",

"Accept-Encoding": "gzip, deflate, br",

"Accept-Language": "zh-CN,zh;q=0.8"

}

return(headers)

def get_form(i):

data={"first":"false","pn":i,"kd":"数据分析师"}

return(data)

districts = ["南山区","福田区","宝安区","龙岗区","龙华新区","罗湖区","盐田区","大鹏新区"]

pagenos = [22,10,1,4,1,2,1,1]

url_lists =["https://www.lagou.com/jobs/positionAjax.json?px=default&city=深圳&district=%s&needAddtionalResult=false"%area for areain districts]

s = requests.Session()

s.keep_alive = False

s.adapters.DEFAULT_RETRIES = 10

def get_jobinfo(i,j): # i表区号,j表页数

if i >= 8 or j > pagenos:

return("索引超标!")

resp=s.post(url_lists, data=get_form(j), headers=get_header())

resp.encoding="utf-8"

max_num =len(json.loads(resp.text)["content"]["positionResult"]["result"])

for k in range(max_num):

try:

json_data=json.loads(resp.text)["content"]["positionResult"]["result"][k]

df = pd.DataFrame(dict(

approve=json_data["approve"],

# businessZones=json_data["businessZones"],

companyId=json_data["companyId"],

# companyLabelList=json_data["companyLabelList"],

companyShortName=json_data["companyShortName"],

companySize=json_data["companySize"],

createTime=json_data["createTime"],

education=json_data["education"],

financeStage=json_data["financeStage"],

firstType=json_data["firstType"],

industryField=json_data["industryField"],

jobNature=json_data["jobNature"],

positionAdvantage=json_data["positionAdvantage"],

positionId=json_data["positionId"],

positionName=json_data["positionName"],

salary=json_data["salary"],

secondType=json_data["secondType"],

workYear=json_data["workYear"],

scrapy_time=time.strftime('%Y-%m-%d %H:%M:%S',time.localtime(time.time()))),index=[0])

df.to_sql(con = engine, name = "job_info", if_exists ='append', flavor = "mysql",index=False)

except:

print("第%d区,第%d页,第%d个出错了!"%(i,j,k))

以上这个函数就可以通过提交区和页数,返回当前页的职位数。

其实AJAX返回JSON数据的方式也有好处,数据都是规整的,不必花太多时间精力在数据清洗上。

不过注意要加延时,拉勾的反爬虫措施还是比较严的,不加延时爬一小会儿就会被封IP。


「经管之家」APP:经管人学习、答疑、交友,就上经管之家!
免流量费下载资料----在经管之家app可以下载论坛上的所有资源,并且不额外收取下载高峰期的论坛币。
涵盖所有经管领域的优秀内容----覆盖经济、管理、金融投资、计量统计、数据分析、国贸、财会等专业的学习宝库,各类资料应有尽有。
来自五湖四海的经管达人----已经有上千万的经管人来到这里,你可以找到任何学科方向、有共同话题的朋友。
经管之家(原人大经济论坛),跨越高校的围墙,带你走进经管知识的新世界。
扫描下方二维码下载并注册APP
本文关键词:

本文论坛网址:https://bbs.pinggu.org/thread-5437671-1-1.html

人气文章

1.凡人大经济论坛-经管之家转载的文章,均出自其它媒体或其他官网介绍,目的在于传递更多的信息,并不代表本站赞同其观点和其真实性负责;
2.转载的文章仅代表原创作者观点,与本站无关。其原创性以及文中陈述文字和内容未经本站证实,本站对该文以及其中全部或者部分内容、文字的真实性、完整性、及时性,不作出任何保证或承若;
3.如本站转载稿涉及版权等问题,请作者及时联系本站,我们会及时处理。