楼主: 修波
506 0

[学习资料] 利用期刊分区插件easyscholoar,爬取谷歌学术论文和分区信息的Python代码 [推广有奖]

已卖:2732份资源

学科带头人

5%

还不是VIP/贵宾

-

威望
0
论坛币
48190 个
通用积分
86.3391
学术水平
10 点
热心指数
11 点
信用等级
8 点
经验
18590 点
帖子
552
精华
0
在线时间
2575 小时
注册时间
2013-11-12
最后登录
2026-1-18

楼主
修波 学生认证  发表于 2023-10-24 16:45:04 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
利用期刊分区插件easyscholoar,爬取谷歌学术论文和分区信息的Python代码



代码运行思路:

1、Python 运行selenium,通过关键词在谷歌学术上爬取论文标题,引用量和期刊分区信息

2、利用爬取到的论文标题,再在谷歌学术上爬取摘要、作者、年份,期刊名,出版商等信息

3、根据爬取到的期刊分区数据,根据不同期刊分区指数建立对应的列

4、将所有数据进行汇总,保存为Excel


注:
1、谷歌学术特别容易被屏蔽,所以代码没有开启多线程,而且设置了较长时间的暂停时间,建议设置好关键词和网站后,凌晨自动运行。实测晚上花四五个小时就能跑完,爬取几十页中的几百篇论文数据问题不大


2、在爬取过程中,如果程序因各种原因而停止。已经爬取的数据并不受影响。而且可以根据暂停的节点,修改一下位置后,继续运行程序,实测没问题


3、能翻墙的,可以直接使用谷歌学术,并设置一页20条数据,这样翻页数量能少点,减少被屏蔽的概率


4、不能翻墙的,使用国内谷歌学术镜像也是一样的,只是一页只有10页的区别


5、要求有easyscholoar会员账号,网上有免费获取方法,自己解决


总的软件分为四步,复制在jupyter lab中。想使用的,安装一下jupyter lab


案例图片:
11.png
22.png
33.png
44.png


附件:
爬取谷歌学术论文信息Python代码 (76 Bytes, 需要: RMB 49 元)

















二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:python 谷歌学术 学术论文 chol Easy

修波的万花筒

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-1-24 05:29