请选择 进入手机版 | 继续访问电脑版
楼主: 开心果xxx
3226 8

[行业动态] 33款开源爬虫软件工具 收藏! [推广有奖]

  • 0关注
  • 0粉丝

大专生

26%

还不是VIP/贵宾

-

威望
0
论坛币
57 个
通用积分
13.4348
学术水平
9 点
热心指数
1 点
信用等级
5 点
经验
386 点
帖子
31
精华
0
在线时间
43 小时
注册时间
2015-4-9
最后登录
2020-4-7

开心果xxx 发表于 2016-5-24 10:38:47 |显示全部楼层 |坛友微信交流群

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
33款开源爬虫软件工具 收藏!


来自36大数据


要玩大数据,没有数据怎么玩?这里推荐一些33款开源爬虫软件给大家。


爬虫,即网络爬虫,是一种自动获取网页内容的程序。是搜索引擎的重要组成部分,因此搜索引擎优化很大程度上就是针对爬虫而做出的优化。


网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。




Java爬虫




1、Arachnid


Arachnid是一个基于Java的web spider框架.它包含一个简单的HTML剖析器能够分析包含HTML内容的输入流.通过实现Arachnid的子类就能够开发一个简单的Web spiders并能够在Web站上的每个页面被解析之后增加几行代码调用。 Arachnid的下载包中包含两个spider应用程序例子用于演示如何使用该框架。


特点:微型爬虫框架,含有一个小型HTML解析器


许可证:GPL


2、crawlzilla


crawlzilla 是一个帮你轻松建立搜索引擎的自由软件,有了它,你就不用依靠商业公司的搜索引擎,也不用再烦恼公司內部网站资料索引的问题。


由 nutch 专案为核心,并整合更多相关套件,并卡发设计安装与管理UI,让使用者更方便上手。


crawlzilla 除了爬取基本的 html 外,还能分析网页上的文件,如( doc、pdf、ppt、ooo、rss )等多种文件格式,让你的搜索引擎不只是网页搜索引擎,而是网站的完整资料索引库。


拥有中文分词能力,让你的搜索更精准。


crawlzilla的特色与目标,最主要就是提供使用者一个方便好用易安裝的搜索平台。


授权协议: Apache License 2


开发语言: Java JavaScript SHELL


操作系统: Linux


项目主页: https://github.com/shunfa/crawlzilla


下载地址: http://sourceforge.net/projects/crawlzilla/


特点:安装简易,拥有中文分词功能


3、Ex-Crawler


Ex-Crawler 是一个网页爬虫,采用 Java 开发,该项目分成两部分,一个是守护进程,另外一个是灵活可配置的 Web 爬虫。使用数据库存储网页信息。


授权协议: GPLv3


开发语言: Java


操作系统: 跨平台


特点:由守护进程执行,使用数据库存储网页信息


4、Heritrix


Heritrix 是一个由 java 开发的、开源的网络爬虫,用户可以使用它来从网上抓取想要的资源。其最出色之处在于它良好的可扩展性,方便用户实现自己的抓取逻辑。


Heritrix采用的是模块化的设计,各个模块由一个控制器类(CrawlController类)来协调,控制器是整体的核心。


代码托管:https://github.com/internetarchive/heritrix3


授权协议: Apache


开发语言: Java


操作系统: 跨平台


特点:严格遵照robots文件的排除指示和META robots标签


5、heyDr



heyDr是一款基于java的轻量级开源多线程垂直检索爬虫框架,遵循GNU GPL V3协议。


用户可以通过heyDr构建自己的垂直资源爬虫,用于搭建垂直搜索引擎前期的数据准备。


授权协议: GPLv3


开发语言: Java


操作系统: 跨平台


特点:轻量级开源多线程垂直检索爬虫框架


6、ItSucks


ItSucks是一个java web spider(web机器人,爬虫)开源项目。支持通过下载模板和正则表达式来定义下载规则。提供一个swing GUI操作界面。


特点:提供swing GUI操作界面


7、jcrawl


jcrawl是一款小巧性能优良的的web爬虫,它可以从网页抓取各种类型的文件,基于用户定义的符号,比如email,qq.


授权协议: Apache


开发语言: Java


操作系统: 跨平台


特点:轻量、性能优良,可以从网页抓取各种类型的文件


8、JSpider


JSpider是一个用Java实现的WebSpider,JSpider的执行格式如下:


jspider  [ConfigName]


URL一定要加上协议名称,如:http://,否则会报错。如果省掉ConfigName,则采用默认配置。


JSpider 的行为是由配置文件具体配置的,比如采用什么插件,结果存储方式等等都在conf\[ConfigName]\目录下设置。JSpider默认的配置种类 很少,用途也不大。但是JSpider非常容易扩展,可以利用它开发强大的网页抓取与数据分析工具。要做到这些,需要对JSpider的原理有深入的了 解,然后根据自己的需求开发插件,撰写配置文件。


授权协议: LGPL


开发语言: Java


操作系统: 跨平台


特点:功能强大,容易扩展


9、Leopdo


用JAVA编写的web 搜索和爬虫,包括全文和分类垂直搜索,以及分词系统


授权协议: Apache


开发语言: Java


操作系统: 跨平台


特点:包括全文和分类垂直搜索,以及分词系统


10、MetaSeeker


是一套完整的网页内容抓取、格式化、数据集成、存储管理和搜索解决方案。


网络爬虫有多种实现方法,如果按照部署在哪里分,可以分成:


1,服务器侧:一般是一个多线程程序,同时下载多个目标HTML,可以用PHP, Java, Python(当前很流行)等做,可以速度做得很快,一般综合搜索引擎的爬虫这样做。但是,如果对方讨厌爬虫,很可能封掉你的IP,服务器IP又不容易 改,另外耗用的带宽也是挺贵的。建议看一下Beautiful soap。


2,客户端:一般实现定题爬虫,或者是聚焦爬虫,做综合搜索引擎不容易成功,而垂直搜诉或者比价服务或者推荐引擎,相对容易很多,这类爬虫不是什么页面都 取的,而是只取你关系的页面,而且只取页面上关心的内容,例如提取黄页信息,商品价格信息,还有提取竞争对手广告信息的,搜一下Spyfu,很有趣。这类 爬虫可以部署很多,而且可以很有侵略性,对方很难封锁。


MetaSeeker中的网络爬虫就属于后者。


MetaSeeker工具包利用Mozilla平台的能力,只要是Firefox看到的东西,它都能提取。


MetaSeeker工具包是免费使用的,下载地址:www.gooseeker.com/cn/node/download/front


特点:网页抓取、信息提取、数据抽取工具包,操作简单


11、Playfish


playfish是一个采用java技术,综合应用多个开源java组件实现的网页抓取工具,通过XML配置文件实现高度可定制性与可扩展性的网页抓取工具


应用开源jar包包括httpclient(内容读取),dom4j(配置文件解析),jericho(html解析),已经在 war包的lib下。


这个项目目前还很不成熟,但是功能基本都完成了。要求使用者熟悉XML,熟悉正则表达式。目前通过这个工具可以抓取各类论坛,贴吧,以及各类CMS系统。像Discuz!,phpbb,论坛跟博客的文章,通过本工具都可以轻松抓取。抓取定义完全采用XML,适合Java开发人员使用。


使用方法, 1.下载右边的.war包导入到eclipse中, 2.使用WebContent/sql下的wcc.sql文件建立一个范例数据库, 3.修改src包下wcc.core的dbConfig.txt,将用户名与密码设置成你自己的mysql用户名密码。 4.然后运行SystemCore,运行时候会在控制台,无参数会执行默认的example.xml的配置文件,带参数时候名称为配置文件名。


系统自带了3个例子,分别为baidu.xml抓取百度知道,example.xml抓取我的javaeye的博客,bbs.xml抓取一个采用 discuz论坛的内容。


授权协议: MIT


开发语言: Java


操作系统: 跨平台


特点:通过XML配置文件实现高度可定制性与可扩展性


12、Spiderman


Spiderman 是一个基于微内核+插件式架构的网络蜘蛛,它的目标是通过简单的方法就能将复杂的目标网页信息抓取并解析为自己所需要的业务数据。


怎么使用?


首先,确定好你的目标网站以及目标网页(即某一类你想要获取数据的网页,例如网易新闻的新闻页面)


然后,打开目标页面,分析页面的HTML结构,得到你想要数据的XPath,具体XPath怎么获取请看下文。


最后,在一个xml配置文件里填写好参数,运行Spiderman吧!


授权协议: Apache


开发语言: Java


操作系统: 跨平台


特点:灵活、扩展性强,微内核+插件式架构,通过简单的配置就可以完成数据抓取,无需编写一句代码




Python爬虫




17、QuickRecon


QuickRecon是一个简单的信息收集工具,它可以帮助你查找子域名名称、perform zone transfe、收集电子邮件地址和使用microformats寻找人际关系等。QuickRecon使用python编写,支持linux和 windows操作系统。


授权协议: GPLv3


开发语言: Python


操作系统: Windows Linux


特点:具有查找子域名名称、收集电子邮件地址并寻找人际关系等功能


18、PyRailgun


这是一个非常简单易用的抓取工具。支持抓取javascript渲染的页面的简单实用高效的python网页爬虫抓取模块


授权协议: MIT


开发语言: Python


操作系统: 跨平台 Windows Linux OS X


特点:简洁、轻量、高效的网页抓取框架


备注:此软件也是由国人开放


github下载:https://github.com/princehaku/pyrailgun#readme


19、Scrapy


Scrapy 是一套基于基于Twisted的异步处理框架,纯python实现的爬虫框架,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内容以及各种图片,非常之方便~


授权协议: BSD


开发语言: Python


操作系统: 跨平台


github源代码:https://github.com/scrapy/scrapy


特点:基于Twisted的异步处理框架,文档齐全




[url=http://viewer.maka.im/k/NIUKM7ZU]【4个周末】如何快速成为一名大数据分析师?


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:软件工具 Javascript controller beautiful download 搜索引擎 软件工具 下一步 万维网 主题

youngpp 在职认证  发表于 2016-5-24 15:55:00 |显示全部楼层 |坛友微信交流群
学习了,谢谢分享!

使用道具

line_us 发表于 2016-5-24 16:12:50 |显示全部楼层 |坛友微信交流群
支持分享。

使用道具

shanghai8384 发表于 2016-5-26 02:46:17 |显示全部楼层 |坛友微信交流群
多谢楼主分享

使用道具

lonhg 发表于 2016-5-26 12:47:49 |显示全部楼层 |坛友微信交流群
好贴收藏

使用道具

quetal 发表于 2016-5-27 12:01:38 |显示全部楼层 |坛友微信交流群
好贴收藏

使用道具

lxy444 学生认证  发表于 2016-5-27 23:37:33 |显示全部楼层 |坛友微信交流群
来学习一下

使用道具

lxy444 发表于 2016-5-27 23:37
来学习一下
加油,多交流学习

使用道具

黄剑焜 发表于 2017-2-23 17:41:01 |显示全部楼层 |坛友微信交流群
MARK,谢谢lz

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-3-29 07:11