开源搜索引擎的比较

开源搜索引擎的比较

ID:16323617

大小:17.79 KB

页数:5页

时间:2018-08-09

开源搜索引擎的比较_第1页
开源搜索引擎的比较_第2页
开源搜索引擎的比较_第3页
开源搜索引擎的比较_第4页
开源搜索引擎的比较_第5页
资源描述:

《开源搜索引擎的比较》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、开源搜索引擎的比较 1. Nutch 简介: Nutch是一个用java实现的基于Lucene的开源搜索引擎框架,主要包括爬虫和查询两部分组成。Nutch所使用的数据文件主要有以下三种:1)是webDb,保存网页链接结构信息,只在爬虫工作中使用。2)是segment,存储网页内容及其索引,以产生的时间来命名。segment文件内容包括CrawlDatum、Content、ParseData、ParseText四个部分,其中CrawlDatum保存抓取的基本信息,content保存html脚本,ParseData和ParseTex

2、t这两个部分是对原内容的解析结果。3)是index,即索引文件,它把各个segment的信息进行了整合。爬虫的搜索策略是采用广度优先方式抓取网页,且只获取并保存可索引的内容。 Nutch0.7需要java1.4以上的版本,nutch1.0需要java1.6。 特点: 1、 遵循robots.txt,当爬虫访问一个站点时,会首先检查该站点根目录下是否       存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问 的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。 2、采

3、用基于Hadoop的分布式处理模型,支持分布式的实现。 3、Nutch可以修剪内容,或者对内容格式进行转换。 4、 Nutch使用插件机制,可以很好的被用户定制和集成。 5、 Nutch采用了多线程技术。 6、 将爬取和建索引整合在了一起,爬取内容的存储方式是其自己定义的segment,不便于对爬取的内容进行再次处理,需要进行一定的修改。 7、 因为加入了对页面分析,建索引等功能其效率与heritrix相比要相对较低。 全国注册建筑师、建造师考试备考资料历年真题考试心得模拟试题2. Heritrix 简介: Heritrix是一

4、个用Java实现的基于整个web的可扩展的开源爬虫框架。Heritrix主要由三大部件:范围部件,边界部件,处理器链组成。范围部件主要按照规则决定将哪个URI入队;边界部件跟踪哪个预定的URI将被收集,和已经被收集的URI,选择下一个 URI,剔除已经处理过的URI;处理器链包含若干处理器获取URI,分析结果,将它们传回给边界部件。采用广度优先算法进行爬取。 heritrix用来获取完整的、精确的、站点内容的深度复制。包括获取图像以及其他非文本内容。抓取并存储相关的内容。对内容来者不拒,不对页面进行内容上的修改。重新爬行对相同的

5、URL不针对先前的进行替换。  特点: 1、 各个部件都具有较高的可扩展的,通过对各个部件的修改可以实现自己的抓取逻辑。 2、 可以进行多种的配置,包括可设置输出日志,归档文件和临时文件的位置;可设置下载的最大字节,最大数量的下载文档,和最大的下载时间;可设置工作线程数量;可设置所利用的带宽的上界;可在设置之后一定时间重新选择;包含一些可设置的过滤机制,表达方式,URI路径深度选择等等。 3、 采用多线程技术。 4、 保存的内容是原始的内容,采用镜像方式存储,即按照斜杠所划分出的层次结构进行存储,同时也会爬取图片等信息。 5、 

6、同样也遵守robots.txt规范。 6、 在硬件和系统失败时,恢复能力很差。    3. WebSPHINX 简介: WebSPHINX是一个Java类包和Web爬虫的交互式开发环境。WebSPHINX由两部分组成:爬虫工作平台和WebSPHINX类包。爬虫工作台提供接口实现对爬虫的配置;类包则提供对爬虫进行扩展需要的一些支持。 其工作原理为从一个基点网站出发,遍历其中的所有有用信息,同时抽去其中的链接信息放入队列,以待有空闲蠕虫(worm)时,从队列中读取,发出request 请求,继续进行信息抽取和链接入队列的工作。 特点

7、: 1、 保存网页的原始内容。 2、 采用多线程技术。 3、 采用广度优先遍历算法进行爬取。 4、 支持HTML解析,URL过滤,页面配置,模式匹配等等。 5、适用于爬取小规模的网页,例如爬取单一的个人站点。  4. Weblech 简介: WebLech是一个用Java实现的功能强大的Web站点下载与镜像工具。它支持按功能需求来下载web站点并能够尽可能模仿标准Web浏览器的行为。WebLech有一个功能控制台并采用多线程操作。 特点: 1、 支持多线程技术。 2、可维持网页的链接信息,可配置性较强,配置较为灵活,可设置需获取

8、的网页文件的类型、起始地址、抓取策略等14 项内容。 3、 采用广度优先遍历算法爬取网页。 4、保存网页的原始内容。 5. Jspider 简介: JSpider是一个完全用Java实现的可配置和定制的Web Spider引擎.你可以利用它来检查网站的错误(内在

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。