基于hadoop的超像素分割算法

基于hadoop的超像素分割算法

ID:31359264

大小:131.00 KB

页数:17页

时间:2019-01-09

基于hadoop的超像素分割算法_第1页
基于hadoop的超像素分割算法_第2页
基于hadoop的超像素分割算法_第3页
基于hadoop的超像素分割算法_第4页
基于hadoop的超像素分割算法_第5页
资源描述:

《基于hadoop的超像素分割算法》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、基于Hadoop的超像素分割算法  摘要:针对高分辨率图像像素分割时间复杂度高的问题,提出了超像素分割算法。采用超像素代替原始的像素作为分割的处理基元,将Hadoop分布式的特点与超像素的分块相结合。在分片过程中提出了基于多任务的静态与动态结合的适应性算法,使得Hadoop分布式文件系统(HDFS)的分块与任务分发的基元解耦;在每一个Map节点任务中,基于超像素分块的边界性对超像素的形成在距离和梯度上进行约束,提出了基于分水岭的并行化分割算法。在Shuffle过程的超像素块间合并中提出了两种合并策略,并进行了比较。在R

2、educe节点任务中优化了超像素块内合并,完成最终的分割。实验结果表明.所提算法在边缘查全率(BR)和欠分割错误率(UR)等分割质量指标上优于简单线性迭代聚类(SLIC)算法和标准分割(Ncut)算法,在高分辨率图像的分割时间上有显著降低。  关键词:Hadoop;图像分割;超像素;并行算法;MapReduce  中图分类号:TP391.41  文献标志码:A  文章编号:1001-9081(2016)11-2985-08  0引言  在世界多元化发展的背景下,互联网技术在各个方面都为人们的生活带来了便利。图形图像作为

3、人类与计算机交互最为直观、便捷的方式,其相应的处理以及识别分析能力直接会影响到人们的感官体验,17而图像分割作为连接图像处理与图像识别、图像分析的桥梁,也会为接下来的后续使用带来极大的性能提升;同时,图像本身的来源以及背景也随着成像技术的进步,逐渐朝着多元化的方向发展,大尺寸、高分辨率的图像本身蕴含着多维度的信息,例如生物医学图像[1]、地理遥感图像[2]等,如何在准确分割的同时保持较低的消耗时间成为时下研究的热点。  像素作为图像分割的基本单位,是图像灰度及其基本原色素的编码,在当今的大数据时代背景下,大尺度、高分辨

4、率的图像如果仍是以像素作为分割基准点,执行起来就会非常耗时。超像素在图像分割中并没有十分明确的定义,在不同的环境背景下可以适应性地变化,大致可以理解为将某些具有相邻位置、相近颜色、相似亮度或者相似纹理特征的像素聚合到一起形成的一小块区域[3]。  在超像素提出的初期,从算法核心的立足点的角度出发可以大致可分为两个原型:一是基于图论的方法,二是基于梯度下降的算法。比较有特点的基于图论的方法有:2000年Shi等[4]提出的标准分割(Normalizedcut,Ncut)方法、2004年Felzenswalb等[5]提出的

5、graph-based方法、2008年Moore等[6]提出的超像素格方法、2010年Veksler等[7]提出的GCa10andGCb10算法、2011年Liu等[8]提出的基于熵率的方法、2011年Zhang等[9]提出的基于伪布尔优化的超像素分割算法、2012年Bergh等[10]提出的基于种子点的算法、2013年王春瑶等[11]提出的基于自适应结构块的超像素算法等。这些算法都是根据原始图像的边界信息或者纹理特征来进行特征标识,17利用相应的类似最小生成树等的算法原型来进行全局最优化代价函数的判定进而对图像进行分

6、割。而在基于梯度下降的算法中比较有特点的有:1991年被Vincent等[12]提出并一直优化至今的分水岭算法、2002年Comaniciu等[13]提出的Meanshift算法、2008年Vedaldi等[14]提出的快速漂移算法、2009年Levinshtein等[15]提出的水平集膨胀算法以及2010年Achanta等[16]提出的一直被用作比较的简单线性迭代聚类(SimpleLinearIterativeClustering,SLIC)算法等,这些算法都是基于聚类的模型,利用初始化的种子中心,运用相应的优化判别

7、方式来确定聚集的判定,最后形成超像素的像素集合。  作为大数据时代的衍生物,Hadoop平台在处理海量数据方面有着十分有效的作用。追溯到最初,谷歌的三大论文Bigtables[17]、谷歌文件系统(GoogelFieSystem,GFS)[18]、MapReduce[19]带来了云计算的变革,Hadoop就是在此基础上用来对文本数据进行存储和分析。Hadoop的原型是Apache下的Java开源项目Nutch[20]。全球的各大IT公司纷纷为了在云计算行业上占有一席之地而改革创新,而良好的计算模式和运行框架的诞生也为包

8、括大分辨率图像在内的海量数据集的处理带来了新的可能。因此,如何利用好其拓展性来更有效地解决更多的实际问题将会带来更快的技术更新。  在当前的大数据环境下,将图像处理与分布式相结合能达到更令人满意的结果。在研究初期,学者们利用了MapReduce其中的一部分或者仅仅完成了对图像的简单处理,例如图像的灰度处理、特征值提取等,2009年

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。