条码信号恢复算法综述(2)
时间:2017-06-01 22:36 来源:毕业论文 作者:毕业论文 点击:次
1.1 条码信号恢复的研究背景,现状以及意义 条码信号是一文的0-1型的阶跃信号,白色条纹代表0,黑色条纹代表1,信息包含在黑白条纹间隙的相对宽度中,而各个条纹的宽度值则是由它的边缘位置所决定的,因此检测边缘位置便成了条码识别的关键所在。但是在实际应用过程中,常常会遇到需要在远距离进行条码识别的情况,比如数字水准仪应用中的远距离光学成像条码定位、某些特殊商品条码识别等,此时随着扫描距离的增大,相对来说,我们观测到的条码信号就会趋于高密度化。而传统的边缘检测方法通常基于独立边缘假设,通过寻找观测信号一阶导数极值或二阶导数零点位置实现边缘位置的检测,这种方法仅适用于低密度条码,对于高密度条码信号,独立边缘的假设不再成立,由于系统点扩展函数的卷积模糊作用,相邻边缘的相互影响使所求得的信号局部极值点位置和理想条码的边缘位置并非一一对应,相邻边缘的相互叠加影响将使得条码信号的边缘出现偏移现象。随着测量距离的增大,将导致成像条码密度的增大,从而这种影响更加严重。实际上,1989年J.S. Chen[3]就指出当降质函数的标准偏差大于相邻边缘最小距离的一半时,传统边缘检测方法将不再适用。此时有必要对高密度条码成的像进行复原后再识别。 条码信号复原技术在数字图像处理领域中占有重要的地位。对复原技术的研究始于上个世纪20年代,早期的时候出现了一些经典的复原算法,如无约束最小二乘方法、有约束最小二乘方法、逆滤波、文纳滤波、最大熵复原等,这些算法至今还仍然被广泛使用[4]。而近十多年来,国内外学者又发展了一系列的模糊图像恢复算法,如信息叠加法、递推复原法、正则迭代法、最大熵算法、TV(Total Variation,简称TV)算法[5,6]。优尔十年代中期,去卷积(逆滤波)才开始被广泛应用于信号复原。1969年,美国航空航天局的喷气推进实验室在用计算机处理月球相关的照片,这些照片是宇航员在空间飞行器上用电视摄像机拍摄的,其图像的复原包含去除干扰和噪声,校正几何失真和对比度损失。另一个非常具有代表意义的例子是肯尼迪总统遇刺事件现场照片的处理。由于遇刺事件的不可预知性,照片是相机在运动过程中拍摄的,此时图像复原的主要目的就是去除运动造成的失真[7]。Natha利用去卷积法来处理由探索者、漫游者等星际探测器传回的图像。同一时期,Harris[8]利用系统点扩展函数PSF(Point Spread Function)的解析模型,用去卷积法对由大气层扰动造成的望远镜图像模糊进行了处理,Mcglamery[9]则使用由实验确定的PSF来对大气扰动进行去卷积处理。从那以后,去卷积处理就成了图像复原的一种标准化技术。反卷积问题的典型特点是其求解过程通常是一个病态问题,表现为问题的解和观测数据之间不是连续对应的关系,换句话说,观测数据的微小变化可能导致解的很大变动,如果没有附加的限定或假设,病态问题是无法求解的。当模糊函数确定时,即是一般的反卷积问题;而当模糊函数未确定时,则叫做盲反卷积。模糊函数的确定叫做系统辨识,为了从模糊条码图像自身确定降质的模糊函数,Eugene J依靠近似独立边缘确定高斯型模糊函数的支持域[10],我校的刘宁钟等根据此法对一文条码模糊图像进行部分去卷积后再识别,取得了非常好的效果[11]。当系统辨识无法求得时,则需要采用系统辨识与信号恢复同时进行的盲反卷积。国际上主要的条码信号盲反卷积方法有:1998年William Turin采用期望最大值(EM)算法对条码信号进行恢复后再识别,将传统的条码扫描仪的识别距离扩大了2倍[12];1998年,Chan和Wong提出将基于总变差最小化正则化应用于盲反卷积的方法,2004年,Selim Esedoglu等人将此方法应用于条码信号复原中,证明了其具有极强的去模糊和抗噪能力[13]。 (责任编辑:qin) |