在国外,植物识别研究开展得较早,提取的特征比较全面,识别的算法也呈现多样化。例如,最早的研究出现于1986年,Ingrouile和Laird[6]提取了27个叶片形状特征对橡树进行分类。经比较分析,发现对形状特征进行主成分分析优于其他特征统计方法。2001年,Osikar[7]提取了几何特征和矩特征,他将 BP前馈神经网络作为分类器,将15 种瑞典树木作为研究对象将其进行分类。Liu、Zhang和Den[8]在2009年使用小波变化将植物叶片图像转换到时频域,然后利用支持向量机(SVM)对叶片进行识别和分类。Arivazhagan、Newlin Shebiah、Ananthi以及Vishnu Varthirti[9]在2013年使用纹理特征对植物叶片的不健康区域进行了侦测。国内在这一方面的研究非常少。例如,1994年,傅星、卢汉清[10]应用计算机对植物进行自动分类。2010年,植物叶片图像识别系统在合肥智能实验室被研发并应用。龚丁禧,曹长荣[11]在2014年使用卷积神经网络来对Swedish叶片数据集进行分类实验。90045
然而通过对植物识别技术发展历程研究发现,目前,植物智能识别系统的发展历程较短,研究人员较少论文网,实现的功能也较为单一,且系统识别能力不足,处理范围较小;叶片识别准确率在复杂环境和自然状态下普遍较低;叶片数据库数据匮乏;叶片的识别算法各有优劣,无普适性。
参考文献:
[1]崔大方。植物分类学[M]。北京:中国农业出版社,2006。
[2]张宁,刘文萍。基于图像分析的植物叶片识别技术综述[J]。计算机应用研究,2011(11):4001-4007.
[3]谈蓉蓉,朱伟兴。基于图像处理技术的杂草特征提取方法研究[J]。传感器与微系统,2009,28(2):56-59.
[4]Mario M S。Graphic approach for morphometric analysis of Archaeopteris leaves。 Paléontologie,2004,90: 161-173。
[5]肖雪洋。植物叶片图像识别特征的研究和在线识别系统实现[D]。安徽:中国科学技术大学,2011。
[6]Ingrouille M J, Laird S M。 A quantitative approach to oak variability in some north London woodlands[J]。 London Naturalist,1986,65: 35-46.
[7]Osikar J O。Computer vision classificationof leaves from Swedishtrees[C]。Linkoping:Linkopi
-g University,2001.
[8]Liu J,Zhang S,Deng S,A method of plant classfication based on wavelet transforms and suppo
-rt vector machines[M]//Emerging Intelligant Computing Technology and Applications。Springer B
-erlin Heidelberg,2009:253-260。
[9]S。Arivazhagan,R。Newlin Shebiah,S,Anathi,S。Vishnu Varthini。Detection of unhealthy region o
-f plant leaves and classfication plant leaf diseases using texture features。Agric Eng Int:CIGR Joun
-al,2013,15(1):211。
[10]傅星,鲁汉清。应用计算机进行植物自动分类的初步研究[J]。生态学杂志,1994,13(2)。
[11]龚丁禧,曹长荣。基于卷积神经网络的植物叶片分类。计算机与现代化。
[12]陶行科。基于纹理特征的叶片识别系统研究[D]。北京:北京林业大学,2015。
[13]汤海林。基于SIFT的图像特征提取算法研究[D]。广州:广州白云学院,2013。
[14]傅德胜,汪晓妍。基于统计学习的人脸定位评估函数的构建[J]。计算机应用与软件,2008。
[15]傅德胜,汪晓妍。基于统计学习的人脸定位评估函数的构建[J]。计算机应用与软件,2008。
[16]谈蓉蓉。基于支持向量机分类的图像识别研究[J]。安徽农业科学,2010,38(26):14756-14757。
[17]G。B。Huang,Q。Y。 Zhu,and C K Siew,Extreme learning machine:theory and applications Neuroc-mputing,2006,489-501。