(4) 当属性集的规模较大时,可以使用降维等策略来缩减属性集的规模。
(5) 实例的数量可以是巨大的。
(6) 标签之间可以存在关联性。
2。3 多标签学习面临的挑战
组合标签形成的输出空间呈指数型增长以及建立多标签分类器的计算和存储资源的限制成为当前多标签学习发展的主要挑战之一。比如,对于由30个标签组成的标签空间,特定实例可能的标签集合数目就十分惊人,是10亿个左右。
考虑到实际应用中,标签间确实可以存在一定关联。一篇文章具有标签“爱因斯坦”和“相对论”,如果有可选的标签“物理学”,那么这篇文章很可能被贴上“物理学”的标签。如果可以有效地利用标签之间的关联性,在学习过程中将标签之间的关联性作为考虑因素,那么,多标签学习输出空间过大的问题就可以得到解决[10]。文献综述
此外,噪声标签、缺失标签、未标记数据的存在、特征维度过高、标签数量过多、实例数据量过大、数据分布的不均衡以及训练与测试数据不属于同一分布等实际问题也成为多标签学习新的研究热点。
2。4 多标签学习的评价指标
目前,算法中主流的的评价指标有两大类:基于实例[12][13][14]和基于标签[15]。实际应用时,应该采用多个指标综合考虑一个算法的优劣,最好指标间可以互补。
2。4。1 基于实例
Subset Accuracy
。
反映测试集中,预测的结果完全相同于真实标签集的实例的占比,也称作分类准确度。衡量的作用和意义与0/1 loss相似。实际上,这个指标过于严格和粗放,忽视了分类结果的比较细节。相对而言,公式反馈的值愈大,分类器泛化效果愈佳。
Hamming Loss
反映未真实拥有的标签在预测结果中出现或真实拥有的标签未在预测结果中出现的单个标签的误分类情况。按位比较预测标签向量与真实标签向量,得出对称差并进行归一化。虽然考虑了预测错误和遗漏错误,但不适合对稀疏性标签集的数据的分类结果进行评价,因为此时该标准无法体现算法的真实性能。相对而言,公式反馈的值愈小,分类器泛化效果愈佳。
One-error
反映预测的标签序列排位最高的标签不属于真实标签集的情况。仅仅考虑最靠前的标签值,可能导致评价失真。相对而言,公式反馈的值愈小,分类器泛化效果愈佳。
Coverage
反映在预测的标签有序的序列中,覆盖全部真实拥有的标签所需的遍历深度情况。相对而言,公式反馈的值愈小,分类器泛化效果愈佳。
Ranking Loss
反映预测结果中错序的标签对的平均数量情况。相对而言,公式反馈的值愈小,分类器泛化效果愈佳。来;自]优Y尔E论L文W网www.youerw.com +QQ752018766-
2。4。2 基于标签
基于标签的评价指标的基本思想是基于预测结果中真实正实例(True positives,简称TP),真实负实例(True negatives,简称TN),虚假正实例(False positives,简称FP)和虚假负实例(False negatives,简称FN)的分布情况为每个标签单独计算相关指标,通常通过取平均值避免偶然性。真实正实例,真实负实例
面向中医诊断帕金森病领域多标签学习(6):http://www.youerw.com/jisuanji/lunwen_96845.html