多目标优化遗传算法NSGA-II的研究与实现(4)_毕业论文

毕业论文移动版

毕业论文 > 计算机论文 >

多目标优化遗传算法NSGA-II的研究与实现(4)

(2)约束法(Constraint Method)

1971 年,Marglin 和 Haimes 等人提出了约束法。约束法的原理是将某个目标函数作为优 化目标,而对其他的目标函数进行约束。

(3)最大最小法

最大最小法是一种线性方法,起源于博弈论。这种方法是由 Jutler、Solich 提出、由 Osyczka 和 Rao 发展而得来的。最大最小法通过计算评估最小化各个目标函数数值与预设目标值之间 的最大偏移量来寻求问题的最优解。

(4)目标规划法 目标规划法的原理是:首先,单独求解出各个子目标函数的最优解,再归一进行求和。 此外,还有混合法等方法。上述方法的特点是能够将多个目标函数聚合成一个函数。但

它的缺点也很明显:由于各个目标加权值的分配带有较大的主观性,优化结果不能尽如人意; 优化过程中,研究人员无法对各个目标的优度进展进行操作。除此以外,上述方法在处理高 维数、多模态、非线性等复杂问题上存在许多不足。由于传统的优化算法存在很多缺陷,他 们并不能满足现代工业和科学发展的需求。因此,进一步的智能优化方法逐渐产生。

2。3进化算法(Evolutionary Algorithms)

由于传统求解多目标优化问题的局限性,一种求解多目标优化方法的新策略——多目标 进化算法(Muti-objective Evolutionary Algorithms,MOEA)引起了研究者的关注。多目标优化 问题一般由一个 Pareto 最优集组成,而非单个最优解。而 MOEA 可以利用其强大的全局搜索 能力,免去研究者提供大量充分信息的麻烦,求得帕累托最优集。MOEA 研究可以追溯到 1967

年,R。S。Rosenberg 在论文中用遗传算法求解被表述为单目标问题的多目标优化问题,到 20 世纪 80 年代中期,David Schaffer 设计了第一个多目标进化算法,称为 VEGA。VEGA 从本 质上来说,仍是加权和方法,并未引起足够的重视。直至 1993 年后,多目标演化算法才引起

学术界的关注,大量关于多目标演化算法的文献面世。在 1993 年后的 6 年间,Fonseca 和 Fleming 提出了 MOGA 算法,Srinivas 和 Deb 提出了 NSGA 算法,Horn 和 Nafpliontis 提出了 NPGA 算法。来`自+优-尔^论:文,网www.youerw.com +QQ752018766-

进化算法[14]是一种具有鲁棒性的方法。它足够强健,能够适应不同的环境,并且在大多 数情况下都能得到比较满意的有效解。进化算法能够对问题的整个参数空间给出编码方案, 而不仅仅针对问题的具体参数。进化算法从一组初始解开始搜索,搜索过程中不涉及目标函 数连续性问题,只调用函数值本身,因而进化算法具有广泛的应用性,高度的非线性,易修 改性和可并行性。

此外,算法本身也可以采用动态自适应技术,在进化过程中自动调整算法控制参数和编 码精度,比如使用模糊自适应法。

MOEA 包括遗传算法(Genetic Algorithm, GA),进化规划(Evolution Programming, EP), 进化策略(Evolution Strategies, ES)和遗传规划(Genetic Programming, GP)等多个分支,其中 应用最多的是 GA。

在 MOEA 中有一些基本概念,本课题将对基本概念进行简单的阐述。

(责任编辑:qin)