过程工业中测量的数据在理论上应该满足各种约束条件,如物料平衡和能量平衡,然而在实际工业测量过程中,由于安装仪表或者测量代价昂贵,以及测量技术不先进,许多过程变量(流率、温度、压力、组分等)无法测量,这就造成了测量数据的不完整性。同时,对于可测量的过程变量,测量数据通常包含误差。误差分为两类:随机误差和显著误差。随机误差主要是由于随机因素的影响,它通常是小幅度的误差,不可避免的,并且在一般情况下符合一定的统计规律;显著误差是随机发生的,主要由于仪表仪器的故障、设备泄露或操作不稳定等因素引起,它通常是大幅度的误差并且不符合一定的统计规律。这两种误差都造成了测量数据的不准确性。因此,过程工业的测量值具有不完整性和不准确性,这就使得过程控制、仿真、优化控制无法有效实现,甚至造成决策失误。目前,许多企业自动化系统都受到了干扰,并且,随着系统规模的扩大以及系统复杂度的提高,这一问题将更加明显。所以,对于已经测量得到的数据,有必要进行数据校正。
数据校正就是利用冗余信息,剔除原始数据中的过失误差并降低随机误差对测量值的影响。数据校正的目的是提高数据的质量,从而为接下来过程控制和过程建模提供保障。在化工领域,数据校正技术起源于60年代。60~80年代主要是静态数据校正发展的时期,80年代之后主要是动态数据校正和非线性约束情况下数据校正发展的时期。数据校正一般以数学模型为约束,以实现校正值和真实值之间差值最小为目标。数据校正工作分为三个部分:数据协调、显著误差检测和测量网络冗余性分析。数据协调和数学模型紧密相关,模型不合理会导致校正的不可实施;测量网络冗余性分析也是以数学模型为基础,是以方程组或网络图的形式,冗余度越高,校正效果越好;显著误差检测也是依赖于数学模型,但在显著误差检测中会出现很多问题,如带有显著误差的变量过多而无法实现全部校正、频繁校正影响稳定性、测量网络的综合设计等。数据协调和显著误差检测一般没有明显的顺序,是交互进行的,有些文章指出在进行数据协调的同时去除显著误差,从而避免多重迭代。
1。2 数据校正的发展
1。2。1 数据协调
1961年,Kuehn和Davidson[1]在研究计算机控制的过程中,首次提出数据协调的概念。该方法只考虑了随机误差,没有考虑显著误差,也没有提出显著误差的鉴别方法,因此有缺陷。
随后,稳态数据协调技术迅猛发展。1977年,Mardron等人[2]在反应器数据协调方面进一步研究,从线性方面推广到非线性方面。
针对数据协调中的双线性问题,1988年,Simpson[3]提出一种方法,该方法划分独立流股,将约束方程带入目标函数,从而成为一个无约束问题,然后进行数据协调。针对数据协调中的非线性问题,一般解法是先转变成线性问题再进行数据优化。1987年,Serth等人[4]提出了迭代测量检验法,该方法对显著误差进行检测,然后用计算机进行仿真,结果证明该方法对于非线性模型具有较好的鲁棒性。1990年,Kim和Liebman[5]提出了非线性规划法,这种方法相对于连续线性规化法更为准确,但该方法过于复杂,在线运行无法进行。
以上提出的研究都是在过程处于稳态的假设中,稳态数据协调方法得到广泛发展。然而实际过程不会处于稳态,过程数据会不断更新,不存在绝对稳态的数据,因此,为了更加准确真实地反映动态过程,有必要将动态模型作为约束模型,动态模型的数据协调逐渐成为研究对象。 MATLAB混合高斯分布模型的数据协调技术研究(2):http://www.youerw.com/zidonghua/lunwen_137308.html