针对某类问题,人们常常能够从数学上提出相应的解决思路。但由于问题的复杂性和不确定性,描述解决思路的数学方程往往难以求解。基于求解问题的数学原理,可在原理性方法的指导下构造出相应的神经网络模型,使其通过对样本的学习自动实现问题的求解
其中8.78式中的
最终得到支持向量机的分类函数
最终根据公共得出神经网络结构如下
我们做一个高维的转化,就能使其线性可分.对于二维空间下的以下四个点及其对应的分类
可以看到,在该空间上,这两类线性不可分,就是找不到一条直线,使得将其分开。我要对这些点做一个映射,将其映射至三维空间,比如做如下映射
在SVM的算法中,我们对高维转化的本身并不关心,只关心其转化后内积的结果. 如果在高维空间上做内积,计算将十分繁杂并且对计算机的性能要求非常高,为此,我们想到一个方法,不需要在高维空间直接做内积,而是在低维下计算,使得其结果跟高维空间做内积结果一样。这就是核函数。
径向基函数RBF是一种插值函数与线性回归,BP神经网络一样,通过每一个测得的采样值逼近求解真实函数.其函数定义:
根据公式构建其网络结构
在许多数据处理的应用中,要求保存尽可能多的信息并得到较好的数据压缩。降低输人变量的维数对数据压缩十分必要,但降维不能简单地对 X进行截断,因为截断所带来的均方误差等于截掉得各分量方差之和。因此需要对坐标系进行旋转(可逆的线性变换 T),使得通过该变换将原高维空间的数据X投影为低维空间的数据T(X)后,对 T(X)的截断在均方差意义下为最优,从而仍能保留原数据的主要信息。
上图就是从三维提取主要特征到二维的,假设数据如下形式
把数据移动到坐标中点:计算均值E(X),若E(X)不为零,可令 X’=X-E(X),从而得到 E(X’)=0
求出方差矩阵,多维情况下为协方差
找出方差矩阵的特征值及特征向量
降维处理。可以看出,第一个最大特征值的贡献率为 87.27%,若将各输人向量降为一维,可保留原模式 87.27%的能量;第三个特征值的贡献率为 0,若将各输人向量降为二维,原模式将不损失任何信息。
可以看出,当原始维数n 较大时,直接计算 Rxx 的特征值很困难。如果利用神经网络的学习能力,可通过训练逐步进行主分量分析。
基于 Oja 学习算法的线性神经元 PCA 模型相当于一个最大特征滤波器,它将以概率 1收敛于一个固定点,其特征是:当 t → ∞ t \rightarrow \infty t→∞时,模型输出的方差趋向于 Rxx的最大特征值 λ 1 \lambda_1 λ1?;模型的权向量 w w w趋向相应的特征向量 U 1 U_1 U1?。
如果想同时输出多个特征向量和特征值,改造其网络结构(Sanger)
《核函数》
《基于径向基函数(RBF)的函数插值》
《人工神经网络理论、设计及应用》