GRNN 是 Nadaraya-Watson 估计器神经网络的改进,其中向量自变量上的标量的一般回归被计算为以核作为加权函数的局部加权平均值。 该算法的主要优点是其校准只需要为核估计定义适当的带宽。 因此,GRNN 比其他前馈人工神经网络算法更快。
传统的 GRNN 架构基于对所有特征使用一个唯一的带宽值。 这种各向同性的网络结构(IGRNN)可以用作特征选择的包装器。 这种方法允许对输入空间进行完整的描述,识别相关、不相关和冗余的特征。 具体来说,冗余和不相关性与相关性的识别相关,即使用输入空间的其他特征对输入变量的非线性可预测性。 各向异性(或自适应)GRNN (AGRNN) 是 GRNN 的演变,其中为每个特征对应的带宽赋予不同的值。 带宽的适当校准将根据输入特征的解释能力来缩放输入特征。 具体来说,较大的平滑参数将导致相关特征的判别力较低,反之亦然。 因此,AGRNN 可以被认为是一种嵌入式特征选择方法,其中内核的带宽值表示特征相关性的度量。
import numpy