机器学习 | Python实现基于GRNN神经网络模型

发布时间:2024年01月01日

基本介绍

GRNN 是 Nadaraya-Watson 估计器神经网络的改进,其中向量自变量上的标量的一般回归被计算为以核作为加权函数的局部加权平均值。 该算法的主要优点是其校准只需要为核估计定义适当的带宽。 因此,GRNN 比其他前馈人工神经网络算法更快。
传统的 GRNN 架构基于对所有特征使用一个唯一的带宽值。 这种各向同性的网络结构(IGRNN)可以用作特征选择的包装器。 这种方法允许对输入空间进行完整的描述,识别相关、不相关和冗余的特征。 具体来说,冗余和不相关性与相关性的识别相关,即使用输入空间的其他特征对输入变量的非线性可预测性。 各向异性(或自适应)GRNN (AGRNN) 是 GRNN 的演变,其中为每个特征对应的带宽赋予不同的值。 带宽的适当校准将根据输入特征的解释能力来缩放输入特征。 具体来说,较大的平滑参数将导致相关特征的判别力较低,反之亦然。 因此,AGRNN 可以被认为是一种嵌入式特征选择方法,其中内核的带宽值表示特征相关性的度量。

模型设计

import numpy 
文章来源:https://blog.csdn.net/kjm13182345320/article/details/135324388
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。