「吴恩达」机器学习笔记 - 改进梯度下降的技术
发布时间:2024年01月13日
一、特征放缩
1. 目标:
将每个特征 1 ≤ x_j ≤ 1

几乎无坏处,可多尝试特征放缩
2. 方法
(1) 除以最大值

(2) 均值正常化

(3) z 分数归一化

二、判断是否收敛
学习曲线?/ 自动收敛测试

三、选择合适的学习率

四、特征工程
目标:选择合适的特征
特征工程: 利用知识或直觉设计新的特征(通常通过转换或结合原始特征),使算法作出更准确的预测。
-
多元线性回归的特征工程 —— 多项式回归的新算法:
次方/开根号
库学习:sciki
文章来源:https://blog.csdn.net/qq_52063383/article/details/135465213
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:chenni525@qq.com进行投诉反馈,一经查实,立即删除!