人工智能_机器学习066_SVM支持向量机_对偶问题转化_强对偶问题_弱对偶问题_弱对偶问题详解---人工智能工作笔记0106

发布时间:2023年12月19日

上一节我们就得到了9,这个公式,这个公式要求,先去求maxL(x,lamada) ,也就是求,lamada是多少的时候,对应的,

L(x,lamada) = f(x) + h(x) * lamada <=P

中的这个h(x) * lamada,最大,因为h(x)是小于0的也就是,lamada是什么的时候,h(x) * lamada最大,也就是越接近于0对吧.

然而这个lamada是多少的时候,h(x) * lamada 最大,这个也很难求解.

然后因为求解的时候,我们说:

maxL(x,lamada) 不好求,所以我们可以对调一下,这个就是对偶问题转换

将先求maxL(x,lamada),当lamada是什么的时候,整体最大的问题,改成先求minL(x,y),x是什么的时候,minL(x,y)最小对吧,先求最小,通过导数求最小,然后再求最大,就好求多了.

可以看到这里把max和min进行颠倒过来,这就是对偶问题.有时候原问题不好求解,但是对偶以后就变的好求解了.

可以看到对于原问题,我们是先求max,再求min

对于对偶问题,我们先求min,再求max,因为

可以看到有时候,先确定关于x的函数最小值,要比原问题中先

文章来源:https://blog.csdn.net/lidew521/article/details/135001113
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。