多任务学习(MTL),分类任务调研

发布时间:2023年12月18日

在这里插入图片描述
多任务学习的模式

隐层参数的硬共享机制hard parameter sharing:在所有任务之间共享隐藏层,同时保留几个特定任务的输出层来实现。降低了过拟合的风险。直观来讲,越多任务同时学习,我们的模型就能捕捉到越多任务的同一个表示,从而导致在我们原始任务上的过拟合风险越小。
在这里插入图片描述隐层参数的软共享机制soft parameter sharing:每个任务都有自己的模型,自己的参数。模型参数之间的距离是正则化的,以便鼓励参数相似化。
在这里插入图片描述

文章来源:https://blog.csdn.net/weixin_41012399/article/details/135062374
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。