机器学习:自督导式学习模型

发布时间:2023年12月17日

outline

在这里插入图片描述

自督导式模型有跨语言的能力

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 中文:DRCD的数据集
  • 英文:SQuAD的数据集
    在104种语言上进行学习,并在英文上进行微调,结果在中文上效果也比较好。
    在这里插入图片描述
    XTREME Benchmark
    只用英文进行微调,在其他剩下的语言中进行测试。
    在这里插入图片描述
    bert可以无视语言的表象,只了解符合背后代表的语义。
    在这里插入图片描述
    看看英文对中文相近的分数算出来,然后取平均值得到MRR,该值越大越好。
    在这里插入图片描述
    在这里插入图片描述
    语言的信息藏在哪里呢?通过embedding展示,相近的词更接近
    在这里插入图片描述
    在这里插入图片描述
    英文转化成向量后,并对其进行偏移向量后,能够重构为中文。
    在这里插入图片描述
    在这里插入图片描述

可以在英文上测试,并在中文上进行测试。中英文上的embedding是有点差距的。

自督导式模型有跨领域的能力

在这里插入图片描述
在这里插入图片描述
把DNA的组成替换成字符型的表示形式进行学习
在这里插入图片描述
用bert有明显的提升。不仅学到了语义信息,也学到了一些通用的能力,在其他领域也能有较好的性能,
在这里插入图片描述
在DNA 蛋白质 音乐上都有所帮助。
在这里插入图片描述
pre-trained模型有强化模型的能力
在这里插入图片描述
跨语言学习的能力用在语音回答系统。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
终极状态:输入是语音,输出也是语音。
在这里插入图片描述
光用hubert是不行的,可以通过中间层后再加几层网络:

在这里插入图片描述
可以把Hubert的输出 丢给文字的预训练Bert
在这里插入图片描述
在这里插入图片描述

在人造的资料上训练Bert

在这里插入图片描述
在这里插入图片描述
通过规则生成一些tokens,并将tokens进行映射,之后再送到网络中进行学习。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • random产生的资料的效果不好
  • pair产生资料的效果还是非常明显的
  • shuffle产生的资料效果还是可以的
    在这里插入图片描述
    token的序列长度是非常重要的。
文章来源:https://blog.csdn.net/uncle_ll/article/details/135036562
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。