CLIP:如何训练视觉大模型?
?
CLIP论文地址:https://arxiv.org/pdf/2103.00020.pdf
CLIP = 对比学习 + 预训练 + 文字图像相似度。
传统方法训练视觉模型的方式通常是使用有监督学习方法,需要收集大量图像和对应标签:
CLIP 采用了一种不需要人工大量标记数据的自监督学习方法。
CLIP 模型是一种基于对比学习的模型,可以将图像和文本进行联合编码,从而实现图像和文本之间的交叉检索。
传统方法:要构建一个图像-文本匹配数据集,需要收集大量的图像和与之相关联的文本描述,并对它们进行人工标注。比如,我们收集了10000张图像和与之对应的10000个文本描述,然后需要手动将每张图像与对应的文本进行匹配标注。
CLIP方法:相比之下,CLIP可以利用自监督学习和互联网上的数据进行训练,无需显式的人工标注。例如,我们可以利用互联网上的图像和相关联的文本数据,比如从社交媒体、图像搜索引擎或图像描述数据集中获取图像-文本对,不用人工标注。
openai 使用了 WebImage Text 上 4亿 对图像文本对训练 CLIP
CLIP会将图像和文本分别编码为特征向量,并通过比较这些特征向量的相似性来学习图像和文本之间的匹配关系。
比如图像和文本的匹配任务中,模型需要区分正样本(真实的图像-文本匹配对)和负样本(随机的图像-文本对)。
模型会通过最大化正样本的相似性,同时最小化负样本的相似性来学习。
对比预训练:
完整版(参考知乎大佬):
动态过程:
使用 ResNet 作为初始的图像特征提取器,然后将 ResNet 的输出,传递给 ViT 模型。
利用 ResNet 在低层级特征提取方面的优势,同时使用 ViT 模型的自注意力机制来捕捉图像中的全局关系。
图像编码器 = ResNet + ViT。
ResNet 部分:
ViT 部分:
没啥特殊的,就是 Transformer :
传统大模型预训练后,还需要微调,才能处理下游任务。
CLIP 出来后,不需要任何训练数据,就可以直接做图像分类。
分类过程: