在本教程中,我们将介绍对比学习领域中的相关概念。首先,我们将讨论这种技术背后相关的理论知识;接着,我们将介绍最常见的对比学习的损失函数和常见的训练策略。
闲话少说,我们直接开始吧!
首先,让我们通过简单的例子来增加对对比学习概念的理解 。我们不妨来玩一个许多孩子经常玩的游戏:
这个游戏的目标是从右侧的候选图片中,寻找看起来最像左侧动物的图像。在我们的例子中,孩子必须在右边的四张图片中搜索一张狗的照片。一般来说,孩子们必须将右侧图像一一和左侧图像进行比较,然后从中选择与之最相近的作为结果。
事实证明,对于没有任何先验知识的人来说,比如一个孩子,更容易通过对比相似和不同物体来学习新事物,而不是通过一个接一个地学习识别它们。也许最开始,孩子们可能无法识别狗。但过一段时间后,孩子就学会了如何区分狗的共同特征,比如鼻子的形状和身体姿势。
受先前观察的启发,对比学习旨在通过对比相似和不同的样本来学习数据的低维度特征表示。具体来说,它试图使相似的样本在特征表示空间中彼此靠近,并使用欧几里得距离将不相似的样本推得很远。
假设我们有三个图像I1
,I2
和 I3
。前两张图片描绘了一只狗,第三张图片描绘了一只猫,我们想学习每张图片的特征低维表示(x1
、x2
和x3
):
在对比学习中,我们希望最小化相似样本之间的距离,并最大化不同样本之间的距离。在我们的示例中,我们希望最小化相似样本距离 d(x1,x2)
并最大化不相似样本距离 d(x1,x3)
和 d(x2,x3)
,其中 d()
是类似于欧几里得的度量函数。
与锚定样本 I1
相似的样本被定义为正样本 I2
,不同的样本被定义为负样本 I3
。
对比学习最重要的部分是训练目标,它引导模型学习对比特征表示。对比损失是用于对比学习的首要训练目标函数之一。它采用一对相似或不相似的样本作为输入,并使相似的样本在特征空间内更接近,不相似的样本在特征空间中距离更远。
更一般的来说,假设我们有一对 输入 (Ii,Ij)
和一个标签 Y
,如果这一对样本相似,则标签Y
等于 0,否则等于 1。为了提取每个样本的低维表示,我们使用卷积神经网络 f
,将输入 Ii
和Ij
映射到特征嵌入空间中,其中 xi = f(Ii)
和 xj = f(Ij)
。对比损失函数的定义为:
其中, m
是一个超参数,用于定义不同样本之间的下限距离。
如果我们需要更具体地分析上述等式,则有两种不同的情况:
● 如果样本相似 (Y=0)
,则我们最小化项为 ||x_i - x_j||^2
对应于它们的欧几里得距离。
● 如果样本不同 (Y=1)
,则我们最小化项 max(0, m - ||x_i - x_j||^2)
这相当于最大化它们的欧几里得距离,直到某个极限 m
。
当我们没有太多标注的样本时,这里可以使用自监督学习,利用数据的某些属性来生成伪标签。
一个著名的无监督对比学习的框架是 SimCLR
。它的主要思想是通过在锚图像中应用随机转换(如裁剪、翻转和颜色抖动)来生成正样本图像对,因为这些更改使图像的标签保持不变:
在本教程中,我们讨论了对比学习的相关概念和理论知识。首先,我们介绍了对比学习相关术语的概念,然后我们讨论了对比学习的目标损失函数和相应的自监督训练策略。