自回归模型 (Autoregressive Model
) 通过将生成问题视为一个序列过程来简化生成模型。自回归模型将预测条件建立在序列中的先前值上,而不是一个以随机潜变量为条件。因此,自回归模型尝试对数据生成分布进行显式建模,而不是尝试近似数据分布。在本节中,将介绍一类经典的自回归模型,长短期记忆网络 (Long Short-Term Memory Network
, LSTM
),并将 LSTM
应用于生成文本数据。
长短期记忆网络 (Long Short-Term Memory Network
, LSTM
) 是一种特殊类型的循环神经网络 (Recurrent Neural Network
, RNN
)。RNN
包含一个循环层(或单元),该层能够通过使其在特定时间步长的输出作为下一时间步长的输入的一部分来处理序列数据,LSTM
网络是拥有 LSTM
循环层的神经网络。
原始 RNN
中,循环层非常简单,仅由 tanh
操作组成,用于确保在时间步之间传递的信息被缩放至 -1
和 1
之间。然而,实践表明这种方法存在梯度消失问题,并且无法很好的处理长序列数据。
LSTM
单元不会像普通 RNN
那样出现梯度消失问题,并且能够在数百个时间步长的序列进行训练。为了提高网络性能,LSTM
架构随后被进一步改进,如门控循环单元 (Gated Recurrent Units
, GRU
) 等。
LSTM
能够应用于解决涉及序列数据的各种问题,包括时间序列预测、情感分析和音频分类等。在本节中,我们将使用 LSTM
处理文本生成问题。
为了训练 LSTM
,生成文本数据,我们将使用 Epicurious Recipes
数据集,这是一组包含超过 20,000
个菜谱配方的数据集,并附带有营养信息和成分清单等相关元数据,该数据集可以在 Kaggle 网站上下载。下载数据集后,将菜谱配方及其相关元数据保存在 ./data
文件夹中。
加载并过滤数据,以便只保留具有标题和描述的菜谱配方:
# 加载并过滤数据
with open("./data/full_format_recipes.json") as json_data:
recipe_data = json.load(json_data)
filtered_data = [
"Recipe for " + x["title"] + " | " + " ".join(x["directions"])
for x in recipe_data
if "title" in x
and x["title"] is not None
and "directions" in x
and x["directions"] is not None
]
数据集中示例样本如下所示:
在使用 Keras
构建 LSTM
网络之前,我们首先需要了解文本数据的结构以及它与图像数据的不同之处。
文本和图像数据之间的差异性导致许多适用于图像数据的方法并不适用于文本数据:
cat
” 更像单词 “dog
”。这意味着我们可以轻易地将反向传播应用于图像数据生成,因为我们可以计算出损失函数相对于单个像素的梯度,以确定像素颜色应该如何改变以最小化损失。而对于离散的文本数据,我们不能以同样的方式应用反向传播,所以为了生成文本,首先需要解决这一问题接下来,我们介绍需要采取哪些步骤以使文本数据适合训练 LSTM
网络。
第一步是清理文本,并将文本转化为符号 (token
),分词 (Tokenization
) 就是将文本分割成单独的符号(例如单词或字符)的过程。
如何对文本进行分词取决于文本生成模型需要实现的目标。使用单词符号和字符符号都各有利弊,不同的选择选择会影响建模之前所需的文本清理方式以及模型输出。
如果使用单词符号:
vocabulary
, 训练集中不同单词的集合)可能非常大,有些单词可能出现的频率很小,甚至只出现一次。与其将它们作为单独的符号,更合理的做法是将这些单词转换为 “unknown
” 的符号,以减少神经网络需要学习的权重数量stemmed
),即将它们简化为最简单的形式,以便将一个动词的不同时态转换为同一个符号。例如,browse
、browsing
、browses
和 browsed
的词干均为 brows
如果使用字符符号:
在本节中,我们使用小写单词分词,且不进行词干提取。我们还将标点符号转换为符号,因为我们希望模型能够预测句子的结束或使用逗号等标点符号:
# Pad the punctuation, to treat them as separate 'words'
def pad_punctuation(s):
s = re.sub(f"([{string.punctuation}])", r" \1 ", s)
s = re.sub(" +", " ", s)
return s
# 在标点符号周围添加填充,将其视为单独的词
text_data = [pad_punctuation(x) for x in filtered_data]
# Display an example of a recipe
example_data = text_data[9]
print(example_data)
# 转换为 TensorFlow 数据集
text_ds = (
tf.data.Dataset.from_tensor_slices(text_data)
.batch(BATCH_SIZE)
.shuffle(1000)
)
# 创建 Keras TextVectorization 层,将文本转换为小写,将最常见的 10,000 个单词转换为相应的整数符号,并将序列长度裁剪或填充为 201 个符号
vectorize_layer = layers.TextVectorization(
standardize="lower",
max_tokens=VOCAB_SIZE,
output_mode="int",
output_sequence_length=MAX_LEN + 1,
)
# 将 TextVectorization 层应用于训练数据
vectorize_layer.adapt(text_ds)
# vocab 变量用于存储单词符号的列表
vocab = vectorize_layer.get_vocabulary()
在训练模型时使用的序列长度是训练过程的超参数,在本节中,我们选择使用长度为 200
的序列,因此需要对食谱进行填充或剪裁,使其长度为 201
,以便创建目标变量。分词后的食谱样本如下所示,为了得到期望长度,向量的末尾使用 0
进行填充:符号 0
称为停止标记 (Stop Tokens
),表示文本字符串已经结束。
在下图中,可以看到一部分符号的列表,并将它们映射到各自的索引,在本节中,填充符号同样使用 0
符号(即停止标记),并将不在词汇表(频率最高的前 10,000
个单词)中的未知单词标记为符号 1
。其他单词按频率顺序分配符号,词汇表中包含的单词数量也是训练过程的一个超参数,词汇表中包含的单词越多,文本中出现的未知符号越少,但模型规模也将更大以容纳更大规模的词汇表。
LSTM
网络经过训练后,可以根据给定的单词序列预测序列中的下一个单词。例如,我们可以将 “grilled chicken with boiled
” 的对应的符号输入模型,模型应当能够输出恰当的下一个单词(例如 potatoes
,而不是 bananas
)。
因此,我们只需将整个序列向后移动一个符号,就可以创建目标变量:
def prepare_inputs(text):
text = tf.expand_dims(text, -1)
tokenized_sentences = vectorize_layer(text)
x = tokenized_sentences[:, :-1]
y = tokenized_sentences[:, 1:]
return x, y
# 创建训练集,其包含食谱符号(输入)和向后移动一个符号的相同食谱符号(目标变量)
train_ds = text_ds.map(prepare_inputs)
LSTM
模型的整体架构下图所示,模型的输入是整数符号序列,输出是词汇表中每个单词出现在序列下一个位置的概率。为了详细了解其工作原理,我们需要介绍两种新的层类型,Embedding
和 LSTM
。
需要注意的是,输入层不需要提前指定序列长度。批大小和序列长度都是灵活的(因此形状为 (None,None)
),这是因为所有下游层与传递的序列长度是无关的。
嵌入层
嵌入层 (Embedding Layer
) 本质上是一个查找表,将每个符号转换为长度为 embedding_size
的向量,如下图所示。查找向量由模型作为权重进行学习。因此,该层学习的权重数量等于词汇表大小乘以嵌入向量的维度(即 10,000 × 100 = 1,000,000
)。
我们将每个符号嵌入到连续的向量中,使得模型能够学习每个单词的表示,且这个表示可以通过反向传播进行更新。我们也可以只对每个输入标记进行独热编码,但使用嵌入层效果更好,因为嵌入本身可训练,从而使模型更具灵活性。
因此,输入层将形状为 [batch_size,seq_length]
的整数序列张量传递给嵌入层,嵌入层输出形状为 [batch_size,seq_length,embedding_size]
的张量,然后将其传递给 LSTM
层。
LSTM 层
为了理解 LSTM
层,我们首先需要了解一般循环层的工作原理。
循环层具有一个特殊的性质,能够处理序列输入数据
[
x
1
,
?
,
x
n
]
[x_1,?,x_n]
[x1?,?,xn?]。它由一个单元格 (cell
) 组成,每个序列元素
x
t
x_t
xt? 逐个通过单元传递时,该单元格就会更新其隐藏状态
h
t
h_t
ht? (hidden state
),该操作每个时间步进行一次。
隐藏状态是一个长度与单元格中的单元 (unit
) 数相等的向量,可以把它视为单元格对序列的当前理解。在时间步
t
t
t,单元格使用先前隐藏状态
h
t
?
1
h_{t-1}
ht?1?以及当前时间步
x
t
x_t
xt? 的数据来生成更新后的隐藏状态向量
h
t
h_t
ht?。此循环过程一直持续到序列结束,序列处理结束后,该层输出单元格的最终隐藏状态
h
n
h_n
hn?,然后将其传递到网络的下一层。
为了详细说明,我们继续深入此过程。观察序列通过该层的过程。
在这个循环过程中,我们绘制了每个时间步的单元格,并显示了隐藏层在流经单元格时不断更新的过程。我们可以清楚地看到前一个隐藏状态与当前的序列数据点(即当前的嵌入词向量)混合后生成下一隐藏状态。当输入序列中的每个单词都处理完成后,该层将输出单元格的最终隐藏状态。需要注意的是,上图中的所有单元格都使用同一个权重,因为实际上它们是同一个单元格,以上两个图没有任何区别,只是我们使用不同的方式描绘了循环层的内部机制。
该单元格的输出称为隐藏状态 (hidden state
),实际上只是一种命名惯例,它实际上并不是真的隐藏了。事实上,最后的隐藏状态是该层的输出,我们可以在每个单个时间步访问这个隐藏状态。
LSTM 单元格
我们已经了解了通用循环层的工作原理,接下来,我们深入了解 LSTM
单元格的工作原理。
LSTM
单元格的作用是根据其先前的隐藏状态
h
t
?
1
h_{t-1}
ht?1? 和当前的词嵌入向量
x
t
x_t
xt?,输出新的隐藏状态
h
t
h_t
ht?。
h
t
h_t
ht? 的长度等于 LSTM
中的单元数,这是在定义该层时设置的一个超参数,与序列的长度无关。
需要注意的时,不要混淆单元 (unit
) 与单元格 (cell
)。LSTM
层中有一个单元格,由其包含的单元数来定义,我们通常将循环层绘制成一系列展开的单元格,这种可视化方式可以了解隐藏状态在每个时间步的更新情况。
一个 LSTM
单元格负责维护一个单元格状态
C
t
C_t
Ct?,可以看作是单元格对序列当前状态的内部理解。这与隐藏状态
h
t
h_t
ht? 不同,隐藏状态
h
t
h_t
ht? 是单元格在最后一个时间步上的输出。单元格状态的长度与隐藏状态相同(单元格中的单元数)。
接下来,我们继续了解 LSTM
中的单元格及其如何更新隐藏状态。
隐藏状态通过以下六个步骤进行更新:
forget gate
) 传递。遗忘门只是一个具有权重矩阵
W
f
W_f
Wf?、偏置
b
f
b_f
bf? 和 sigmoid
激活函数的函数。所得向量
f
t
f_t
ft? 的长度等于单元格中的单元数,其值介于 0
和 1
之间,表示前一个单元格状态单元状态
C
t
?
1
C_{t-1}
Ct?1? 应该保留多少input gate
) 传递,与遗忘门一样,它是也一个带有权重矩阵
W
i
W_i
Wi?、偏置
b
i
b_i
bi? 和 sigmoid
激活函数的函数。该门的输出
i
t
i_t
it? 的长度与单元格中的单元数相同,其值介于 0
和 1
之间,用于确定应该将多少新信息添加到前一单元格状态
C
t
?
1
C_{t-1}
Ct?1?sigmoid
激活函数的函数,生成一个向量
C
~
t
\tilde C_t
C~t?,表示单元格可能会保留的新信息。它的长度与单元格中的单元数相同,值介于 -1
和 1
之间sigmoid
激活函数的函数。得到的向量
o
t
o_t
ot? 的长度与单元格中的单元数相同,存储着介于 0
和 1
之间的值,用于确定从单元格中输出多少更新后的单元格状态
C
t
C_t
Ct?tanh
激活函数之后,
o
t
o_t
ot? 与更新后的单元状态
C
t
C_t
Ct? 进行逐元素相乘,得到新的隐藏状态
h
t
h_t
ht?构建、编译并训练 LSTM
:
# 输入层不需要预先指定序列长度,因此我们使用 None 作为占位符
inputs = layers.Input(shape=(None,), dtype="int32")
# 嵌入层需要两个参数,词汇表的大小( 10,000 个标记)和嵌入向量的维度 (100)
x = layers.Embedding(VOCAB_SIZE, EMBEDDING_DIM)(inputs)
# LSTM 层需要指定隐藏向量的维度 (128),我们还要返回完整的隐藏状态序列,而不仅仅是最后一个时刻的隐藏状态
x = layers.LSTM(N_UNITS, return_sequences=True)(x)
# 使用全连接层将每个时间步的隐藏状态转换为下一个符号的概率向量
outputs = layers.Dense(VOCAB_SIZE, activation="softmax")(x)
# 整个模型根据输入符号序列预测下一个符号,对序列中的每个符号都执行此操作
lstm = models.Model(inputs, outputs)
print(lstm.summary())
loss_fn = losses.SparseCategoricalCrossentropy()
# 使用 SparseCategoricalCrossentropy 损失函数编译模型,分类交叉熵相同,但其在标签为整数而不是独热编码向量时使用
lstm.compile("adam", loss_fn)
# Tokenize starting prompt
text_generator = TextGenerator(vocab)
# 在训练数据集上拟合模型
lstm.fit(train_ds, epochs=EPOCHS,)
在下图中,可以看到 LSTM
训练过程中随着损失的下降,模型的输出将变得更加合理。
编译并训练 LSTM
模型后,可以使用该模型生成长文本字符串:
神经网络会输出一组可供采样的每个单词的概率分布,并从中进行采样。因此,此文本生成过程是随机性的,而不是确定性。此外,我们还可以引入一个温度参数来调整采样过程的确定性程度。
温度参数
当温度参数接近 0
时,采样过程更加确定性(即最高概率的单词最有可能被选择),而温度参数为 1
意味着每个单词都按模型输出的概率进行选择。
创建一个回调函数,以用于在每个训练 epoch
结束时生成文本:
# Create a TextGenerator checkpoint
class TextGenerator(callbacks.Callback):
def __init__(self, index_to_word, top_k=10):
self.index_to_word = index_to_word
# 创建一个逆词汇映射(从单词到符号的映射)
self.word_to_index = {word: index for index, word in enumerate(index_to_word)}
def sample_from(self, probs, temperature):
# 函数使用一个温度参数缩放因子来更新概率
probs = probs ** (1 / temperature)
probs = probs / np.sum(probs)
return np.random.choice(len(probs), p=probs), probs
def generate(self, start_prompt, max_tokens, temperature):
# 种子文本是提供给模型开始生成过程的单词字符串,用于启动生成过程。这些单词首先被转换为一个符号列表
start_tokens = [
self.word_to_index.get(x, 1) for x in start_prompt.split()
]
sample_token = None
info = []
# 序列生成直到达到最大符号长度或者生成一个停止标记 (0) 为止
while len(start_tokens) < max_tokens and sample_token != 0: # <4>
x = np.array([start_tokens])
# 模型输出输入序列中下一个单词的概率
y = self.model.predict(x, verbose=0)
# 概率通过采样器传递,根据温度参数 temperature 输出下一个单词
sample_token, probs = self.sample_from(y[0][-1], temperature)
info.append({"prompt": start_prompt, "word_probs": probs})
# 将新单词追加到种子文本末尾中,准备进行生成过程的下一次迭代
start_tokens.append(sample_token)
start_prompt = start_prompt + " " + self.index_to_word[sample_token]
print(f"\ngenerated text:\n{start_prompt}\n")
return info
def on_epoch_end(self, epoch, logs=None):
self.generate("recipe for", max_tokens=100, temperature=1.0)
接下来,使用两个不同的温度参数查看生成的实际运行情况。
关于这两个段落需要注意以下几点。首先,它们在风格上都与原始训练集中的食谱相似。它们都以一个食谱标题开头,并包含正确的语法结构。区别在于,在温度参数为 1.0
的情况下生成的文本更加大胆,因此比温度参数为 0.2
的生成结果准确性较差。使用温度参数为 1.0
生成多个样本会生成多个不同结果,因为模型是从具有更大方差的概率分布中进行采样。
为了证明这一点,下图展示了对于各种序列来说,下一个出现概率最高的前 5
个单词。
该模型能够在多个上下文中生成下一个最可能出现的单词的分布。例如,即使我们从未告知模型有关名词、动词、形容词和介词等词性的信息,通常它也能够将单词按照词性分类,而且还能按照正确的语法使用这些单词。
此外,模型能够根据给定标题选择一个合适的动词作为食谱说明的开头。对于烤蔬菜,它最有可能选择的动词可能是预热、准备、加热、放置或混合,而对于冰淇淋,它最有可能选择的动词可能是添加、混合、搅拌和混合。这表明模型具有一定能力的上下文理解能力,能够根据配料区分食谱之间的差异。
同时还需要注意,在温度参数为 0.2
的生成示例中,更倾向于选择概率较高的单词,这就是为什么当温度参数较低时,生成的多样性通常较小的原因。
虽然基本 LSTM
模型在生成逼真文本方面有较好性能,但显然它仍然难以理解所生成词汇的一些语义含义。例如,引入了不太可能搭配在一起的配料(例如,酸味的日式土豆、核桃屑和水果冰)。在某些情况下,这可能是有趣的,例如,希望 LST
M生成有趣而独特的词语组合,但在大多数情况下,我们需要模型对单词的分组方式有更深入的理解。
在本节中,我们使用 Keras
构建了自回归模型——长短期记忆网络 (Long Short-Term Memory Network
, LSTM
),用于生成逼真的食谱文本,并了解如何通过调整采样过程的温度参数来增加或减少输出的随机性。
AIGC实战——生成模型简介
AIGC实战——深度学习 (Deep Learning, DL)
AIGC实战——卷积神经网络(Convolutional Neural Network, CNN)
AIGC实战——自编码器(Autoencoder)
AIGC实战——变分自编码器(Variational Autoencoder, VAE)
AIGC实战——使用变分自编码器生成面部图像
AIGC实战——生成对抗网络(Generative Adversarial Network, GAN)
AIGC实战——WGAN(Wasserstein GAN)
AIGC实战——条件生成对抗网络(Conditional Generative Adversarial Net, CGAN)