无监督学习 - 自编码器(Autoencoder)

发布时间:2024年01月22日

什么是机器学习

自编码器(Autoencoder)是一种神经网络架构,通常用于学习输入数据的压缩表示,然后再从该表示中重建原始数据。自编码器由编码器和解码器两部分组成,它们的目标是最小化输入数据和重建数据之间的差异。以下是一个简单的自编码器的详细教程。

步骤1: 准备工作

确保你的环境中已经安装了必要的库,比如NumPyTensorFlowPyTorch 等。这里我们以TensorFlow 为例。

pip install tensorflow

步骤2: 导入库

import numpy as np
import matplotlib.pyplot as plt
from tensorflow.keras.layers import Input, Dense
from tensorflow.keras.models import Model

步骤3: 准备数据

准备一个数据集,例如MNIST手写数字数据集。

from tensorflow.keras.datasets import mnist

(x_train, _), (x_test, _) = mnist.load_data()

# 归一化像素值到 [0, 1] 范围
x_train = x_train.astype('float32') / 255.0
x_test = x_test.astype('float32') / 255.0

# 将数据从二维图像转换为一维向量
x_train = x_train.reshape((len(x_train), np.prod(x_train.shape[1:])))
x_test = x_test.reshape((len(x_test), np.prod(x_test.shape[1:])))

步骤4: 构建自编码器模型

input_size = 784  # MNIST 图像的大小是 28x28
encoding_dim = 32  # 编码的维度,通常比输入数据小

# 编码器
input_img = Input(shape=(input_size,))
encoded = Dense(encoding_dim, activation='relu')(input_img)

# 解码器
decoded = Dense(input_size, activation='sigmoid')(encoded)

# 构建自编码器模型
autoencoder = Model(input_img, decoded)

# 编译模型
autoencoder.compile(optimizer='adam', loss='binary_crossentropy')

步骤5: 训练模型

autoencoder.fit(x_train, x_train,
                epochs=50,
                batch_size=256,
                shuffle=True,
                validation_data=(x_test, x_test))

步骤6: 使用自编码器进行预测和重建

# 对测试集进行预测
decoded_imgs = autoencoder.predict(x_test)

# 可视化原始图像和重建图像
n = 10  # 显示的图像数量
plt.figure(figsize=(20, 4))
for i in range(n):
    # 原始图像
    ax = plt.subplot(2, n, i + 1)
    plt.imshow(x_test[i].reshape(28, 28))
    plt.gray()
    ax.get_xaxis().set_visible(False)
    ax.get_yaxis().set_visible(False)

    # 重建图像
    ax = plt.subplot(2, n, i + 1 + n)
    plt.imshow(decoded_imgs[i].reshape(28, 28))
    plt.gray()
    ax.get_xaxis().set_visible(False)
    ax.get_yaxis().set_visible(False)

plt.show()

这就是一个简单的自编码器的实现和使用教程。你可以根据需要调整模型的参数,例如编码的维度、层数等。此外,你还可以尝试使用其他数据集和更复杂的网络结构。

文章来源:https://blog.csdn.net/galoiszhou/article/details/135741245
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。