Pytorch学习第二周--Day 12-13: 构建你的第一个神经网络

发布时间:2024年01月20日

Day 12-13: 构建你的第一个神经网络

在这两天里,我动手实践构建了我的第一个神经网络,目的是解决一个基本的分类问题。使用了两个主流的深度学习框架:PyTorch和TensorFlow,以对比和理解它们在神经网络构建方面的不同。

目标:构建一个全连接的神经网络来处理分类问题。

过程:

设计网络结构,包括输入层、若干隐藏层和输出层。
选择合适的激活函数,如ReLU。
定义损失函数和优化器,例如使用交叉熵损失和Adam优化器。
实现:

在PyTorch中,我定义了一个nn.Module类,通过定义forward方法来实现数据的前向传播。
在TensorFlow中,我使用Sequential API来构建模型,这是一种更简洁、更高级的方法。
以下是具体的实现代码:

PyTorch代码示例
import torch
import torch.nn as nn
import torch.optim as optim

定义一个全连接神经网络

class FullyConnectedNN(nn.Module):
def init(self):
super(FullyConnectedNN, self).init()
self.fc1 = nn.Linear(784, 128) # 假设输入是28x28图像,展平后的大小为784
self.relu = nn.ReLU()
self.fc2 = nn.Linear(128, 10) # 假设有10个类别

def forward(self, x):
    x = self.fc1(x)
    x = self.relu(x)
    x = self.fc2(x)
    return x

实例化模型

model = FullyConnectedNN()

定义损失函数和优化器

criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)

TensorFlow代码示例

import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense

定义一个全连接神经网络

model = Sequential([
Dense(128, activation=‘relu’, input_shape=(784,)), # 假设输入是28x28图像,展平后的大小为784
Dense(10, activation=‘softmax’) # 假设有10个类别
])

编译模型

model.compile(optimizer=‘adam’,
loss=‘sparse_categorical_crossentropy’,
metrics=[‘accuracy’])

在这两个实现中,我专注于构建一个相对简单的神经网络,适用于处理基本的分类问题。通过这个练习,我加深了对神经网络结构和深度学习框架的理解,并获得了实际操作的经验。

文章来源:https://blog.csdn.net/weixin_43456772/article/details/135663932
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。