百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程网 > 正文

PyTorch 深度学习实战(3):神经网络基础与手写数字识别

yuyutoo 2025-03-06 21:00 5 浏览 0 评论



在上一篇文章中,我们学习了 PyTorch 的自动求导机制(Autograd),并实现了一个简单的线性回归模型。本文将深入探讨神经网络的基本概念,并使用 PyTorch 构建一个简单的神经网络来解决经典的 手写数字识别 问题。


一、神经网络基础

神经网络是深度学习的核心,它由多个层(Layer)组成,每一层包含若干个神经元(Neuron)。神经元通过权重(Weight)和偏置(Bias)对输入数据进行线性变换,并通过激活函数(Activation Function)引入非线性。

1. 神经网络的结构

一个典型的神经网络包括以下部分:

  • 输入层:接收输入数据。
  • 隐藏层:对数据进行非线性变换。
  • 输出层:输出最终的预测结果。

2. 激活函数

激活函数是神经网络中引入非线性的关键。常用的激活函数包括:

  • ReLU(Rectified Linear Unit):ReLU(x) = max(0, x)
  • Sigmoid:Sigmoid(x) = 1 / (1 + exp(-x))
  • Tanh:Tanh(x) = (exp(x) - exp(-x)) / (exp(x) + exp(-x))

3. 损失函数

损失函数用于衡量模型预测值与真实值之间的差距。常用的损失函数包括:

  • 均方误差(MSE):用于回归问题。
  • 交叉熵损失(Cross-Entropy Loss):用于分类问题。

4. 优化器

优化器用于更新模型参数以最小化损失函数。常用的优化器包括:

  • 随机梯度下降(SGD)
  • Adam

二、手写数字识别实战

手写数字识别是深度学习中的经典问题,我们将使用 MNIST 数据集 来训练一个简单的神经网络模型。

1. 问题描述

MNIST 数据集包含 60,000 张训练图像和 10,000 张测试图像,每张图像是一个 28x28 的灰度图,表示 0 到 9 的手写数字。我们的目标是构建一个神经网络模型,能够正确识别这些手写数字。

2. 实现步骤

  1. 加载和预处理数据。
  2. 定义神经网络模型。
  3. 定义损失函数和优化器。
  4. 训练模型。
  5. 测试模型并评估性能。

3. 代码实现

import torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets, transforms
import matplotlib.pyplot as plt

# 设置 Matplotlib 支持中文显示
plt.rcParams['font.sans-serif'] = ['SimHei']  # 设置字体为 SimHei(黑体)
plt.rcParams['axes.unicode_minus'] = False  # 解决负号显示问题

# 1. 加载和预处理数据
transform = transforms.Compose([
    transforms.ToTensor(),  # 将图像转换为张量
    transforms.Normalize((0.1307,), (0.3081,))  # 标准化
])

# 下载并加载训练集和测试集
train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
test_dataset = datasets.MNIST(root='./data', train=False, download=True, transform=transform)

train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=64, shuffle=True)
test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=64, shuffle=False)

# 2. 定义神经网络模型
class SimpleNN(nn.Module):
    def __init__(self):
        super(SimpleNN, self).__init__()
        self.fc1 = nn.Linear(28 * 28, 128)  # 全连接层,输入 28x28,输出 128
        self.fc2 = nn.Linear(128, 64)  # 全连接层,输入 128,输出 64
        self.fc3 = nn.Linear(64, 10)  # 全连接层,输入 64,输出 10(10 个类别)

    def forward(self, x):
        x = x.view(-1, 28 * 28)  # 将图像展平为一维向量
        x = torch.relu(self.fc1(x))  # 第一层 + ReLU 激活
        x = torch.relu(self.fc2(x))  # 第二层 + ReLU 激活
        x = self.fc3(x)  # 输出层
        return x

model = SimpleNN()

# 3. 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()  # 交叉熵损失
optimizer = optim.Adam(model.parameters(), lr=0.001)  # Adam 优化器

# 4. 训练模型
num_epochs = 5
loss_history = []

for epoch in range(num_epochs):
    for i, (images, labels) in enumerate(train_loader):
        # 前向传播
        outputs = model(images)
        loss = criterion(outputs, labels)
        
        # 反向传播
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        
        # 记录损失
        if (i + 1) % 100 == 0:
            loss_history.append(loss.item())
            print(f"Epoch [{epoch + 1}/{num_epochs}], Step [{i + 1}/{len(train_loader)}], Loss: {loss.item():.4f}")

# 5. 测试模型
model.eval()  # 设置模型为评估模式
correct = 0
total = 0

with torch.no_grad():
    for images, labels in test_loader:
        outputs = model(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

print(f"测试集准确率: {100 * correct / total:.2f}%")

# 6. 可视化损失曲线
plt.plot(loss_history)
plt.xlabel("训练步数")
plt.ylabel("损失值")
plt.title("训练损失曲线")
plt.show()

三、代码解析

1.数据加载与预处理:

  • 使用 torchvision.datasets.MNIST 加载 MNIST 数据集。
  • 使用 transforms.ToTensor() 将图像转换为张量,并进行标准化。

2.神经网络模型:

  • 定义了一个简单的全连接神经网络 SimpleNN,包含两个隐藏层和一个输出层。
  • 使用 ReLU 作为激活函数。

3.训练过程:

  • 使用交叉熵损失函数和 Adam 优化器。
  • 训练 5 个 epoch,并记录损失值。

4.测试过程:

  • 在测试集上评估模型性能,计算准确率。

5.可视化:

  • 绘制训练损失曲线。

四、运行结果

运行上述代码后,你将看到以下输出:

  1. 训练过程中每 100 步打印一次损失值。
  2. 测试集准确率(通常在 95% 以上)。
  3. 训练损失曲线图。

五、总结

本文介绍了神经网络的基本概念,并使用 PyTorch 实现了一个简单的手写数字识别模型。通过这个例子,我们学习了如何定义神经网络、加载数据、训练模型以及评估性能。

在下一篇文章中,我们将学习如何使用卷积神经网络(CNN)来进一步提升手写数字识别的性能。敬请期待!


代码实例说明:

  • 本文代码可以直接在 Jupyter Notebook 或 Python 脚本中运行。
  • 如果你有 GPU,可以将模型和数据移动到 GPU 上运行,例如:model = model.to('cuda'),images = images.to('cuda')。

希望这篇文章能帮助你更好地理解神经网络的基础知识!如果有任何问题,欢迎在评论区留言讨论。

相关推荐

自卑的人容易患抑郁症吗?(自卑会导致抑郁吗)

Filephoto[Photo/IC]Lowself-esteemmakesusfeelbadaboutourselves.Butdidyouknowthatovert...

中考典型同(近)义词组(同义词考题)

中考典型同(近)义词组...

WPF 消息传递简明教程(wpf messagebox.show)

...

BroadcastReceiver的原理和使用(broadcast-suppression)

一、使用中注意的几点1.动态注册、静态注册的优先级在AndroidManifest.xml中静态注册的receiver比在代码中用registerReceiver动态注册的优先级要低。发送方在send...

Arduino通过串口透传ESP 13板与java程序交互

ESP13---是一个无线板子,配置通过热点通信Arduino通过串口透传ESP13板与java程序交互...

zookeeper的Leader选举源码解析(zookeeper角色选举角色包括)

作者:京东物流梁吉超zookeeper是一个分布式服务框架,主要解决分布式应用中常见的多种数据问题,例如集群管理,状态同步等。为解决这些问题zookeeper需要Leader选举进行保障数据的强一致...

接待外国人英文口语(接待外国友人的英语口语对话)

接待外国人英文口语询问访客身份:  MayIhaveyourname,please?  请问您贵姓?  Whatcompanyareyoufrom?  您是哪个公司的?  Could...

一文深入理解AP架构Nacos注册原理

Nacos简介Nacos是一款阿里巴巴开源用于管理分布式微服务的中间件,能够帮助开发人员快速实现动态服务发现、服务配置、服务元数据及流量管理等。这篇文章主要剖析一下Nacos作为注册中心时其服务注册与...

Android面试宝典之终极大招(android面试及答案)

以下内容来自兆隆IT云学院就业部,根据多年成功就业服务经验,以及职业素养课程部分内容,归纳总结:18.请描述一下Intent和IntentFilter。Android中通过Intent...

除了Crontab,Swoole Timer也可以实现定时任务的

一般的定时器是怎么实现的呢?我总结如下:1.使用Crontab工具,写一个shell脚本,在脚本中调用PHP文件,然后定期执行该脚本;2.ignore_user_abort()和set_time_li...

Spark源码阅读:DataFrame.collect 作业提交流程思维导图

本文分为两个部分:作业提交流程思维导图关键函数列表作业提交流程思维导图...

使用Xamarin和Visual Studio开发Android可穿戴设备应用

搭建开发环境我们需要做的第一件事情是安装必要的工具。因此,你需要首先安装VisualStudio。如果您使用的是VisualStudio2010,2012或2013,那么请确保它是一个专业版本或...

Android开发者必知的5个开源库(android 开发相关源码精编解析)

过去的时间里,Android开发逐步走向成熟,一个个与Android相关的开发工具也层出不穷。不过,在面对各种新鲜事物时,不要忘了那些我们每天使用的大量开源库。在这里,向大家介绍的就是,在这个任劳任怨...

Android事件总线还能怎么玩?(android实现事件处理的步骤)

顾名思义,AndroidEventBus是一个Android平台的事件总线框架,它简化了Activity、Fragment、Service等组件之间的交互,很大程度上降低了它们之间的耦合,使我们的代码...

Android 开发中文引导-应用小部件

应用小部件是可以嵌入其它应用(例如主屏幕)并收到定期更新的微型应用视图。这些视图在用户界面中被叫做小部件,并可以用应用小部件提供者发布。可以容纳其他应用部件的应用组件叫做应用部件的宿主(1)。下面的截...

取消回复欢迎 发表评论: