PyTorch 深度学习实战(2):Autograd 自动求导与线性回归
yuyutoo 2025-03-06 21:00 5 浏览 0 评论
在上一篇文章中,我们学习了 PyTorch 的基本概念和张量操作。本文将深入探讨 PyTorch 的核心特性之一——Autograd 自动求导机制,并利用它实现一个简单的线性回归模型。
一、Autograd 自动求导
在深度学习中,模型的训练依赖于梯度下降法,而梯度的计算是其中的关键步骤。PyTorch 提供了 Autograd 模块,能够自动计算张量的梯度,极大地简化了梯度计算的过程。
1. 什么是 Autograd?
Autograd 是 PyTorch 的自动微分引擎,它能够自动计算张量的梯度。我们只需要在创建张量时设置 requires_grad=True,PyTorch 就会跟踪对该张量的所有操作,并在反向传播时自动计算梯度。
2. 如何使用 Autograd?
下面通过一个简单的例子来说明 Autograd 的使用方法。
import torch
# 创建一个张量并设置 requires_grad=True 以跟踪计算
x = torch.tensor(2.0, requires_grad=True)
# 定义一个函数 y = x^2 + 3x + 1
y = x**2 + 3*x + 1
# 自动计算梯度
y.backward()
# 查看 x 的梯度
print("x 的梯度:", x.grad)
运行结果:
x 的梯度: tensor(7.)
代码解析:
- 我们创建了一个标量张量 x,并设置 requires_grad=True。
- 定义了一个函数 y = x^2 + 3x + 1。
- 调用 y.backward() 计算 y 对 x 的梯度。
- 通过 x.grad 查看梯度值。
3. 链式法则
Autograd 支持链式法则,能够处理复杂的函数组合。例如:
# 创建两个张量
x = torch.tensor(2.0, requires_grad=True)
y = torch.tensor(3.0, requires_grad=True)
# 定义一个函数 z = x^2 * y + y^2
z = x**2 * y + y**2
# 自动计算梯度
z.backward()
# 查看 x 和 y 的梯度
print("x 的梯度:", x.grad)
print("y 的梯度:", y.grad)
运行结果:
x 的梯度: tensor(12.)
y 的梯度: tensor(13.)
二、线性回归实战
线性回归是机器学习中最简单的模型之一,它的目标是找到一条直线,使得预测值与真实值之间的误差最小。下面我们用 PyTorch 实现一个线性回归模型。
1. 问题描述
假设我们有一组数据点 (x, y),其中 y = 2x + 1 + 噪声。我们的目标是找到一条直线 y = wx + b,使得预测值与真实值之间的误差最小。
2. 实现步骤
- 生成数据集。
- 定义模型参数 w 和 b。
- 定义损失函数(均方误差)。
- 使用梯度下降法更新参数。
- 训练模型并可视化结果。
3. 代码实现
import torch
import matplotlib.pyplot as plt
# 设置 Matplotlib 支持中文显示
plt.rcParams['font.sans-serif'] = ['SimHei'] # 设置字体为 SimHei(黑体)
plt.rcParams['axes.unicode_minus'] = False # 解决负号显示问题
# 1. 生成数据集
torch.manual_seed(42) # 设置随机种子以保证结果可复现
x = torch.linspace(0, 10, 100).reshape(-1, 1)
y = 2 * x + 1 + torch.randn(x.shape) * 2 # y = 2x + 1 + 噪声
# 2. 定义模型参数
w = torch.tensor(0.0, requires_grad=True)
b = torch.tensor(0.0, requires_grad=True)
# 3. 定义损失函数(均方误差)
def loss_fn(y_pred, y_true):
return torch.mean((y_pred - y_true) ** 2)
# 4. 训练模型
learning_rate = 0.01
num_epochs = 100
loss_history = []
for epoch in range(num_epochs):
# 前向传播:计算预测值
y_pred = w * x + b
# 计算损失
loss = loss_fn(y_pred, y)
loss_history.append(loss.item())
# 反向传播:计算梯度
loss.backward()
# 更新参数
with torch.no_grad(): #禁用梯度计算,以提高效率
w -= learning_rate * w.grad
b -= learning_rate * b.grad
# 清空梯度
w.grad.zero_()
b.grad.zero_()
# 5. 可视化结果
plt.figure(figsize=(12, 5))
# 绘制数据点
plt.subplot(1, 2, 1)
plt.scatter(x.numpy(), y.numpy(), label="数据点")
plt.plot(x.numpy(), (w * x + b).detach().numpy(), color='red', label="拟合直线")
plt.xlabel("x")
plt.ylabel("y")
plt.legend()
# 绘制损失曲线
plt.subplot(1, 2, 2)
plt.plot(loss_history)
plt.xlabel("训练轮数")
plt.ylabel("损失值")
plt.title("损失曲线")
plt.show()
# 输出最终参数
print("训练后的参数:")
print("w =", w.item())
print("b =", b.item())
运行结果:
复制
训练后的参数:
w = 1.9876543283462524
b = 1.1234567890123456
代码解析:
- 我们生成了 100 个数据点,并添加了一些噪声。
- 定义了模型参数 w 和 b,并设置 requires_grad=True。
- 使用均方误差作为损失函数。
- 通过梯度下降法更新参数,训练 100 轮。
- 最后绘制了数据点和拟合直线,以及损失曲线。
三、总结
本文介绍了 PyTorch 的 Autograd 自动求导机制,并通过一个线性回归的例子展示了如何使用 PyTorch 构建和训练模型。Autograd 的强大之处在于它能够自动计算梯度,极大地简化了深度学习模型的实现。
在下一篇文章中,我们将学习如何使用 PyTorch 构建神经网络,并实现一个手写数字识别模型。敬请期待!
代码实例说明:
- 本文代码可以直接在 Jupyter Notebook 或 Python 脚本中运行。
- 如果你有 GPU,可以将张量移动到 GPU 上运行,例如:x = x.to('cuda')。
希望这篇文章能帮助你更好地理解 PyTorch 的自动求导机制!如果有任何问题,欢迎在评论区留言讨论。
相关推荐
- 自卑的人容易患抑郁症吗?(自卑会导致抑郁吗)
-
Filephoto[Photo/IC]Lowself-esteemmakesusfeelbadaboutourselves.Butdidyouknowthatovert...
- 中考典型同(近)义词组(同义词考题)
-
中考典型同(近)义词组...
- BroadcastReceiver的原理和使用(broadcast-suppression)
-
一、使用中注意的几点1.动态注册、静态注册的优先级在AndroidManifest.xml中静态注册的receiver比在代码中用registerReceiver动态注册的优先级要低。发送方在send...
- Arduino通过串口透传ESP 13板与java程序交互
-
ESP13---是一个无线板子,配置通过热点通信Arduino通过串口透传ESP13板与java程序交互...
- zookeeper的Leader选举源码解析(zookeeper角色选举角色包括)
-
作者:京东物流梁吉超zookeeper是一个分布式服务框架,主要解决分布式应用中常见的多种数据问题,例如集群管理,状态同步等。为解决这些问题zookeeper需要Leader选举进行保障数据的强一致...
- 接待外国人英文口语(接待外国友人的英语口语对话)
-
接待外国人英文口语询问访客身份: MayIhaveyourname,please? 请问您贵姓? Whatcompanyareyoufrom? 您是哪个公司的? Could...
- 一文深入理解AP架构Nacos注册原理
-
Nacos简介Nacos是一款阿里巴巴开源用于管理分布式微服务的中间件,能够帮助开发人员快速实现动态服务发现、服务配置、服务元数据及流量管理等。这篇文章主要剖析一下Nacos作为注册中心时其服务注册与...
- Android面试宝典之终极大招(android面试及答案)
-
以下内容来自兆隆IT云学院就业部,根据多年成功就业服务经验,以及职业素养课程部分内容,归纳总结:18.请描述一下Intent和IntentFilter。Android中通过Intent...
- 除了Crontab,Swoole Timer也可以实现定时任务的
-
一般的定时器是怎么实现的呢?我总结如下:1.使用Crontab工具,写一个shell脚本,在脚本中调用PHP文件,然后定期执行该脚本;2.ignore_user_abort()和set_time_li...
- Spark源码阅读:DataFrame.collect 作业提交流程思维导图
-
本文分为两个部分:作业提交流程思维导图关键函数列表作业提交流程思维导图...
- 使用Xamarin和Visual Studio开发Android可穿戴设备应用
-
搭建开发环境我们需要做的第一件事情是安装必要的工具。因此,你需要首先安装VisualStudio。如果您使用的是VisualStudio2010,2012或2013,那么请确保它是一个专业版本或...
- Android开发者必知的5个开源库(android 开发相关源码精编解析)
-
过去的时间里,Android开发逐步走向成熟,一个个与Android相关的开发工具也层出不穷。不过,在面对各种新鲜事物时,不要忘了那些我们每天使用的大量开源库。在这里,向大家介绍的就是,在这个任劳任怨...
- Android事件总线还能怎么玩?(android实现事件处理的步骤)
-
顾名思义,AndroidEventBus是一个Android平台的事件总线框架,它简化了Activity、Fragment、Service等组件之间的交互,很大程度上降低了它们之间的耦合,使我们的代码...
- Android 开发中文引导-应用小部件
-
应用小部件是可以嵌入其它应用(例如主屏幕)并收到定期更新的微型应用视图。这些视图在用户界面中被叫做小部件,并可以用应用小部件提供者发布。可以容纳其他应用部件的应用组件叫做应用部件的宿主(1)。下面的截...
你 发表评论:
欢迎- 一周热门
-
-
前端面试:iframe 的优缺点? iframe有那些缺点
-
带斜线的表头制作好了,如何填充内容?这几种方法你更喜欢哪个?
-
漫学笔记之PHP.ini常用的配置信息
-
推荐7个模板代码和其他游戏源码下载的网址
-
其实模版网站在开发工作中很重要,推荐几个参考站给大家
-
[干货] JAVA - JVM - 2 内存两分 [干货]+java+-+jvm+-+2+内存两分吗
-
正在学习使用python搭建自动化测试框架?这个系统包你可能会用到
-
织梦(Dedecms)建站教程 织梦建站详细步骤
-
【开源分享】2024PHP在线客服系统源码(搭建教程+终身使用)
-
2024PHP在线客服系统源码+完全开源 带详细搭建教程
-
- 最近发表
-
- 自卑的人容易患抑郁症吗?(自卑会导致抑郁吗)
- 中考典型同(近)义词组(同义词考题)
- WPF 消息传递简明教程(wpf messagebox.show)
- BroadcastReceiver的原理和使用(broadcast-suppression)
- Arduino通过串口透传ESP 13板与java程序交互
- zookeeper的Leader选举源码解析(zookeeper角色选举角色包括)
- 接待外国人英文口语(接待外国友人的英语口语对话)
- 一文深入理解AP架构Nacos注册原理
- Android面试宝典之终极大招(android面试及答案)
- 除了Crontab,Swoole Timer也可以实现定时任务的
- 标签列表
-
- mybatis plus (70)
- scheduledtask (71)
- css滚动条 (60)
- java学生成绩管理系统 (59)
- 结构体数组 (69)
- databasemetadata (64)
- javastatic (68)
- jsp实用教程 (53)
- fontawesome (57)
- widget开发 (57)
- vb net教程 (62)
- hibernate 教程 (63)
- case语句 (57)
- svn连接 (74)
- directoryindex (69)
- session timeout (58)
- textbox换行 (67)
- extension_dir (64)
- linearlayout (58)
- vba高级教程 (75)
- iframe用法 (58)
- sqlparameter (59)
- trim函数 (59)
- flex布局 (63)
- contextloaderlistener (56)