百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程网 > 正文

PyTorch深度学习框架基础——实现循环神经网络,并解析

yuyutoo 2025-03-06 21:01 12 浏览 0 评论

使用PyTorch实现一个简单的循环神经网络(Recurrent Neural Network, RNN),并对代码进行详细解析。

import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader, TensorDataset
import numpy as np

# 示例数据
X = np.array([
    [1, 2, 3, 4, 5],
    [5, 4, 3, 2, 1],
    [2, 3, 4, 5, 6],
    [6, 5, 4, 3, 2]
], dtype=np.float32)

y = np.array([0, 1, 0, 1], dtype=np.float32)

X_tensor = torch.tensor(X)
y_tensor = torch.tensor(y, dtype=torch.long)

dataset = TensorDataset(X_tensor, y_tensor)
dataloader = DataLoader(dataset, batch_size=2, shuffle=True)

class SimpleRNN(nn.Module):
    def __init__(self, input_size, hidden_size, num_layers, num_classes):
        super(SimpleRNN, self).__init__()
        self.hidden_size = hidden_size
        self.num_layers = num_layers
        
        self.embedding = nn.Embedding(input_size, hidden_size)
        self.lstm = nn.LSTM(hidden_size, hidden_size, num_layers, batch_first=True)
        self.fc = nn.Linear(hidden_size, num_classes)
        
    def forward(self, x):
        embedded = self.embedding(x)
        h0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(x.device)
        c0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(x.device)
        out, (hn, cn) = self.lstm(embedded, (h0, c0))
        out = out[:, -1, :]
        out = self.fc(out)
        return out

# 超参数
input_size = 10  # 词汇表大小
hidden_size = 128
num_layers = 2
num_classes = 2  # 二分类

model = SimpleRNN(input_size, hidden_size, num_layers, num_classes)

criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)

# 训练模型
num_epochs = 20
for epoch in range(num_epochs):
    for inputs, labels in dataloader:
        optimizer.zero_grad()
        outputs = model(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()
    
    print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

代码解析

数据准备部分

  • 数据创建:创建了一个简单的数据集,其中每个输入序列由5个整数组成,对应的标签为0或1。
  • 张量转换:将NumPy数组转换为PyTorch张量,以便进行后续的计算。
  • 数据集和数据加载器:使用TensorDatasetDataLoader将数据组织成批次,便于训练。

模型定义部分

  • 嵌入层(Embedding Layer)
    • nn.Embedding(input_size, hidden_size):将输入的整数(词汇表中的索引)转换为向量表示。这里,input_size是词汇表的大小,hidden_size是嵌入向量的维度。
  • RNN层(LSTM)
    • nn.LSTM(hidden_size, hidden_size, num_layers, batch_first=True):使用LSTM作为RNN的实现。hidden_size是LSTM隐藏层的维度,num_layers是LSTM层的数量,batch_first=True表示输入和输出的张量第一个维度是批次大小。
  • 全连接层(Fully Connected Layer)
    • nn.Linear(hidden_size, num_classes):将LSTM的输出映射到最终的分类结果。
  • 前向传播
    • 嵌入:将输入序列中的每个整数转换为向量。
    • 初始化隐藏状态和细胞状态:为LSTM初始化隐藏状态和细胞状态,均为全零张量。
    • LSTM前向传播:将嵌入后的序列输入到LSTM中,得到输出和最终的隐藏状态。
    • 取最后一个时间步的输出:由于我们关注的是整个序列的表示,因此取LSTM输出的最后一个时间步的输出。
    • 全连接层:将LSTM的输出通过全连接层,得到最终的分类结果。

训练部分

  • 损失函数:使用交叉熵损失(nn.CrossEntropyLoss)进行分类任务的损失计算。
  • 优化器:使用Adam优化器(optim.Adam)进行参数更新。
  • 训练循环:遍历每个批次的数据。前向传播计算输出和损失。反向传播计算梯度。更新模型参数。每经过一个epoch,打印当前的损失。

注意事项

  • 数据预处理:在实际应用中,输入数据需要进行适当的预处理,例如词汇表构建、序列填充等。
  • 超参数调整:隐藏层大小、层数、学习率等超参数对模型性能有重要影响,需要根据具体任务进行调整。
  • 模型评估:训练完成后,需要在验证集或测试集上评估模型性能,以防止过拟合。

相关推荐

《保卫萝卜2》安卓版大更新 壕礼助阵世界杯

《保卫萝卜2:极地冒险》本周不仅迎来了安卓版本的重大更新,同时将于7月4日本周五,带来“保卫萝卜2”安卓版本世界杯主题活动的火热开启,游戏更新与活动两不误。一定有玩家会问,激萌塔防到底进行了哪些更新?...

儿童手工折纸:胡萝卜,和孩子一起边玩边学carrot

1、准备两张正方形纸,一橙一绿,对折出折痕。2、橙色沿其中一条对角线如图折两三角形。3、把上面三角折平,如图。4、绿色纸折成三角形。5、再折成更小的三角形。6、再折三分之一如图。7、打开折纸,压平中间...

《饥荒》食物代码有哪些(饥荒最新版代码总汇食物篇)

饥荒游戏中,玩家们需要获取各种素材与食物,进行生存。玩家们在游戏中,进入游戏后按“~”键调出控制台使用代码,可以直接获得素材。比如胡萝卜的代码是carrot,玉米的代码是corn,南瓜的代码是pump...

Skyscanner:帮你找到最便宜机票 订票不求人

你喜欢旅行吗?在合适的时间、合适的目的地,来一场说走就走的旅行?机票就是关键!Skyscanner这款免费的手机应用,在几秒钟内比较全球600多家航空公司的航班安排、价格和时刻表,帮你节省金钱和时间。...

小猪佩奇第二季50(小猪佩奇第二季英文版免费观看)

Sleepover过夜Itisnighttime.现在是晚上。...

我在民政局工作的那些事儿(二)(我在民政局上班)

时间到了1997年的秋天,经过一年多的学习和实践,我在处理结婚和离婚的事情更加的娴熟,也获得了领导的器重,所以我在处理平时的工作时也能得心应手。这一天我正在离婚处和同事闲聊,因为离婚处几天也遇不到人,...

夏天来了就你还没瘦?教你不节食13天瘦10斤的哥本哈根减肥法……

好看的人都关注江苏气象啦夏天很快就要来了你是否和苏苏一样身上的肉肉还没做好准备?真是一个悲伤的故事……下面这个哥本哈根减肥法苏苏的同事亲测有效不节食不运动不反弹大家快来一起试试看吧~DAY1...

Pursuing global modernization for peaceful development, mutually beneficial cooperation, prosperity for all

AlocalworkeroperatesequipmentintheChina-EgyptTEDASuezEconomicandTradeCooperationZonei...

Centuries-old tea road regains glory as Belt and Road cooperation deepens

FUZHOU/ST.PETERSBURG,Oct.2(Xinhua)--NestledinthepicturesqueWuyiMountainsinsoutheastChi...

15 THE NUTCRACKERS OF NUTCRACKER LODGE (CONTINUED)胡桃夹子小屋里的胡桃夹子(续篇)

...

AI模型部署:Triton Inference Server模型部署框架简介和快速实践

关键词:...

Ftrace function graph简介(flat function)

引言由于android开发的需要与systrace的普及,现在大家在进行性能与功耗分析时候,经常会用到systrace跟pefetto.而systrace就是基于内核的eventtracing来实...

JAVA历史版本(java各版本)

JAVA发展1.1996年1月23日JDK1.0Java虚拟机SunClassicVM,Applet,AWT2.1997年2月19日JDK1.1JAR文件格式,JDBC,JavaBea...

java 进化史1(java的进阶之路)

java从1996年1月第一个版本诞生,到2022年3月最新的java18,已经经历了27年,整整18个大的版本。很久之前有人就说java要被淘汰,但是java活到现在依然坚挺,不知道java还能活...

学习java第二天(java学完后能做什么)

#java知识#...

取消回复欢迎 发表评论: