欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

Pytorch学习——LSTM与LSTMCell

程序员文章站 2024-03-24 23:49:04
...

nn.LSTM()

  • 该模块一次构造完若干层的LSTM。

  • 构造方法

model = nn.LSTM(2, 2, 10, batch_first=True)
"""参数说明:
  - feature_len:特征的维度
  - hidden_len:隐藏层的个数
  - layer_num:每个时间步所对应的模型层数
  - batch_first:用来指示数据应该以什么形式来给,默认为False,数据形状(seq_len,batch,feature_len);否则形状为(batch,seq_len,feature_len)
"""
  • 前向传播
output, (h, c) = model(x, state)
"""参数说明:
  - x:输入特征
  - state:隐藏层和细胞特征
  - output:模型最后一层的输出
  - h:最后一步所有层的隐藏状态
  - c:最后一部所有层的细胞状态"""
  • 举例
import torch
from torch import nn

# 如可以解释成:4层的LSTM,输入的每个词用1维向量表示,隐藏单元和记忆单元的尺寸是20
lstm = nn.LSTM(input_size=1, hidden_size=20, num_layers=4)

# 输入的x:其中batch是3可表示有三句话,seq_len=10表示每句话10个单词,feature_len=1表示每个单词表示为长1的向量
x = torch.randn(10, 3, 1)

# 前向计算过程,这里不传入h_0和C_0则会默认初始化
out, (h, c) = lstm(x)
print(out.shape)  # torch.Size([10, 3, 20]) 最后一层10个时刻的输出
print(h.shape)  # torch.Size([4, 3, 20]) 隐藏单元
print(c.shape)  # torch.Size([4, 3, 20]) 记忆单元

注意:最终的输出out同样是在所有时刻最后一层上的输出(特别注意,LSTM中的输出是 h不是 C),因此是将feature_len规约成了hidden_len那么长,所以其shape是 [seq_len,batch,hidden_len]。

nn.LSTMCell()

  • 该模块构建LSTM中的一个Cell,同一层会共享这一个Cell,但要手动处理每个时刻的迭代计算过程。如果要建立多层的LSTM,就要建立多个nn.LSTMCell。
  • 构造函数
# 这只是一个计算单元,故不涉及层数。
lstm_c = nn.LSTMCell(10, 20)
"""参数说明:
  - feature_len:特征维度
  - hidden_len:隐藏层维度"""
  • 前向传播
# rnn的前向传播
ht​=rnncell(x,ht−1)
# lstm
# ht​,Ct​=lstmcell(xt​,(ht−1​,Ct−1​))
input = torch.randn(3, 10)
hx = torch.randn(3, 20)
cx = torch.randn(3, 20)
output = []
for i in range():
    hx, cx = lstm_c(input[i], (hx, cx))
    output.append(hx)
"""
注意:输入xt只是t时刻的输入,不涉及seq_len,所以其shape是 [batch,feature]。
而ht​和Ct​在这里只是t时刻本层的隐藏单元和记忆单元,不涉及num_layers,所以其shape是[batch,hidden_len]。
"""
  • 一层举例
import torch
from torch import nn

# 一层的LSTM计算单元,输入的feature_len=100,隐藏单元和记忆单元hidden_len=20
cell = nn.LSTMCell(input_size=100, hidden_size=20)

# 初始化隐藏单元h和记忆单元C,取batch=3
h = torch.zeros(3, 20)
C = torch.zeros(3, 20)

# 这里是seq_len=10个时刻的输入,每个时刻shape都是[batch,feature_len]
xs = [torch.randn(3, 100) for _ in range(10)]

# 对每个时刻,传入输入x_t和上个时刻的h_{t-1}和C_{t-1}
for xt in xs:
    h, C = cell(xt, (h, C))

print(h.shape)  # torch.Size([3, 20])
print(C.shape)  # torch.Size([3, 20])
  • 两层举例
import torch
from torch import nn

# 输入的feature_len=100,变到该层隐藏单元和记忆单元hidden_len=30
cell_l0 = nn.LSTMCell(input_size=100, hidden_size=30)
# hidden_len从l0层的30变到这一层的20
cell_l1 = nn.LSTMCell(input_size=30, hidden_size=20)

# 分别初始化l0层和l1层的隐藏单元h和记忆单元C,取batch=3
# 注意l0层的hidden_len=30
h_l0 = torch.zeros(3, 30)
C_l0 = torch.zeros(3, 30)
# 而到l1层之后hidden_len=20
h_l1 = torch.zeros(3, 20)
C_l1 = torch.zeros(3, 20)

# 这里是seq_len=10个时刻的输入,每个时刻shape都是[batch,feature_len]
xs = [torch.randn(3, 100) for _ in range(10)]

# 对每个时刻,从下到上计算本时刻的所有层
for xt in xs:
    h_l0, C_l0 = cell_l0(xt, (h_l0, C_l0))  # l0层直接接受xt输入
    h_l1, C_l1 = cell_l1(h_l0, (h_l1, C_l1))  # l1层接受l0层的输出h为输入

# 最后shape是不变的
print(h_l0.shape)  # torch.Size([3, 30])
print(C_l0.shape)  # torch.Size([3, 30])
print(h_l1.shape)  # torch.Size([3, 20])
print(C_l1.shape)  # torch.Size([3, 20])

参考:https://blog.csdn.net/SHU15121856/article/details/104448734