当前位置: 代码迷 >> 综合 >> 循环神经网络原理 -- GRU、LSTM、深度循环神经网络、双向循环神经网络
  详细解决方案

循环神经网络原理 -- GRU、LSTM、深度循环神经网络、双向循环神经网络

热度:104   发布时间:2023-10-28 14:42:17.0

文章目录

  • 循环神经网络
  • 门控循环单元(GRU)
    • 门控循环单元
    • 重置门和更新门
    • 候选隐藏状态
    • 隐藏状态
    • 输出结果
  • 长短期记忆(LSTM)
    • 输入门、遗忘门和输出门
    • 候选记忆细胞
    • 记忆细胞
    • 隐藏状态
    • 输出结果
  • 深度循环神经网络
  • 双向循环神经网络

循环神经网络

在循环神经网络中输入数据是存在时间相关性的,也就是说,前一个时间点的数据会对后一时间点的数据产生影响。假设 Xt∈Rn×d\boldsymbol{X}_t \in \mathbb{R}^{n \times d}Xt?Rn×d 是序列中时间步 ttt 的小批量输入,Ht∈Rn×h\boldsymbol{H}_t \in \mathbb{R}^{n \times h}Ht?Rn×h 是该时间步的隐藏变量。与多层感知机不同的是,这里我们保存上一时间步的隐藏变量 Ht?1\boldsymbol{H}_{t-1}Ht?1?,并引入一个新的权重参数 Whh∈Rh×h\boldsymbol{W}_{hh} \in \mathbb{R}^{h \times h}Whh?Rh×h,该参数用来描述在当前时间步如何使用上一时间步的隐藏变量。具体来说,时间步 ttt 的隐藏变量的计算由当前时间步的输入和上一时间步的隐藏变量共同决定:

Ht=?(XtWxh+Ht?1Whh+bh).\boldsymbol{H}_t = \phi(\boldsymbol{X}_t \boldsymbol{W}_{xh} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hh} + \boldsymbol{b}_h).Ht?=?(Xt?Wxh?+Ht?1?Whh?+bh?).

与多层感知机相比,我们在这里添加了 Ht?1Whh\boldsymbol{H}_{t-1} \boldsymbol{W}_{hh}Ht?1?Whh? 一项。由上式中相邻时间步的隐藏变量 Ht\boldsymbol{H}_tHt?Ht?1\boldsymbol{H}_{t-1}Ht?1? 之间的关系可知,这里的隐藏变量能够捕捉截至当前时间步的序列的历史信息,就像是神经网络当前时间步的状态或记忆一样。因此,该隐藏变量也称为隐藏状态。隐藏状态中 XtWxh+Ht?1Whh\boldsymbol{X}_t \boldsymbol{W}_{xh} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hh}Xt?Wxh?+Ht?1?Whh? 的计算等价于 Xt\boldsymbol{X}_tXt?Ht?1\boldsymbol{H}_{t-1}Ht?1? 连结后的矩阵乘以Wxh\boldsymbol{W}_{xh}Wxh?Whh\boldsymbol{W}_{hh}Whh?连结后的矩阵。由于隐藏状态在当前时间步的定义使用了上一时间步的隐藏状态,上式的计算是循环的。使用循环计算的网络即循环神经网络(recurrent neural network)。

循环神经网络有很多种不同的构造方法。含上式所定义的隐藏状态的循环神经网络是极为常见的一种。在时间步 ttt,输出层的输出和多层感知机中的计算类似:

Ot=HtWhq+bq.\boldsymbol{O}_t = \boldsymbol{H}_t \boldsymbol{W}_{hq} + \boldsymbol{b}_q.Ot?=Ht?Whq?+bq?.

循环神经网络的参数包括隐藏层的权重 Wxh∈Rd×h\boldsymbol{W}_{xh} \in \mathbb{R}^{d \times h}Wxh?Rd×hWhh∈Rh×h\boldsymbol{W}_{hh} \in \mathbb{R}^{h \times h}Whh?Rh×h 和偏差 bh∈R1×h\boldsymbol{b}_h \in \mathbb{R}^{1 \times h}bh?R1×h,以及输出层的权重 Whq∈Rh×q\boldsymbol{W}_{hq} \in \mathbb{R}^{h \times q}Whq?Rh×q 和偏差 bq∈R1×q\boldsymbol{b}_q \in \mathbb{R}^{1 \times q}bq?R1×q。值得一提的是,即便在不同时间步,循环神经网络也始终使用这些模型参数。因此,循环神经网络模型参数的数量不随时间步的增加而增长。
在这里插入图片描述
上图展示了循环神经网络在3个相邻时间步的计算逻辑。在时间步 ttt,隐藏状态的计算可以看成是将输入 Xt\boldsymbol{X}_tXt? 和前一时间步隐藏状态 Ht?1\boldsymbol{H}_{t-1}Ht?1? 连结后输入一个激活函数为 ?\phi? 的全连接层。该全连接层的输出就是当前时间步的隐藏状态 Ht\boldsymbol{H}_tHt?,且模型参数为 Wxh\boldsymbol{W}_{xh}Wxh?Whh\boldsymbol{W}_{hh}Whh? 的连结,偏差为 bh\boldsymbol{b}_hbh?。当前时间步 ttt 的隐藏状态 Ht\boldsymbol{H}_tHt? 将参与下一个时间步 t+1t+1t+1 的隐藏状态 Ht+1\boldsymbol{H}_{t+1}Ht+1? 的计算,并输入到当前时间步的全连接输出层。

门控循环单元(GRU)

循环神经网络中如何通过时间反向传播?一文中介绍了循环神经网络中的梯度计算方法。我们发现,当时间步数较大或者时间步较小时,循环神经网络的梯度较容易出现衰减或爆炸。虽然裁剪梯度可以应对梯度爆炸,但无法解决梯度衰减的问题。通常由于这个原因,循环神经网络在实际中较难捕捉时间序列中时间步距离较大的依赖关系。

门控循环单元

门控循环神经网络(gated recurrent neural network)的提出,正是为了更好地捕捉时间序列中时间步距离较大的依赖关系。它通过可以学习的门来控制信息的流动。其中,门控循环单元(gated recurrent unit,GRU)是一种常用的门控循环神经网络。

重置门和更新门

如下图所示,门控循环单元中的重置门和更新门的输入均为当前时间步输入 Xt\boldsymbol{X}_tXt? 与上一时间步隐藏状态 Ht?1\boldsymbol{H}_{t-1}Ht?1?,输出由激活函数为 sigmoid 函数的全连接层计算得到。
在这里插入图片描述具体来说,假设样本数为 nnn、输入个数为 ddd(即每个样本包含的元素数,一般为词典大小)、隐藏单元个数为 hhh,给定时间步 ttt 的小批量输入 Xt∈Rn×d\boldsymbol{X}_t \in \mathbb{R}^{n \times d}Xt?Rn×d 和上一时间步隐藏状态 Ht?1∈Rn×h\boldsymbol{H}_{t-1} \in \mathbb{R}^{n \times h}Ht?1?Rn×h。重置门 Rt∈Rn×h\boldsymbol{R}_t \in \mathbb{R}^{n \times h}Rt?Rn×h 和更新门 Zt∈Rn×h\boldsymbol{Z}_t \in \mathbb{R}^{n \times h}Zt?Rn×h 的计算如下:

Rt=σ(XtWxr+Ht?1Whr+br)\boldsymbol{R}_t = \sigma(\boldsymbol{X}_t \boldsymbol{W}_{xr} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hr} + \boldsymbol{b}_r)Rt?=σ(Xt?Wxr?+Ht?1?Whr?+br?)
Zt=σ(XtWxz+Ht?1Whz+bz)\boldsymbol{Z}_t = \sigma(\boldsymbol{X}_t \boldsymbol{W}_{xz} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hz} + \boldsymbol{b}_z)Zt?=σ(Xt?Wxz?+Ht?1?Whz?+bz?)

其中 Wxr,Wxz∈Rd×h\boldsymbol{W}_{xr}, \boldsymbol{W}_{xz} \in \mathbb{R}^{d \times h}Wxr?,Wxz?Rd×hWhr,Whz∈Rh×h\boldsymbol{W}_{hr}, \boldsymbol{W}_{hz} \in \mathbb{R}^{h \times h}Whr?,Whz?Rh×h 是权重参数,br,bz∈R1×h\boldsymbol{b}_r, \boldsymbol{b}_z \in \mathbb{R}^{1 \times h}br?,bz?R1×h 是偏差参数。sigmoid 函数可以将元素的值变换到0和1之间。因此,重置门 Rt\boldsymbol{R}_tRt? 和更新门 Zt\boldsymbol{Z}_tZt? 中每个元素的值域都是[0,1][0, 1][0,1]

候选隐藏状态

接下来,门控循环单元将计算候选隐藏状态来辅助稍后的隐藏状态计算。如下图所示,我们将当前时间步重置门的输出与上一时间步隐藏状态做按元素乘法(符号为⊙\odot)。如果重置门中元素值接近0,那么意味着重置对应隐藏状态元素为0,即丢弃上一时间步的隐藏状态。如果元素值接近1,那么表示保留上一时间步的隐藏状态。然后,将按元素乘法的结果与当前时间步的输入连结,再通过含激活函数 tanh 的全连接层计算出候选隐藏状态,其所有元素的值域为[?1,1][-1, 1][?1,1]

具体来说,时间步 ttt 的候选隐藏状态 H~t∈Rn×h\tilde{\boldsymbol{H}}_t \in \mathbb{R}^{n \times h}H~t?Rn×h 的计算为:

H~t=tanh(XtWxh+(Rt⊙Ht?1)Whh+bh)\tilde{\boldsymbol{H}}_t = \text{tanh}(\boldsymbol{X}_t \boldsymbol{W}_{xh} + \left(\boldsymbol{R}_t \odot \boldsymbol{H}_{t-1}\right) \boldsymbol{W}_{hh} + \boldsymbol{b}_h)H~t?=tanh(Xt?Wxh?+(Rt?Ht?1?)Whh?+bh?)

其中 Wxh∈Rd×h\boldsymbol{W}_{xh} \in \mathbb{R}^{d \times h}Wxh?Rd×hWhh∈Rh×h\boldsymbol{W}_{hh} \in \mathbb{R}^{h \times h}Whh?Rh×h 是权重参数,bh∈R1×h\boldsymbol{b}_h \in \mathbb{R}^{1 \times h}bh?R1×h 是偏差参数。从上面这个公式可以看出,重置门控制了上一时间步的隐藏状态如何流入当前时间步的候选隐藏状态。而上一时间步的隐藏状态可能包含了时间序列截至上一时间步的全部历史信息。因此,重置门可以用来丢弃与预测无关的历史信息从而有助于捕捉时间序列里短期的依赖关系

隐藏状态

最后,时间步 ttt 的隐藏状态 Ht∈Rn×h\boldsymbol{H}_t \in \mathbb{R}^{n \times h}Ht?Rn×h 的计算使用当前时间步的更新门 Zt\boldsymbol{Z}_tZt? 来对上一时间步的隐藏状态 Ht?1\boldsymbol{H}_{t-1}Ht?1? 和当前时间步的候选隐藏状态 H~t\tilde{\boldsymbol{H}}_tH~t? 做组合:

Ht=Zt⊙Ht?1+(1?Zt)⊙H~t\boldsymbol{H}_t = \boldsymbol{Z}_t \odot \boldsymbol{H}_{t-1} + (1 - \boldsymbol{Z}_t) \odot \tilde{\boldsymbol{H}}_tHt?=Zt?Ht?1?+(1?Zt?)H~t?
在这里插入图片描述值得注意的是,更新门可以控制隐藏状态应该如何被包含当前时间步信息的候选隐藏状态所更新,如上图所示。假设更新门在时间步 t′t'ttttt′<tt' < tt<t)之间一直近似于1。那么,在时间步 t′t'tttt 之间的输入信息几乎没有流入时间步 ttt 的隐藏状态 Ht\boldsymbol{H}_tHt?。实际上,这可以看作是较早时刻的隐藏状态 Ht′?1\boldsymbol{H}_{t'-1}Ht?1? 一直通过时间保存并传递至当前时间步 ttt。这个设计可以应对循环神经网络中的梯度衰减问题,并更好地捕捉时间序列中时间步距离较大的依赖关系(即长期的依赖关系)。

输出结果

将上面得到的隐藏状态 HtH_tHt? 输入神经网络,得到结果 Yt∈Rn×q\boldsymbol{Y}_t \in \mathbb{R}^{n \times q}Yt?Rn×q
Yt=HtWhq+bq\boldsymbol{Y}_t = \boldsymbol{H}_t \boldsymbol{W}_{hq} + \boldsymbol{b}_qYt?=Ht?Whq?+bq?

总结来说:

  • 重置门有助于捕捉时间序列里短期的依赖关系;
  • 更新门有助于捕捉时间序列里长期的依赖关系。

长短期记忆(LSTM)

LSTM 中引入了3个门,即输入门(input gate)、遗忘门(forget gate)和输出门(output gate),以及与隐藏状态形状相同的记忆细胞(某些文献把记忆细胞当成一种特殊的隐藏状态),从而记录额外的信息。

输入门、遗忘门和输出门

与门控循环单元中的重置门和更新门一样,如下图所示,长短期记忆的门的输入均为当前时间步输入Xt\boldsymbol{X}_tXt? 与上一时间步隐藏状态 Ht?1\boldsymbol{H}_{t-1}Ht?1?,输出由激活函数为 sigmoid 函数的全连接层计算得到。如此一来,这3个门元素的值域均为[0,1][0,1][0,1]
在这里插入图片描述
具体来说,假设样本数为 nnn,输入个数为 ddd,隐藏单元个数为 hhh,给定时间步 ttt 的小批量输入 Xt∈Rn×d\boldsymbol{X}_t \in \mathbb{R}^{n \times d}Xt?Rn×d 和上一时间步隐藏状态 Ht?1∈Rn×h\boldsymbol{H}_{t-1} \in \mathbb{R}^{n \times h}Ht?1?Rn×h。 时间步 ttt 的输入门 It∈Rn×h\boldsymbol{I}_t \in \mathbb{R}^{n \times h}It?Rn×h、遗忘门 Ft∈Rn×h\boldsymbol{F}_t \in \mathbb{R}^{n \times h}Ft?Rn×h 和输出门 Ot∈Rn×h\boldsymbol{O}_t \in \mathbb{R}^{n \times h}Ot?Rn×h 分别计算如下:

It=σ(XtWxi+Ht?1Whi+bi)\boldsymbol{I}_t = \sigma(\boldsymbol{X}_t \boldsymbol{W}_{xi} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hi} + \boldsymbol{b}_i)It?=σ(Xt?Wxi?+Ht?1?Whi?+bi?)
Ft=σ(XtWxf+Ht?1Whf+bf)\boldsymbol{F}_t = \sigma(\boldsymbol{X}_t \boldsymbol{W}_{xf} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hf} + \boldsymbol{b}_f)Ft?=σ(Xt?Wxf?+Ht?1?Whf?+bf?)
Ot=σ(XtWxo+Ht?1Who+bo)\boldsymbol{O}_t = \sigma(\boldsymbol{X}_t \boldsymbol{W}_{xo} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{ho} + \boldsymbol{b}_o)Ot?=σ(Xt?Wxo?+Ht?1?Who?+bo?)

其中的 Wxi,Wxf,Wxo∈Rd×h\boldsymbol{W}_{xi}, \boldsymbol{W}_{xf}, \boldsymbol{W}_{xo} \in \mathbb{R}^{d \times h}Wxi?,Wxf?,Wxo?Rd×hWhi,Whf,Who∈Rh×h\boldsymbol{W}_{hi}, \boldsymbol{W}_{hf}, \boldsymbol{W}_{ho} \in \mathbb{R}^{h \times h}Whi?,Whf?,Who?Rh×h 是权重参数,bi,bf,bo∈R1×h\boldsymbol{b}_i, \boldsymbol{b}_f, \boldsymbol{b}_o \in \mathbb{R}^{1 \times h}bi?,bf?,bo?R1×h 是偏差参数。

候选记忆细胞

接下来,长短期记忆需要计算候选记忆细胞 C~t\tilde{\boldsymbol{C}}_tC~t?。它的计算与上面介绍的3个门类似,但使用了值域在[?1,1][-1, 1][?1,1]tanh 函数作为激活函数,如下图所示。
在这里插入图片描述
具体来说,时间步 ttt 的候选记忆细胞 C~t∈Rn×h\tilde{\boldsymbol{C}}_t \in \mathbb{R}^{n \times h}C~t?Rn×h 的计算为

C~t=tanh(XtWxc+Ht?1Whc+bc)\tilde{\boldsymbol{C}}_t = \text{tanh}(\boldsymbol{X}_t \boldsymbol{W}_{xc} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hc} + \boldsymbol{b}_c)C~t?=tanh(Xt?Wxc?+Ht?1?Whc?+bc?)

其中 Wxc∈Rd×h\boldsymbol{W}_{xc} \in \mathbb{R}^{d \times h}Wxc?Rd×hWhc∈Rh×h\boldsymbol{W}_{hc} \in \mathbb{R}^{h \times h}Whc?Rh×h 是权重参数,bc∈R1×h\boldsymbol{b}_c \in \mathbb{R}^{1 \times h}bc?R1×h 是偏差参数。

记忆细胞

我们可以通过元素值域在[0,1][0, 1][0,1]的输入门、遗忘门和输出门来控制隐藏状态中信息的流动,这一般也是通过使用按元素乘法(符号为⊙\odot)来实现的。当前时间步记忆细胞 Ct∈Rn×h\boldsymbol{C}_t \in \mathbb{R}^{n \times h}Ct?Rn×h 的计算组合了上一时间步记忆细胞和当前时间步候选记忆细胞的信息,并通过遗忘门和输入门来控制信息的流动:

Ct=Ft⊙Ct?1+It⊙C~t.\boldsymbol{C}_t = \boldsymbol{F}_t \odot \boldsymbol{C}_{t-1} + \boldsymbol{I}_t \odot \tilde{\boldsymbol{C}}_t.Ct?=Ft?Ct?1?+It?C~t?.

如下图所示,遗忘门控制上一时间步的记忆细胞 Ct?1\boldsymbol{C}_{t-1}Ct?1? 中的信息是否传递到当前时间步,而输入门则控制当前时间步的输入 Xt\boldsymbol{X}_tXt? 通过候选记忆细胞 C~t\tilde{\boldsymbol{C}}_tC~t? 如何流入当前时间步的记忆细胞。如果遗忘门一直近似1且输入门一直近似0,过去的记忆细胞将一直通过时间保存并传递至当前时间步。这个设计可以应对循环神经网络中的梯度衰减问题,并更好地捕捉时间序列中时间步距离较大的依赖关系。
在这里插入图片描述

隐藏状态

有了记忆细胞以后,接下来我们还可以通过输出门来控制从记忆细胞到隐藏状态 Ht∈Rn×h\boldsymbol{H}_t \in \mathbb{R}^{n \times h}Ht?Rn×h 的信息的流动:

Ht=Ot⊙tanh(Ct).\boldsymbol{H}_t = \boldsymbol{O}_t \odot \text{tanh}(\boldsymbol{C}_t).Ht?=Ot?tanh(Ct?).

这里的 tanh 函数确保隐藏状态元素值在-1到1之间。需要注意的是,当输出门近似1时,记忆细胞信息将传递到隐藏状态供输出层使用;当输出门近似0时,记忆细胞信息只自己保留。下图展示了长短期记忆中隐藏状态的计算。
在这里插入图片描述

输出结果

长短期记忆的隐藏层输出包括隐藏状态和记忆细胞,但只有隐藏状态会传递到输出层,而记忆细胞不参与输出层的计算。
将上面得到的隐藏状态 HtH_tHt? 输入神经网络,得到结果 Yt∈Rn×q\boldsymbol{Y}_t \in \mathbb{R}^{n \times q}Yt?Rn×q
Yt=HtWhq+bq\boldsymbol{Y}_t = \boldsymbol{H}_t \boldsymbol{W}_{hq} + \boldsymbol{b}_qYt?=Ht?Whq?+bq?

深度循环神经网络

到目前为止所涉及的循环神经网络只有一个单向的隐藏层,在深度学习应用里,我们通常会用到含有多个隐藏层的循环神经网络,也称作深度循环神经网络。下图演示了一个有 LLL 个隐藏层的深度循环神经网络,每个隐藏状态不断传递至当前层的下一时间步和当前时间步的下一层。在之前的介绍中,我们只包含输入层、第一层隐藏层和输出层。
在这里插入图片描述
具体来说,在时间步 ttt 里,设小批量输入 Xt∈Rn×d\boldsymbol{X}_t \in \mathbb{R}^{n \times d}Xt?Rn×d(样本数为 nnn,输入个数为 ddd ),第 ?\ell? 隐藏层( ?=1,…,L\ell=1,\ldots,L?=1,,L )的隐藏状态为 Ht(?)∈Rn×h\boldsymbol{H}_t^{(\ell)} \in \mathbb{R}^{n \times h}Ht(?)?Rn×h(隐藏单元个数为 hhh ),输出层变量为 Ot∈Rn×q\boldsymbol{O}_t \in \mathbb{R}^{n \times q}Ot?Rn×q(输出个数为 qqq ),且隐藏层的激活函数为 ?\phi?。第一层隐藏层的隐藏状态和之前的计算一样:

Ht(1)=?(XtWxh(1)+Ht?1(1)Whh(1)+bh(1)),\boldsymbol{H}_t^{(1)} = \phi(\boldsymbol{X}_t \boldsymbol{W}_{xh}^{(1)} + \boldsymbol{H}_{t-1}^{(1)} \boldsymbol{W}_{hh}^{(1)} + \boldsymbol{b}_h^{(1)}),Ht(1)?=?(Xt?Wxh(1)?+Ht?1(1)?Whh(1)?+bh(1)?),

其中权重 Wxh(1)∈Rd×h\boldsymbol{W}_{xh}^{(1)} \in \mathbb{R}^{d \times h}Wxh(1)?Rd×hWhh(1)∈Rh×h\boldsymbol{W}_{hh}^{(1)} \in \mathbb{R}^{h \times h}Whh(1)?Rh×h 和偏差 bh(1)∈R1×h\boldsymbol{b}_h^{(1)} \in \mathbb{R}^{1 \times h}bh(1)?R1×h 分别为第一层隐藏层的模型参数。

1<?≤L1 < \ell \leq L1<?L 时,第 ?\ell? 隐藏层的隐藏状态的表达式为

Ht(?)=?(Ht(??1)Wxh(?)+Ht?1(?)Whh(?)+bh(?)),\boldsymbol{H}_t^{(\ell)} = \phi(\boldsymbol{H}_t^{(\ell-1)} \boldsymbol{W}_{xh}^{(\ell)} + \boldsymbol{H}_{t-1}^{(\ell)} \boldsymbol{W}_{hh}^{(\ell)} + \boldsymbol{b}_h^{(\ell)}),Ht(?)?=?(Ht(??1)?Wxh(?)?+Ht?1(?)?Whh(?)?+bh(?)?),

其中权重 Wxh(?)∈Rh×h\boldsymbol{W}_{xh}^{(\ell)} \in \mathbb{R}^{h \times h}Wxh(?)?Rh×hWhh(?)∈Rh×h\boldsymbol{W}_{hh}^{(\ell)} \in \mathbb{R}^{h \times h}Whh(?)?Rh×h 和偏差 bh(?)∈R1×h\boldsymbol{b}_h^{(\ell)} \in \mathbb{R}^{1 \times h}bh(?)?R1×h 分别为第 ?\ell? 隐藏层的模型参数。

最终,输出层的输出只需基于第 LLL 隐藏层的隐藏状态:

Ot=Ht(L)Whq+bq,\boldsymbol{O}_t = \boldsymbol{H}_t^{(L)} \boldsymbol{W}_{hq} + \boldsymbol{b}_q,Ot?=Ht(L)?Whq?+bq?,

其中权重 Whq∈Rh×q\boldsymbol{W}_{hq} \in \mathbb{R}^{h \times q}Whq?Rh×q 和偏差 bq∈R1×q\boldsymbol{b}_q \in \mathbb{R}^{1 \times q}bq?R1×q 为输出层的模型参数。

同多层感知机一样,隐藏层个数 LLL 和隐藏单元个数 hhh 都是超参数。此外,如果将隐藏状态的计算换成门控循环单元或者长短期记忆的计算,我们可以得到深度门控循环神经网络。

双向循环神经网络

之前介绍的循环神经网络模型都是假设当前时间步是由前面的较早时间步的序列决定的,因此它们都将信息通过隐藏状态从前往后传递。有时候,当前时间步也可能由后面时间步决定。例如,当我们写下一个句子时,可能会根据句子后面的词来修改句子前面的用词。双向循环神经网络通过增加从后往前传递信息的隐藏层来更灵活地处理这类信息。下图演示了一个含单隐藏层的双向循环神经网络的架构。
在这里插入图片描述
下面我们来介绍具体的定义。 给定时间步 ttt 的小批量输入 Xt∈Rn×d\boldsymbol{X}_t \in \mathbb{R}^{n \times d}Xt?Rn×d(样本数为 nnn,输入个数为 ddd )和隐藏层激活函数为 ?\phi?。在双向循环神经网络的架构中, 设该时间步正向隐藏状态为H→t∈Rn×h\overrightarrow{\boldsymbol{H}}_t \in \mathbb{R}^{n \times h}H t?Rn×h(正向隐藏单元个数为 hhh ), 反向隐藏状态为 H←t∈Rn×h\overleftarrow{\boldsymbol{H}}_t \in \mathbb{R}^{n \times h}H t?Rn×h(反向隐藏单元个数为 hhh )。我们可以分别计算正向隐藏状态和反向隐藏状态:

H→t=?(XtWxh(f)+H→t?1Whh(f)+bh(f)),H←t=?(XtWxh(b)+H←t+1Whh(b)+bh(b))\begin{aligned} \overrightarrow{\boldsymbol{H}}_t &= \phi(\boldsymbol{X}_t \boldsymbol{W}_{xh}^{(f)} + \overrightarrow{\boldsymbol{H}}_{t-1} \boldsymbol{W}_{hh}^{(f)} + \boldsymbol{b}_h^{(f)}),\ \overleftarrow{\boldsymbol{H}}_t &= \phi(\boldsymbol{X}_t \boldsymbol{W}_{xh}^{(b)} + \overleftarrow{\boldsymbol{H}}_{t+1} \boldsymbol{W}_{hh}^{(b)} + \boldsymbol{b}_h^{(b)}) \end{aligned} H t??=?(Xt?Wxh(f)?+H t?1?Whh(f)?+bh(f)?), H t??=?(Xt?Wxh(b)?+H t+1?Whh(b)?+bh(b)?)?

其中权重 Wxh(f)∈Rd×h\boldsymbol{W}_{xh}^{(f)} \in \mathbb{R}^{d \times h}Wxh(f)?Rd×hWhh(f)∈Rh×h\boldsymbol{W}_{hh}^{(f)} \in \mathbb{R}^{h \times h}Whh(f)?Rh×hWxh(b)∈Rd×h\boldsymbol{W}_{xh}^{(b)} \in \mathbb{R}^{d \times h}Wxh(b)?Rd×hWhh(b)∈Rh×h\boldsymbol{W}_{hh}^{(b)} \in \mathbb{R}^{h \times h}Whh(b)?Rh×h 和偏差 bh(f)∈R1×h\boldsymbol{b}_h^{(f)} \in \mathbb{R}^{1 \times h}bh(f)?R1×hbh(b)∈R1×h\boldsymbol{b}_h^{(b)} \in \mathbb{R}^{1 \times h}bh(b)?R1×h 均为模型参数。

然后我们连结两个方向的隐藏状态 H→t\overrightarrow{\boldsymbol{H}}_tH t?H←t\overleftarrow{\boldsymbol{H}}_tH t? 来得到隐藏状态 Ht∈Rn×2h\boldsymbol{H}_t \in \mathbb{R}^{n \times 2h}Ht?Rn×2h,并将其输入到输出层。输出层计算输出 Ot∈Rn×q\boldsymbol{O}_t \in \mathbb{R}^{n \times q}Ot?Rn×q(输出个数为 qqq ):

Ot=HtWhq+bq\boldsymbol{O}_t = \boldsymbol{H}_t \boldsymbol{W}_{hq} + \boldsymbol{b}_qOt?=Ht?Whq?+bq?

其中权重 Whq∈R2h×q\boldsymbol{W}_{hq} \in \mathbb{R}^{2h \times q}Whq?R2h×q 和偏差 bq∈R1×q\boldsymbol{b}_q \in \mathbb{R}^{1 \times q}bq?R1×q 为输出层的模型参数。不同方向上的隐藏单元个数也可以不同。

  相关解决方案