はじめに
株価の変動や文章のような系列データを扱う深層学習モデルに、RNN(Recurrent Neural Network)とLSTM(Long Short Term Memory)があります。RNNは、系列データを扱う基本的なモデルの一種ですが、学習の際に勾配消失が発生しやすく、層を多く重ねられないという課題があります。LSTMはその課題を緩和し、層を多く重ねることを可能にしたモデルです。これにより、系列データに関する予測問題などの精度を向上させることができました。
「なぜLSTMは勾配消失を起こしにくいのか?」この疑問に数式を用いて解説している日本語の記事は、私が調べた限りそれほど多くないようです。そこで、本記事ではRNNとLSTMの誤差逆伝播の更新式を比較し、LSTMが勾配消失を起こしにくい理由を明確にします。LSTMが勾配消失を起こしにくい理由を深く理解することで、今後提案される新しい深層学習モデルの勾配消失についてもよりよく理解できると私は考えています。
本記事の構成は以下の通りです。まず、系列データの定義と例を簡単に紹介します。その後、RNNとLSTMそれぞれの構造を紹介し、それらの誤差逆伝播の更新式を導出します。そして最後に、両者の更新式を比較し、LSTMがRNNよりも勾配消失を起こしにくい理由を説明します。
系列データ
この章では、系列データを簡単に紹介します。深層学習では、系列データを以下のように定義しています。
個々の要素が順序付きの集まり
として与えられるデータ
系列データの例としては、株価の値動きや文章などが考えられます。このようなデータでは、各要素の順序が重要となります。ここで、「」という記号は系列の順番を表し、時系列データでなくても「時刻」と呼ばれることがあります。この記事でも、
を時刻と呼びます。
以下に系列データに関する問題例を2つ挙げます。
1.株価予測
一つ目の例は株価予測です。例えば、2024/7/29から8/2までの日経平均株価の始値を使い、8/3の始値を予測する問題を考えます。このとき、以下が説明変数です。
| 時刻( |
始値( |
|---|---|
| 1 | 38,139.12 |
| 2 | 38,241.35 |
| 3 | 38,140.77 |
| 4 | 38,781.56 |
| 5 | 37,444.17 |
です。が7/29を、
が8/2を表しています。また、目的変数は8/3の始値です。
この問題は、複数の時刻の説明変数を使い、一つの目的変数を予測する問題です(図1)。

2.品詞分類
二つ目の例は文章の品詞分類です。例えば、"I have a pen"という文章の各単語について、その品詞を分類する問題を考えます。この場合、以下が説明変数となります。
| 時刻( |
単語( |
|---|---|
| 1 | I |
| 2 | have |
| 3 | a |
| 4 | pen |
です。また、目的変数は以下の通りです。
| 時刻( |
品詞( |
|---|---|
| 1 | 名詞 |
| 2 | 動詞 |
| 3 | 冠詞 |
| 4 | 名詞 |
この問題は、複数の時刻の説明変数を使い、各時刻ごとに目的変数を予測する問題です(図2)。

系列データを使った問題の例を2つ挙げました。これらの問題はいずれも、目的変数がその時刻の説明変数だけでなく、前の時刻の説明変数にも依存しています。そのため、通常の深層学習モデルでは十分に対応できません。
このような要件に対応するため、RNNとLSTMが開発されました。
RNNとLSTM
RNN
RNNの構造
まずは、系列データを扱う基本的なモデルRNNを紹介します。
RNNは、以下のようにデータを処理します
- 各時刻の説明変数
から内部状態
を計算します
- 内部状態
に活性化関数を適用し、
を計算します
- 内部状態
から出力
を計算します
- 出力
から目的変数
を計算します
特徴的なのは、RNNが前の時刻の内部状態を次の時刻に引き継ぐことです。この仕組みにより、 のように、現在の出力が過去の入力にも依存するモデルを構築できます。
以下の図3は、RNNの構造を視覚的に表したものです。

次に、順伝播を説明するために、各変数やパラメータを以下のように定義します。
- 各変数の定義
- 入力:
- 内部状態:
- 出力層への入力:
- 出力:
- 入力:
- 各パラメータの定義
- 入力
と内部状態
間のパラメータ:
- 内部状態
と
間のパラメータ:
- 内部状態
と出力層
間のパラメータ:
- 入力
推定対象のパラメータはです。
このとき、順伝播の式を成分表記すると、
となります。ただし、は活性化関数です。双曲線正接関数
などが使われます。また、
は出力層の活性化関数です。問題設定に応じてソフトマックス関数などが使われます。
(1)~(4)式を行列表記すると以下のようになります。
ただし、に対して
です。
RNNの動作ポイントは以下の通りです。
(5)、(6)式より内部状態 は、前の時刻の内部状態
に依存しています。この仕組みにより、過去の説明変数
の情報が現在の出力
に反映されます。
RNNはシンプルな構造を持つため、誤差逆伝播によるパラメータの更新式を、LSTMに比べれば簡単に導出できます。次の節では、誤差逆伝播の更新式を導出する上で必要な考え方を説明し、実際に導出します。
RNNの誤差逆伝播
この節では、RNNの誤差逆伝播を用いたパラメータの更新式を導出します。ただし、損失関数 に対する全てのパラメータの微分を求めると、計算が煩雑になりすぎてしまいます。そのため、ここでは計算の要となる
の導出に焦点を絞ります。
まず、導出に必要な「ベクトルのベクトル微分」を以下のように定義します。
なお、導出の中で、ベクトルによるスカラーの微分を使うことがあります。この場合は、スカラーを成分が一つだけのベクトルとみなして、「定義:ベクトルのベクトル微分」を適用します。
次に、導出に必要な合成関数の微分法についての命題を紹介します。なお、証明は「補足:誤差逆伝播の更新式導出に用いた命題の証明」で行います。
これで準備が整いました。以下では、を具体的に導出します。
順伝播の式 (6) より、から
を経由して損失関数
が計算されます。つまり、写像は
です。したがって、合成関数の微分法より、
となります。
同様に、順伝播の(5)と(7)式より、から
と
を経由して損失関数
が計算されます。したがって、合成関数の微分法より、
となります。以上より、
となります。
次に、RNNの更新式を、後述のLSTMの更新式と比較しやすいように、(9)式を成分表記します。
まず、と
については、「定義:ベクトルのベクトル微分」と(1)式より、
となります。したがって、
となります。さらに、
と定義します。また、とすると(2)式より、
です。以上より、(9)~(12)式を用いると、の第
成分
は、
となります。
以上で、RNNの誤差逆伝播の更新式を導出できました。ここで導出した(13)式は、「RNNとLSTMの更新式の比較」の章でLSTMの更新式と比較します。
LSTM
LSTMの構造
次に、RNNの勾配消失を抑えたモデルLSTMを紹介します。
LSTMはRNNに「入力ゲート」、「忘却ゲート」、「出力ゲート」と呼ばれる3つのゲートを加えたモデルです。図4は、LSTMの構造を視覚的に表したものです(図を単純にするため、パラメータは省略しています)。

RNNと同様に順伝播の式を説明します。RNNの順伝播の式を説明する際に定義した各変数やパラメータに加え、LSTMで新しく使われる各変数とパラメータを以下のように定義します。
- 各変数の定義
- 内部状態:
- 入力ゲート:
- 忘却ゲート:
- 出力ゲート:
- 内部状態:
- 各パラメータの定義
- 入力
と入力ゲート
間のパラメータ:
- 内部状態
と入力ゲート
間のパラメータ:
- 内部状態
と入力ゲート
間のパラメータ:
- 入力
と忘却ゲート
間のパラメータ:
- 内部状態
と忘却ゲート
間のパラメータ:
- 内部状態
と忘却ゲート
間のパラメータ:
- 入力
と出力ゲート
間のパラメータ:
- 内部状態
と忘却ゲート
間のパラメータ:
- 内部状態
と忘却ゲート
間のパラメータ:
- 入力
推定対象のパラメータはRNNで用いたに加え、
です。
このとき、順伝播の式を成分表記すると、
となります。ただし、はシグモイド関数です。
(14)~(21)式を行列表記すると以下のようになります。
ただし、はベクトルの成分積です。つまり、
に対して
です。また、
です。
LSTMはRNNに「入力ゲート」、「忘却ゲート」、「出力ゲート」を加えたモデルです。これにより、LSTMはRNNよりもデータの流れを細かく制御できます。そのため、LSTMはRNNより高い表現力を持っています。一方で、LSTMは推定対象のパラメータが多いので、学習に時間がかかるという問題もあります。
次の節では、RNNと同様にLSTMの誤差逆伝播の更新式を導出します。
LSTMの誤差逆伝播
この節では、LSTMの誤差逆伝播の更新式を導出します。RNNと同様に、だけを導出します。
順伝播の(23)式より、から
を経由して損失関数
が計算されます。つまり、写像は
です。したがって、合成関数の微分法より、
となります。
同様に、順伝播の(28)と(23)式よりから
を経由して、順伝播の(29)と(24)式より
から
を経由して損失関数
が計算されます。したがって、合成関数の微分法より、
となります。さらに順伝播の(22)式よりから
を経由して、(25)式より
から
を経由して、(27)~(29)式より
から
、
、
を経由して損失関数
が計算されます。したがって、
となります。以上の(30)~(32)式より、
となります。
次に、前述のRNNの更新式と比較しやすいように、(33)式を成分表記します。
まず、
と定義します。
さらに、(10)式と同様に
です。また、(12)式と同様に
です。以上より、(33)~(39)式を用いると、の第
成分
は、
となります。
以上で、LSTMの誤差逆伝播の更新式を導出できました。次の章「RNNとLSTMの更新式の比較」では、ここで導出した(40)式をRNNの更新式((13)式)と比較し、LSTMがRNNよりも勾配消失を起こしにくい理由について説明します。
RNNとLSTMの更新式の比較
ここでは、これまでの章で導出したRNNの更新式 ((13)式) とLSTMの更新式 ((40)式) を比較します。それぞれの数式は以下の通りです。
RNNでは活性化関数として、双曲線正接関数が頻繁に使われ、その微分は必ず
以下の値になります。
また、(13)、(40)式はともに、を計算する際、次の時刻の勾配
に活性化関数の微分
を掛けて計算されます。
したがって、活性化関数に双曲線正接関数を用いた場合、の絶対値は
の絶対値よりも小さくなる場合があります。この繰り返しにより、時刻が小さくなるにつれて(
から
に近づくにつれて)勾配の絶対値が急速に減少し、勾配消失問題が生じます。
一方で、LSTMの更新式((40)式)でも同様に、のような
以下の値を掛けています。しかし、(40)式では(13)式に比べて多くの和の項が含まれています。これにより、LSTMではRNNよりも勾配
の絶対値が減少するスピードが抑えられ、勾配消失を起こしにくくなります。
結論
RNNでは、出力層から伝播する誤差に、以下の値が繰り返し掛け合わされます。このため、誤差が入力側に進むにつれて、誤差の絶対値が急激に小さくなり、勾配消失が発生します。
LSTMも同様に、誤差に 以下の値を掛けますが、更新式に含まれる和の項が多いため、誤差の絶対値が減少しにくくなっています。これにより、LSTMはRNNに比べて勾配消失を抑えることが可能です。
LSTMはRNNよりも勾配消失を起こしにくいため、より多くの層を重ねることが可能です。その結果、LSTMは系列データの問題に対して、高い精度での予測が可能になりました。
補足:誤差逆伝播の更新式導出に用いた命題の証明
この節では、RNNとLSTMの更新式導出に用いた以下の「命題:合成関数の微分法」を証明します。
(証明)
とし、
とします。このとき、です。したがって、多変数関数の合成関数の微分法より
となり、「命題:合成関数の微分法」が成り立ちます。
