(畳み込みの画像はこちらのもの)
この記事では、転置畳み込み層のPyTorch実装であるnn.ConvTranspose2d
の出力サイズを自分が狙った通りに生成できるように、パラメータを与える知見を共有する。
画像を生成するDNNモデルにおいてアップサンプリングは不可欠な要素である。アップサンプリングを行う時は転置畳み込み層が用いられることが多い。PyTorchで2次元の転置畳み込み層を扱いたい時はnn.ConvTranspose2d
を使う。
しかし、いざnn.ConvTranspose2d
を使って自分で画像生成のモデリングをしようとした時、公式ドキュメントを見ても引数の値に何を設定すればわからなかった。正確に言うと、動かして処理の内容を推測しようとしたが、挙動が意味不明だった。例えば出力の特徴マップの幅を増やしたいのでpaddingを増やすと逆に幅が小さくなるなどである。
そこで、調べ物をして、どうパラメータを設定すれば想定サイズの特徴マップを生成できるか調査した。
結論としては「畳み込みの逆問題を解く」なのだが、そこに至るまでの過程を省略して理解するのはおそらく難しいので、下記で導入を交えながら説明をする。
スポンサードリンク
導入: 畳み込み層における逆伝播
調査の結果、パラメータを想定通りに設定するには、畳み込み層の逆伝播で何が行われているかの理解が必要であるという結論に至った。 その根拠としては、参考文献[2]によると、TensorFlowに関して、畳み込み層の逆伝播で転置畳み込み層が使われていることを述べている。PyTorchで同様の実装が行われているかはわからなかったが、転置畳み込み層クラスの引数の意味は共通している。
「畳み込み層の逆伝播で転置畳み込みが行われる」とはどういうことか、例を交えて説明する。
畳み込み層の順伝播
例えば下図のようなCNNの一部があったとして、ある畳み込み層Conv1に着目する。このConv1はConv0の特徴マップを入力として受け取る。また、Conv1の出力の特徴マップはConv2へ渡すとする。
順伝播ではご存知の通り、特徴マップとカーネルで畳み込みの計算を行い、新たな特徴マップを生成するという処理である。 このConv1では、が2x2の時、padding=0, stride=1とする。 簡単のためにchannelはinput,outputともに1とし、biasはなく、活性化関数もないとする。のサイズが3x3のとき、のサイズは2x2となる
畳み込み層の逆伝播
次に、この畳み込み層の逆伝播を考える。
逆伝播での勾配計算というと、重み(畳み込み層ではカーネルとバイアス)に対する勾配をまずイメージするかもしれない。
しかし、勾配は重みに対してだけでなく、入力の特徴マップに対しても求める必要がある。何故ならば、Conv1にとっての畳み込み層の入力の特徴マップの勾配は、1つ手前の畳み込み層Conv0にとっての局所的な誤差として逆伝播するからである。
この、入力の特徴マップの勾配の求め方を簡単に説明する。詳しくは文献[1],[2]を参照いただきたい。
上図のように、逆伝播時はConv2層から誤差が入ってくる。
ここで、の最小要素であるピクセル1のが誤差に及ぼした影響は、多変数関数の連鎖律[5]より、
と計算できる。
この内、右辺の は、Conv2からの逆伝播した勾配の各ピクセルである。
また、右辺のは、の式をで偏微分したものである。
は次の式で表される。
したがって、これらを例えばで偏微分し、元の式に代入すると、
[tex: \begin{align} \frac{\partial L}{\partial X _ 1} &= \sum_{k} \frac{\partial L}{\partial O _ k} \cdot \frac{\partial O _ k}{\partial X _ 1} \ &= F _ 1 \cdot O _ 1 + 0 \cdot O _ 2 + 0 \cdot O _ 3 + 0 \cdot O _ 4 \ &= F _ 1 O _ 1 \end{align}
これを まで 求めて、shapeを整えたものが、である。
畳み込み計算で表現
この勾配を求める過程は、実は畳み込み計算で表現できる。
が特定のフィルタor0であり、これがの各ピクセルと掛け合わされることから大まかに把握できるかと思う。微分して0になる場所は、入力に0をpaddingすることで対応する。
畳み込み計算と1つ違う点としては、フィルタを180°回転させることである(実際の行列計算ではフィルタの行列を転置する操作にあたる[4])。
畳み込みをしながらを求めていくイメージを下図に示す
は、
は、
最後までフィルターをスライドすると、 まで求まる。
このように、入力の特徴マップに対する勾配を求める上で、転置畳み込みが使用される。
パラメータの謎の解明
ここで冒頭、nn.ConvTranspose2d
のパラメータ名と処理の整合性が合っていないと思った話に戻る。
実はnn.ConvTranspose2d
の引数のpadding,strideは、Convの順伝播のパラメータを与えなければいけないのである。
この理由は、TransConvの入力としてConvの出力の勾配(例だと)がくることを想定しているためだと考えられる。
もともとは勾配を求める用途のものを、(Convの文脈とは独立して)単なるアップサンプリング用途に使おうとしているから私は挙動を理解できなかったのである。
パラメータをどう指定するのか
seq2seq型のモデルだったらencoderのConv層のパラメータがあると思うので、decoder側のnn.ConvTranspose2d
のパラメータにはそれを与えてやればよい。
しかし、seq2seqモデルではない場合などで、アップサンプリングにnn.ConvTranspose2d
を使いたい場合、出力の特徴マップを所要のサイズにするにはパラメータをどう与えるか。
公式ドキュメント[3]によると、サイズは関して下記の計算式で求まると書かれている2。
−2×padding[0]+dilation[0]×(kernel_size[0]−1)+output_padding[0]+1]
しかし、これを覚えるのは面倒である。
したがって、このH_outの式を覚えるよりも、畳み込みの逆問題を解いた方が早いと私は考える。
例えば、3x3の特徴マップを5x5にアップサンプリングしたい場合、逆問題として5x5の特徴マップを畳み込みで3x3にするにはどうすればいいかを考える。
答えの一例としては、カーネルを2x2、stride=2, padding=0にすればよいので、これをnn.ConvTranspose2d
のパラメータに与えるといった具合である。
まとめ
nn.ConvTranspose2d
で所要の出力サイズにするためのパラメータ設定方法に関して述べた。
調べ物をする中で、引数と挙動の謎が解けた。文献[1][2]にかかれている通り、畳み込みの逆伝播さえつかめれば転置畳み込みは理解できることがわかった。
逆に考えると、転置畳み込みを理解していないということは、畳み込みも理解していない、ということになる。
参考文献
[1] How does Backpropagation work in a CNN? | Medium
[2] Deconvolution (transposed convolution)とは何か?実装を参考にConvolutionとの関係を考える | Cosnomi Blog
[3] ConvTranspose2d — PyTorch 1.6.0 documentation
[4] Up-sampling with Transposed Convolution | by Naoki | Medium
[5] 誤差逆伝播法のノート - Qiita
ふろく: デバッグ用のコード
一応、nn.ConvTranspose2d
をかけた時のshapeを確認するためのコードを用意した。