【論文読み】Non-local Neural Networks
2021年11月2日
FAIRのTimeSformerを読んだので、関連研究のNon-local Neural Networksを確認する。
忙しい人向け
どんな論文か
- 動画像間の長距離の依存性を捉えるためのnon-local 演算を提案。
先行研究と比べてどこがすごい
- CNN,RNNのように局所的な特徴量を捉えるのではなく、大域的に長距離の依存性を捉えることができる。
技術の手法やキモ
- ノイズ除去の古典的な手法であるnon-local means 法にヒントを得て、ある位置での応答をすべての位置での特徴の加重和として計算する。
- 多くのCVのアーキテクチャに組み込むことができる。

どうやって有効だと検証した
- Kinetics datasetとCharades datasetの両方で、以前のSOTAモデルと競い合ったり、凌駕する結果を得た。
- 静止画認識では、COCOタスクでobject detection, segmentation, pose estimationを向上。
議論はあるか
- 既存動画処理モデル(I3D対応モデル)よりも長い動画シーケンスに有効である。table2(g)参照
モデルの詳細
non-localの利点
- RNN,CNNの漸進的動作とは対照的に、位置の距離に関係なく、任意の2つの位置間の相互作用を計算することで、長期依存性を直接捉えることができる。
- 実験で示すようにnon-local演算は効率的であり、わずか数層(例えば5層)での最良の結果を得ることができる。
- 3DCNNよりも計算量が少なくてすむ
Non-local Neural Networks
Formulation
既存研究のnon-local mean 演算に従ってnon-local 演算を次のように定義する。
yi=1C(x)∑∀jf(xi,xj)g(xj)(1)
- i: outputを計算する位置(空間、時間、時空)のindex
- j: 可能なすべての位置を列挙するindex
- x: 入力信号(画像、シーケンス、動画、それらの特徴)
- y: xと同じサイズの出力信号
- f: iとすべてのjの間のスカラー(親和性などの関係を表す)を計算する関数
- g: 位置jにおける入力信号の表現を計算する単項関数。
全結合層との違い
- 全結合層
- 学習した重みを使用。xiとxjの関係は、全結合では入力データの関数ではない。
- 固定サイズの入力が必要。
- 位置の対応関係が失われる。
- DNNの最終層に使用されることが多い。
- non-local 式(1)
- 異なる場所間の関係に基づいてoutputを計算
- 可変サイズの入力に対応、対応するサイズをoutputに保持。
- 柔軟な構成要素であり、CNN,RNNとの併用も容易
- DNNの初期に追加可能。
インスタンス化
fとgのいくつかのバージョンについて説明する
簡略化のため、gは線形埋め込みの形でのみ考える。
g(xj)=Wgxj
- Wgは、学習する重み行列(空間における1×1の畳み込みや時空間における1x1x1の畳み込みとして実装)
Gaussian
pairwise関数のfの選択についてガウス関数を使用
f(xi,xj)=exTixj(2)
- xTixjはdot積の類似性(ユークリッド距離も適用可能だがdot積のほうが実装しやすい)
正規化関数は以下のように設定
C(x)=∑∀jf(xi,xj)
Embedded Gaussian
ガウス関数の簡単な拡張は、埋め込み空間での類似性を計算することである。
f(xi,xj)=eθ(xi)Tϕ(xj)(3)
- θ(xi)=Wθxi(埋め込み)
- ϕ(xi)=Wϕxj(埋め込み)
- C(x)=∑∀jf(xi,xj)
self-attentionはembedded gaussian におけるnon-local 的な操作の特殊なケース。与えられたiに対して、1C(x)f(xi,xj)g(xj)が次元jに沿ったsoftmax計算になることからわかる。
y=softmax(xTWTθWϕx)g(x)
となり、これがself-attention型となる。
この研究では古典的なCVの手法であるnon-local的手法と関連付けることで洞察を与え、Ashish Vaswaniらの逐次self-attention ネットワークをCVにおける静止画、動画認識のための一般的な時空間non-local ネットワークに拡張している。softmaxによるattentionの振る舞いは必須ではないことを示すためにnon-local的操作の2つの代替バージョンを説明する。
- Dot product
- fはdot積の類似性として次のように定義できる
- f(xi,xj)=θ(xi)Tϕ(xj)(4)
- 正規化係数をC(x)=Nとする
- Nはfの総和ではなく、xの位置数(勾配計算を簡単にするため)
- embedded gaussianとの違いは活性化関数のsoftmaxの存在
- Concatenation
- Relation networksのpairwise関数で視覚的推論に用いられている。
- fの連結形式を評価すると以下のようになる
- f(xi,xj)=ReLU(wTf[θ(xi),ϕ(xj)])(5)
- [..]は連結を表す
- wfは連結されたベクトルをスカラに投影する重みベクトル
- C(x)=N
- fにReLUを採用
Non-local Block
式1のnon-local演算を、既存の多くのアーキテクチャに組み込むことが可能なnon-local vlockにまとめる。定義は以下の通り。
zi=Wzyi+xi(6)
- y_iは式(1)で与えられ、"+xi"は残差接続を表す。
fig2にnon-local blockの例を示す。

- 式(2),(3),(4)のpair-wise計算は、fig2に示すように、単純に行列の乗算で行う。
- 典型的な値は、T=4,H=W=14or7
より効率的にするために以下のような実装を採用
Impremantation of Non-local Blocks
- Wg,Wθ,Wϕで表されるチャンネル数をxのチャンネル数の半分に設定する。(計算量を半分にできる)
- 式(6)の重み行列Wzはyiのいちごとの埋め込みを計算し、チャンネル数をxのそれに合わせる(fig2参照)
- 式(1)を次のように修正して、サブサンプリングという手法を用いる。
- yi=1C(^x)∑∀jf(xi,^xj)g(^xj)
- ^xはxのサブサンプリングされたバージョン(pooling等によって)
- これを空間領域で行うことでpair-wiseの計算量を1/4削減できる。(non-localな動作を変えるものではなく、計算をより粗くするもの)
- fig2のϕとgの間にmax pooling層を追加することで可能
本論文ではすべてのnon-local blockにこれらの修正を加えている。
baselineモデルとしてC3D,I3Dを使用。non-local blocを適用して実験を行った。
結果







論文AI,Attention,deeplearning,Dot product,Embedded Gaussian,non-local,non-local block,Non-local Neural Networks,self-attention,transformer,video,動画,動画処理
Posted by kazu
関連記事
【論文読み】A Survey on Visual Transformer 日本語まとめ,論文リンク
Transformerは、NLPの分野で大きな成功を収め、近年CV(Comput ...
【2022年】AI独学 おすすめ本と優良サイト(未経験⇒国立理系大学院のAI研究室⇒AIエンジニア)
こんにちは、国立理系大学院でAI関連の研究をしている”でーい”です。現在は研究し ...
【論文読み】TimeSformer論文解説まとめ
論文 Is Space-Time Attention All You Need ...
【論文読み】Video Action Transformer Network, まとめ
FAIRのTimeSformerの論文を読んだので、関連研究で紹介されていたVi ...
【論文読み】ViViT: A Video Vision Transformer 日本語まとめ
忙しい人向け どんな論文か Transformerだけを用いた動画分類モデルを提 ...
ディスカッション
コメント一覧
まだ、コメントがありません