読者です 読者をやめる 読者になる 読者になる

橙色の日々を。

わたくし橙乃が気になったことをクリップするブログ。

【Deep Learning】SRCNNの論文をツールに通して雑に訳す【実験④:最先端技術との比較】

論文訳

それでも、長い、ときもある。。。

 

だがこれ以上は切らないぞ!

 

SRCNN・訳・実験編~最先端技術との比較~

 

 

こんにちは、橙乃巻です。

 

毎日できてるよやったぜ。

 

「翻訳」内容に関しては一切の責任を問いません。

検索に引っかかると焦るからやめてほしい。

 

右手にお箸。

左手にカップ麺。

お夜食うまうま。
 

参考程度にどうぞ!

 

本文は以下より。

Image Super-Resolution Using Deep Convolutional Networks.

https://arxiv.org/pdf/1501.00092.pdf

 

<実験>

最先端技術との比較

  1. このセクションでは、我々の方法の定量的および定性的結果を最先端の方法と比較して示す。
  2. 性能とスピードのトレードオフが良いモデルを採用している。
    :ImageNetでf1 = 9、f2 = 5、f3 = 5、n1 = 64、n2 = 32の3層ネットワーク。
  3. それぞれのアップスケーリング係数∈{2,3,4}に対して、特定のネットワークを訓練する7。

比較

  1. SRCNNと最新のSRメソッドを比較する。
    •Yang-et al。[50]のSC-疎コーディングに基づく方法。
    •NE + LLE-隣接埋め込み+局所的線形埋め込み法[4]
    •ANRアンカードネイバーフッド回帰法[41]
    •A + - 調整されたアンカードネイバーフッド回帰法[42]、および
    KK - Yanget alの研究[46]で行われた包括的な評価に従って、外部の例に基づく方法の中で最高の性能を達成する[25]に記載された方法。
  1. 実装はすべて、著者によって提供された公的に利用可能なコードに由来し、すべての画像は同じバイキュービックカーネルを使用してダウンサンプリングされる。

テストセット

  1. アップスケール係数2,3および4の性能を評価するために、Set5 [2](5画像)、Set14 [51](14画像)およびBSD200 [32](200画像)8が使用される。
  2. 広く使われているPSNRとSSIM [43]の指標とは別に、別の4つの評価行列も採用している。情報忠実度基準(information fidelity criterion:IFC)[38]、
    ノイズ品質測定(NQM)[8]、(46)で報告されているように、人間の知覚スコアと高い相関を得る、重み付きピーク信号対雑音比(WPSNR)およびマルチスケール構造類似性指数(MSSSIM)[44]である。

定量的および定性的評価

  1. 表2、表3、表4に示すように、提案されたSRCNNは、すべての実験において、ほとんどの評価行列において最高のスコアをもたらす。
  2. SRCNNの結果は、8×108のバックプロパゲーションのチェックポイントに基づいていることに注意してほしい。
  3. 具体的には、アップスケーリングファクタ3について、SRCNNによって達成されるPSNRの平均利得は、0.15dB、0.17dB、および0.13dBであり、3つのデータセットにおける次の最良のアプローチA + [42]よりも高い。
  4. 他の評価基準を見てみると、私たちの驚くべきことに、SCはIFCとNQMのバイキュービック補間よりもさらに低い得点を獲得することが判明した。
  5. SCの結果はバイキュービック補間よりも視覚的に喜ばれることは明らかである。
  6. これは、これら2つのメトリックが画質を真実に明らかにしていない可能性があることを示している。(正しく評価していない可能性がある、ということでも?)
  7. したがって、これらの2つのメトリックに関係なく、SRCNNは、すべての方法およびスケーリングファクタの中で最高の性能を達成する。
  8. 学習段階の初めにSRCNNがバイキュービックベースラインを上回り(図1参照)、中程度のトレーニングでSRCNNが既存の最先端の方法を上回ることを指摘する価値があります(図4参照)。
  9. しかし、パフォーマンスは収束していない。
  10. より長いトレーニング時間を与えれば、よりよい結果が得られると我々は推測している(図10参照)。
  11. 図14,15および16は、アップスケーリングファクタ3による異なる手法の超解像結果を示す。
  12. 観察されるように、SRCNNは、画像全体にわたって明白なアーチファクトなしに、他のアプローチよりもはるかにシャープなエッジを生成する。
  13. また、Cui etal [5]の画像超解像(DNC)の最近の深い学習方法についても報告する。
  14. 彼らは異なるブラーカーネル標準偏差0.55のガウスフィルタ)を採用しているので、公正な量的比較のためにDNCと同じブラーカーネルを使用して特定のネットワーク(9-5-5)を訓練します。
  15. アップスケーリング係数は3であり、トレーニングセットは91画像データセットである。
  16. 図11に示す収束曲線から、私たちのSRCNNはちょうど2でDNCを上回ることがわかる。
  17. 7×107背景であり、トレーニング時間が長いほどマージンが大きくなる。
  18. これは、たとえそのモデルがすでに「深い」ものであっても、エンドツーエンドの学習がDNCより優れていることを示している。

実行時間

  1. 図12は、いくつかの最先端の方法の実行時間の比較と、Set14での復元性能を示している。
  2. すべてのベースラインメソッドは、対応する著者のMATLAB + MEX実装から取得されているが、私たちは純粋なC ++にある。
  3. 同じマシン(Intel CPU 3.10 GHzおよび16 GBメモリ)を使用して、すべてのアルゴリズムの実行時間をプロファイルする。
  4. すべての画像が同じ数の畳み込みを経るため、このアプローチの処理時間はテスト画像の解像度に対して非常に線形である。
  5. 私たちの方法は、常にパフォーマンスとスピードのトレードオフである。
  6. これを示すために、比較のために9-1-5,9-3-5,9-5-5の3つのネットワークを訓練しする。
  7. 9-1-5ネットワークが最も速いのは明らかだが、次の最先端のA +よりも優れたパフォーマンスを実現する。
  8. 他の方法は、9-1-5ネットワークと比較して数倍またはさらに桁違いに遅くなる。
  9. 速度差は、主に異なるMATLAB / C ++実装によって引き起こされるものではないことに注意してほしい。
  10. むしろ、他の方法は、使用法上の複雑な最適化問題(例えば、疎なコーディングまたは埋め込み)を解決する必要があるが、本発明の方法は完全にフィードフォワードである。
  11. 9-5-5ネットワークは最高のパフォーマンスを実現するが、実行時間を犠牲にしている。
  12. CNNの試験時間速度は、性能のわずかな低下を伴い、訓練されたネットワーク[10]、[21]、[31]の近似または単純化など、多くの方法でさらに加速させることができる。

 

うん、ここはさらっとでいいかな。

注視しないで論文読む方法ってないの()

 

次回、「実験⑤カラーチャンネルでの実験」編。