読者です 読者をやめる 読者になる 読者になる

橙色の日々を。

わたくし橙乃が気になったことをクリップするブログ。

【Deep Learning】SRCNNの論文をツールに通して雑に訳す【導入】

論文訳

時々日本語にできないとこは目をつぶってくれ…!

 

表現力の壁を感じることができる。

 

SRCNN・訳・導入編

 

 

こんにちは、橙乃巻です。

 

必要に駆られて論文を(ry

 

ryとかふっる(笑)

内容に関しては一切の責任を問いませんいやほんとマジで。

 

本文を右手に

コーヒーを左手に

あーこぼしちゃったよ文字が見えない。

参考程度にどうぞ!

 

本文は以下より。

Image Super-Resolution Using Deep Convolutional Networks.

https://arxiv.org/pdf/1501.00092.pdf

 

<導入>

  1. 単一の低解像度画像から高解像度画像を復元することを目的とした単一画像超解像(SR)[20]は、コンピュータビジョンの古典的問題である。
  2. この問題は、任意の低解像度ピクセルに対して多数の解が存在するので、本質的に悪い考えである。(え?!)
  3. 言い換えれば、解決策が一意ではない、未決定の逆問題である。
  4. このような問題は、通常、強力な事前情報によって解空間を制約することによって緩和される。
  5. 先行技術を学ぶために、最近の最先端の方法は、主に事例ベースの戦略を採用する[46]。
  6. これらの方法は、同じ画像[5]、[13]、[16]、[19]、[47]の内部類似性を利用するか、外部の低解像度高解像度標本ペア[2]、[4 ]、[6]、[15]、[23]、[25]、[37]、[41]、[42]、[47]、[48]、[50]のマッピング関数から学習する。
  7. 外部の例に基づく方法は、一般的な画像超解像のために定式化することができ、または与えられた訓練サンプルに従って、ドメイン特有のタスク、すなわち Face hallucination法[30]、[50]に適合するように設計することができる。
  8. スパースコーディングに基づく方法[49]、[50]は、代表的な外部の例示に基づくSR方法の1つである。
  9. この方法には、ソリューションのパイプラインにいくつかのステップがある。
  10. 第1に、重なり合うパッチは、入力画像から密に切り取られ、前処理される(例えば、平均および正規化を差し引く)。
  11. これらのパッチは、低解像度の辞書でエンコードされる。
  12. スパース係数は、高解像度パッチを再構成するための高解像度辞書に渡される。
  13. 重なり合う再構成パッチは、最終出力を生成するために(例えば、重み付け平均によって)集約される。
  14. このパイプラインは、多くの外部の例ベースの方法で共有されており、辞書[2]、[49]、[50]の学習と最適化、または効率的なマッピング関数の構築[25]、[41]、[42] [47]に利用される。
  15. しかし、パイプラインの残りのステップはめったに最適化されていないか、 統一された最適化フレームワークで検討されている。
  16. 本論文では、前述のパイプラインが深層畳み込みニューラルネットワーク[27](第3.2節の詳細)と同等であることを示す。
  17. この事実によって動機づけられ、低解像度画像と高解像度画像との間のエンド・ツー・エンド・マッピングを直接学習する畳み込みニューラル・ネットワークを考案する。
  18. 我々の方法は、パッチ空間をモデル化するための辞書[41]、[49]、[50]または多様性[2]、[4]を明示的に学習しないという点で、既存の外部の例に基づくアプローチとは根本的に異なる。
  19. これらは暗黙のレイヤーを介して暗黙的に実現される。
  20. さらに、パッチの抽出と集約も畳み込みレイヤーとして策定されるため、最適化に関与する。
  21. 私たちの方法では、SRパイプライン全体がほとんど前/後処理なしで、学習を通じて完全に得られる。
  22. 提案されたモデルの超解像畳み込みニューラルネットワーク(SRCNN)1
  23. 我々は、提案されたモデルの超解像畳み込みニューラルネットワーク(SRCNN)1と命名する。
  24. 提案されたSRCNNはいくつかの魅力的な特性を有する。
  25. 第一に、構造は意図的に念頭に置いて意図的に設計されていますが、最先端の例に基づく方法と比較して優れた精度2を提供する。
  26. 図1に例を比較して示す。
  27. 第2に、適度な数のフィルタとレイヤで、本発明の方法は、CPU上であっても実用的なオンライン使用によって速いスピードを達成する。
  28. 私たちの方法は、完全フィードフォワードであり、使用上の最適化問題を解決する必要がないため、多くのサンプルベースの方法より高速である。※フィードフォワード:出力に変動を起こさせるような外乱を予測し、前もって打ち消してしまう制御方式。
  29. 第3に、
  30. (i)より大きい、より多様なデータセットが利用可能であり、かつ/または
  31. (ii)より大きくより深いモデルが使用されるとき、
  32. ネットワークの復元品質がさらに改善され得ることが実験によって示される。
  33. これとは対照的に、より大きなデータセット/モデルは、既存のサンプルベースの方法に課題を提示する可能性がある。
  34. さらに、提案されたネットワークは、改善された超解像性能を達成するためにカラー画像の3つのチャネルに同時に対処することができる。
  35. 全体として、この研究の貢献は、主に次の3つの側面にある。
  36. 1)画像超解像の完全畳み込みニューラルネットワークを提示する。ネットワークは、低解像度画像と高解像度画像との間のエンド・ツー・エンド・マッピングを、最適化を超えてほとんど前処理/後処理なしで直接学習する。
  37. 2)我々は、深い学習ベースのSRメソッドと従来のスパースコーディングSRメソッドとの間に関係を確立する。この関係は、ネットワーク構造の設計のためのガイダンスを提供する。
  38. 深層学習は古典的なコンピュータビジョンの超解像問題に有用であり、良好な品質とスピードを達成できることを実証する。
  39. この作品の暫定版は以前に発表されている[11]。
  40. 現在の作業は、初期のバージョンに重要な意味を持つ。
  41. まず、非線形マッピングレイヤに大きなフィルタサイズを導入してSRCNNを改善し、非線形マッピングレイヤを追加してより深い構造を探索する。
  42. 次に、SRCNNを拡張して、3つのカラーチャンネル(YCbCrまたはRGBカラースペースのいずれか)を同時に処理する。
  43. 実験的には、シングルチャネルネットワークと比較してパフォーマンスを向上させることができる。
  44. 第3に、かなりの新しい分析と直感的な説明が最初の結果に追加される。
  45. また、オリジナルの実験をSet5 [2]とSet14 [51]のテスト画像からBSD200 [32](200のテスト画像)に拡張した。
  46. さらに、最近公表されたいくつかの方法と比較して、我々のモデルが異なる評価基準を用いて既存のアプローチよりも優れていることを確認する。

 

※で調べたこと書いてます。

 

どんどん訳が怪しくなっていく笑

ガンガン加筆修正加えてるはずなんですけどね、あんまり変えすぎると意味が変わっちゃいそうで。

翻訳って難しいなぁ。

 

次回、関連研究編。