読者です 読者をやめる 読者になる 読者になる

橙色の日々を。

わたくし橙乃が気になったことをクリップするブログ。

【Deep Learning】ARCNNの論文をツールに通して雑に訳す【導入】

論文訳

間が!開いた!

 

やらんと~!

 

ARCNN・訳・導入

 

 

こんにちは、橙乃巻です。

 

開幕してから開幕してませんでしたね。。。

 

「翻訳」内容に関しては一切の責任を問いません。

前とは全然構造が違うタイプですな。

 

読みたい論文がたくさんあるんですが

いかんせん時間がないよ。
 

参考程度にどうぞ!

 

本文は以下より。

Deep Convolution Networks for Compression Artifacts Reduction

https://arxiv.org/pdf/1608.02778.pdf

 

<導入>

  1. JPEG、WebPおよびHEVC-MSPなどの)損失圧縮は、符号化されたコンテンツを表現するための不正確な近似を使用するデータ符号化方法の1つのクラスである。
  2. このような情報爆発の時代に、帯域幅とストレージスペースを節約するために、損失のある圧縮は不可欠であり、企業(TwitterFacebookなど)にとって不可欠である。
  3. しかし、その性質上の圧縮は、望ましくない複雑なアーチファクトを導入し、ユーザの経験を著しく低下させる(例えば、図1)。
  4. これらのアーチファクトは、知覚的な視覚的品質を低下させるだけでなく、コントラスト強調[19]、超解像[6]、[39]、エッジ検出などの圧縮画像を入力とする様々な低レベル画像処理ルーチン[4]に悪影響を与える。
  5. 巨大な需要にもかかわらず、効果的な圧縮アーチファクト低減は未解決の問題として残っている。
  6. 様々な圧縮スキームは、複雑で信号に依存する様々な種類の圧縮効果をもたらす。
  7. JPEG圧縮を例にとると、隣接する8×8ピクセルブロック間の不連続性はブロッキングアーチファクトを招くが、図1(a)に示すように、高周波成分の粗い量子化によってリンギングやぼかしが発生する。
  8. JPEGの改良されたバージョンとして、JPEG2000はウェーブレット変換を採用してアーチファクトをブロックするが、依然としてリンギングエフェクトおよびぼかしを呈する。
  9. 普及している圧縮規格とは別に、企業(commersials?)は特定の要件を満たす独自の圧縮方式も導入した。
  10. 例えば、TwitterFacebookは、アップロードされた高解像度画像を最初に再スケーリングして圧縮することで圧縮する。
  11. 圧縮戦略を組み合わせると、重大なリンギング効果とぼかしが導入されるが、別の方法で発生する(図1(b)参照)。
  12. 様々な圧縮アーチファクトに対処するために、様々な手法が提案されており、そのうちのいくつかは特定の圧縮規格、特にJPEG用に設計されている。
  13. 例えば、デブロッキング指向アプローチ[21]、[27]、[35]は、ブロック境界に沿ってフィルタリングを実行して、ブロッキングアーチファクトのみを低減する。
  14. Liew et al。 [20]およびFoi et al。 [8]はウェーブレット変換と形状適応型DCT変換でそれぞれ閾値処理を用いる。
  15. Liuら[22]は、DCT領域の残余冗長性を利用し、スパース性に基づくデュアルドメイン(DCTおよびピクセルドメイン)アプローチを提案する。
  16. Wangら[45]は、DCTおよびピクセルドメインに深い疎なコーディングネットワークを導入し、優れたパフォーマンスを実現している。
  17. この種の方法は、特定の圧縮規格(例えば、JPEG)のソフトデコーディングと呼ばれ、他の圧縮方式にほとんど拡張されない。
  18. あるいは、データ駆動学習ベースの方法は、より一般化された能力を有する。
  19. Jungら[15]は、疎な表現に基づく復元法を提案する。
  20. Kwonら[18]は、超解像と圧縮アーチファクト除去の両方を達成するためにガウシアンプロセス(GP)回帰を採用する。
  21. 調整されたアンカーされた近傍回帰(A +)アプローチ[29]は、JPEG2000画像を強調するためにも使用される。
  22. これらの方法は、異なるタスクに対して容易に一般化することができる。
  23. ディープ・ラーニングは、高レベルと低レベルの両方の視力問題で印象的な結果を示している。
  24. 特に、Dongら[6]によって提案された超解像畳み込みニューラルネットワーク(SRCNN)は、画像超解像における最終的なDCNの大きな可能性を示している。
  25. この研究では、従来の疎なコーディングベースの画像復元モデルも同様に深いモデルと見なすことができると指摘している。
  26. しかしながら、SRCNNを圧縮アーチファクト低減に直接適用すると、その第1層によって抽出された特徴はノイズがあり、再構成において望ましくないノイズの多いパターンにつながる可能性がある。
  27. したがって、3層目のSRCNNは、特に複雑なアーチファクトを扱う際に、圧縮画像の復元にはあまり適していない。
  28. 望ましくないアーチファクトを排除するために、ノイズの多いフィーチャをクリーニングするために最初のレイヤの後に1つ以上の「フィーチャ強化」レイヤを埋め込むことによってSRCNNを改善する。
  29. 実験では、改良されたモデル、すなわちアーティファクト低減畳み込みニューラルネットワーク(AR-CNN)が、エッジパターンと鮮明な細部を保持しながらブロッキングアーチファクトを抑制するのに非常に有効であることが示されている(図1参照)。
  30. JPEG固有のモデルとは異なり、AR-CNNは、JPEGJPEG2000Twitterなどのさまざまな圧縮方式にも同様に効果的である。

 

SRCNN、kitaaaaa!

長いんで一回切りますね。

 

次回、「続・導入」編。