橙色の日々を。

わたくし橙乃が気になったことをクリップするブログ。

【Deep Learning】ARCNNの論文をツールに通して雑に訳す【概要】

新しい論文来ました!

 

新しいってだけでわくわく!

 

ARCNN・訳・概要

 

 

こんにちは、橙乃巻です。

 

新しい論文訳の開幕です。

 

「翻訳」内容に関しては一切の責任を問いません。

今回はどんな癖があるだろう笑

 

論文は印刷しない派です。

画面で見てた方がささっと調べたりできますし。

 

参考程度にどうぞ!

 

本文は以下より。

Deep Convolution Networks for Compression Artifacts Reduction

https://arxiv.org/pdf/1608.02778.pdf

 

<概要>

  1. 圧縮の損失は、複雑な圧縮アーチファクト、特にアーチファクトのブロッキング、リンギングエフェクトおよびぼかしを招く。
    ブロッキング:ブロック化→ピクセルを1まとめにすること?
    ※リンギングエフェクト:画像のコントラストの高い部分に不自然な輪郭が発生する現象。
    ※モアレ:干渉縞ともいい、規則正しい繰り返し模様を複数重ね合わせた時に、それらの周期のずれにより視覚的に発生する縞模様のことである。 
  2. 既存のアルゴリズムは、ブロッキングアーチファクトを除去し、ぼやけた出力を生成することに焦点を当てるか、またはリンギングエフェクトを伴う鮮明な画像を復元する。
  3. 超解像の深い畳み込みネットワーク(DCN)の成功に触発され、我々は様々な圧縮アーチファクトのシームレスな減衰のためのコンパクトで効率的なネットワークを定式化する。※シームレス:継ぎ目のない状態のこと。
  4. 現実世界のアプリケーションの速度要件を満たすために、我々は、大きなストライド畳み込みおよびデコンボリューション層の層分解およびそれらの同時使用によって提案されたベースラインモデルをさらに加速する。
  5. これはまた、従来のマルチレイヤパーセプトロンMLP)と密接な関係がある、より一般的なCNNフレームワークにつながる。
  6. 最後に、修正されたネットワークは、ベースラインモデルと比較してパフォーマンス損失をほとんど発生させることなく、5倍のスピードアップを実現する。
  7. また、浅いネットワークで学んだフィーチャを使用して、より深いモデルを効果的に訓練することができることも示しています。
  8. 同様の「簡単に難しい」アイデアに従って、我々は3つの実践的な伝達設定を体系的に調査し、低レベルの視力問題における伝達学習の有効性を示す。
  9. 私たちの方法は、ベンチマークデータセットと現実のユースケースの両方で最先端の方法より優れたパフォーマンスを示しています。

 

ノイズ除去的な能力が強そうですね?

 

次回、「ARCNN_導入」編。