橙色の日々を。

わたくし橙乃が気になったことをクリップするブログ。

【Deep Learning】SRCNNの論文をツールに通して雑に訳す【結論】

とりあえずここで一区切り。

 

すぐ次行くけどな!

 

SRCNN・訳・結論

 

 

こんにちは、橙乃巻です。

 

いやぁついにここまで来ましたね。

 

「翻訳」内容に関しては一切の責任を問いません。

実はもう3回くらい読んだよ。。。

 

次も似たような論文の訳をやるのでお楽しみに!

まぁ完全に自分のためだけどな。

 

参考程度にどうぞ!

 

本文は以下より。

Image Super-Resolution Using Deep Convolutional Networks.

https://arxiv.org/pdf/1501.00092.pdf

 

<結論>

  1. 我々は単一画像超解像(SR)のための新たな深層学習アプローチを提示した。
  2. 我々は、従来のスパース符号化SR法を深層畳み込みニューラルネットワークに再構成できることを示している。
  3. 提案された手法であるSRCNNは、低解像度画像と高解像度画像の間の   エンド・ツー・エンド・マッピングを学習する。
  4. SRCNNは、軽量構造で最先端の方法より優れた性能を実現している。
  5. より多くのフィルタとさまざまなトレーニング戦略を検討することで、さらに性能を向上させることができる。
  6. さらに、シンプルさと堅牢性の利点を持つ提案された構造は、画像のぶれや同時SR +ノイズ除去などの他の低レベルの視覚の問題にも適用できる。
  7. 異なるアップスケーリング要因に対処するためのネットワークを調査することもできる。

 

はい、おわり!

お付き合いありがとうございました。

 

照らし合わせて変なところがあったら自分で修正するんだゾ。

 

それではまた。