読者です 読者をやめる 読者になる 読者になる

橙色の日々を。

わたくし橙乃が気になったことをクリップするブログ。

【Deep Learning】SRCNNの論文をツールに通して雑に訳す【実験②:超解像のためのフィルタ学習】

論文訳

数字がいっぱい来るとわくわく!

 

そして理論が微妙に抜け落ちてきてるゾ。

 

SRCNN・訳・実験編~超解像のためのフィルタ学習~

 

 

こんにちは、橙乃巻です。

 

がががっと進めております!

 

「翻訳」内容に関しては一切の責任を問いません。

むしろ指摘してくれ頼む。

 

みなさんはお外で勉強するときどこで勉強してますか?

僕はお外にあんまり出ないので参考にさせていただきたい。

 

参考程度にどうぞ!

 

本文は以下より。

Image Super-Resolution Using Deep Convolutional Networks.

https://arxiv.org/pdf/1501.00092.pdf

 

<実験>

 

超解像のためのフィルタ学習 

  1. 図5は、アップスケーリング係数3によってImageNet上で訓練された、学習された第1層フィルタの例を示す。
  2. アップスケールファクタ2および4については、公開されている実装を参照。
  3. 興味深いことに、学習された各フィルタには固有の機能がある。
  4. 例えば、フィルタgおよびhはラプラシアン/ガウスフィルタのようであり、フィルタa~eは異なる方向のエッジ検出器のようであり、フィルタfはテクスチャ抽出器のようなものである。
  5. 明らかに、第1の層の特徴マップは異なる構造(例えば、異なる方向のエッジ)を含み、第2の層の特徴マップは主として強度に関して異なる。

 

あかん今度は短すぎか。

 

まぁまったり行きましょ。

 

次回「モデルと性能のトレードオフ」編。