引用画像

深層学習でドット絵のような荒い写真を高画質化できるプログラムがGitHubに公開

 David Garcia氏が開発した、非常に荒い解像度の写真を深層学習(ディープラーニング)を用いて高画質化するプログラムがGitHubで公開されている。

pc.watch.impress.co.jp
全文を読む


記事によると

ソフトウェアエンジニアのDavid Garcia氏が、解像度の低い画像を、深層学習(ディープラーニング)を用いて高画質化するプログラム「srez」をGitHubで公開した

このプログラムは16×16ドットの低画質画像を、縦横4倍の64×64ドットの高画質画像に出力する

・ただし、顔が正面を向いていなかったり、眼鏡をかけた顔などについてはまだ改善の余地があり、画質が低かったり歪んだりしている

・この結果はGeForce GTX 1080を使って3時間かけて出力したもの




プログラムのダウンロードはこちらから↓







この記事への反応


1. この話題に反応する名無しさん

スパイものや刑事もののドラマや映画でよく見るアレが、もうすぐ再現できるようになるのか…



2. この話題に反応する名無しさん

昔のPCゲーム的なドット絵を読み込ませてみたい



3. この話題に反応する名無しさん

これ凄い、と思うと同時に思い出すモザイク除去機。



4. この話題に反応する名無しさん

なんか、昔映画とかであり得ない画像解析と思ってみていたものが、現実味を帯びてきた。



5. この話題に反応する名無しさん

精度にばらつきあるけど、こういうことができるのかと驚いた。



6. この話題に反応する名無しさん

これまた使い方が問われるもん作りやがって…




7. この話題に反応する名無しさん

また未来が来た






ディープラーニング、深層学習(英: deep learning)とは、多層構造のニューラルネットワーク(ディープニューラルネットワーク、英: deep neural network)を用いた機械学習である。莫大な計算資源を用意し、ニューラルネットワークの規模を拡大することが必要だが、汎用的なAI、いわゆる強いAIの実現が期待されている。概念・手法は1980年前後からあったが、2010年代に画像認識などから急速に盛り上がり、三度目の人工知能ブームと言われる。第三次ブーム以後は、機械学習は単なる流行を超えて社会インフラとして広く定着して行った。現在は未だに特化型のAIのみが実用化されている段階にある。コグニティブコンピューティングの核となる技術でもある。


概要
ディープラーニングは、ニューラルネットワークの多層化、特に3層以上のものに対し、1990年代に進められた脳、特に視覚野の研究や、「たった一つの学習理論(英語: One Learning Theory)」、ブルーノ・オルスホーゼンによるスパース・コーディング理論を基にしたアルゴリズムが実装されたものを指す。
これに画像などのデータを入力すると、情報が第1層からより深くへ伝達されるうちに、各層で学習が繰り返される。この過程で、これまでは画像や音声などそれぞれのデータの研究者、技術者が手動で設定していた特徴量が自動で計算される。
特徴量とは、問題の解決に必要な本質的な変数であったり、特定の概念を特徴づける変数である。この特徴量を発見できれば、あらゆる問題の解決につながったり、パターン認識精度の向上や、フレーム問題の解決につながったりすると期待されている。この階層的な特徴量の学習が、ディープラーニングが従来の機械学習と決定的に異なる点である。

この技術は、画像認識や音声認識等の分野に活用される。2012年には、Googleの開発したグーグル・ブレインが、猫の概念を学習することに成功した。


















GTX1080で3時間・・・

まだまだ課題は多いけど夢のあるプログラムですな




新海誠監督作品 君の名は。 公式ビジュアルガイド
新海 誠
KADOKAWA/角川書店 (2016-08-27)
売り上げランキング: 3