すぐ試せる画風変換アルゴリズム chainer-goghが凄すぎる件について

すぐ試せる画風変換アルゴリズム chainer-goghが凄すぎる件について

DeepLearningは何でもできると思わせる技術

こんにちは。

AI coordinatorの清水秀樹です。

最近、本当にDeepLearningは何でもできる技術なんだなぁ〜ってしみじみ思います。

画像分類や自然言語処理など個人的に色々勉強しておりますが、まさか画像まで生成できる仕組みまであるとは・・・。

前回の記事で、DeepDreaming with TensorFlow で画像生成にチャレンジしてみましたが、

すぐできるDeepDreaming with TensorFlow で画像生成にチャレンジ

今回は画風を変換するアルゴリズムを試してみたいと思います。

 

参考にさせて頂いたサイトの紹介

以下、参考にさせて頂いたサイトになります。

 

このような技術を公開してくださる方には、本当に頭が下がります。

しかも、簡単に試せるように工夫されています。

ありがとうございます。

 

開発環境

  • maxOS Sierra
  • anaconda 4.3.29
  • chainer 1.24.0

 

ソースコード

chainerを使用する設計となっています。

GitHubはこちらから。

 

使い方

GitHubに使い方が紹介されています。

どの学習モデルを使うかで出力される画像に差が出るようです。

NINやVGG、GoogLeNet等を選択して処理を実行するようです。

仕組みについては参考元サイトに詳しく記載があるので、ここでは省略します。

 

今回は綺麗な結果が出力できると説明があったVGGモデルで試してみました。

ただし、CPUですと処理に時間がかかります。

気長に待ちましょう。

 

GitHubからソースをダウンロードしたら、使いたい画像を準備して、そのディレクトリ上で以下のコマンドを打ち込むだけです。

 

input.pngとstyle.pngは好きな画像を使ってみましょう。

今回もinput.pngには綺麗なお姉さんを使用します。(しかし誰だろ〜な?)

 

次にstyle.pngにはサンプル画像で準備されている画像を使用しました。

 

ここでふと思ったのですが、style.pngの画像を描いた方が、input.pngの絵を書いたらどうなるか?

みたいな結果になるんだろなぁ〜と。

これができると、有名な画家にこの風景を描かせたらきっとこういった絵になるはずだ!

みたいな使い方ができるようになるわけですね。

ある意味、これも予測ですね。

 

結果の確認

CPUなので画像出力に時間がかかりますが、「output_dir」フォルダに少しづつ画像が生成され始めます。

う〜ん、素晴らしい。

凄すぎですね。

 

続いて以下の画像をstyle.pngに指定して実行してみると、

結果はこんな感じ。

もし好きな画家がいる方は、その画家の画像をstyle.pngに指定して、自分の好きな風景をinput.pngに指定して実行してみると面白いかと思います。

 

本当に簡単に実装できるので、ぜひ試してみてください。

それではまた。

About The Author

Hideki
東京大学発AIスタートアップ企業でロボット開発室室長、画像解析室室長、動画解析室室長を務め、AIエンジニアとしても画像認識関連の特許を在籍中に3つ取得。その後、KDDIグループ内でプロダクトリーダーとして自然言語処理パッケージの自社開発を経て、現在はAGRISTのテックリードとして農業の人手不足の解決に向けた収穫ロボットの開発にチャレンジしている。ロボットは技術の総合格闘技との考え方から、AIだけでなく、ハードやエレキ、通信からクラウド、IOTまで幅広く手掛けることができる。最近では人とロボットの共存を目指すべく、性能だけを追い求める開発から「感動やワクワク体験」をデザインできるロボットの研究を進めており、人とロボットがうまく共存できる世界を作り出したいと日々行動している。

LEAVE A REPLY

*
*
* (公開されません)