Watsonと連携したPepper:Visual Recognitionで画像が分析できるPepper開発

Watsonと連携したPepper:Visual Recognitionで画像が分析できるPepper開発

PepperでWatson API「Visual Recognition」を使ってみよう

こんにちは。

AI coordinatorの清水秀樹です。

こんにちは。

AI coordinatorの清水秀樹です。

Pepperに搭載してあるカメラから、今映し出している画像がなんの画像なのか判別できるPepperを作ってみたので紹介します。

これをもっと応用できれば、色々なことに使えそうですね。

 

準備するもの

コレグラフを使用します。

Watson APIは「Visual Recognition」を使用しますので、Bluemix上で「Visual Recognition」アプリを作成しておく必要があります。

Bluemixの登録がまだの方は以下の記事を参考にしてください。

IBM Bluemix登録方法 30日間は無料で使用できるぞ

 

Bluemixの登録が済んでいる方は、カタログメニューから「Visual Recognition」を選択してアプリを作成してください。

プロジェクトファイルの説明

仕組みは簡単です。

まず、「Take Picture」ボックスで写真を撮ってから、写真を保存しているパスをWatosn API「Visual Recognition」を組み込んでいる次の「Python Script」ボックスに繋いでいきます。

その分析結果を「Say Text(2)」でしゃべらせています。

ボックス名が色々適当なのはご容赦ください。

 

「Take Picture」ボックスは写真のパスを出力するようにカスタマイズしています。

以下ソースコードの最後のロジック「self.onStopped」に「r」を指定しています。

この「r」には1行上のパスを出力するように設計しています。

 

Watson API「Visual Recognition」を組み込んでいる「Python Script」のソースは以下の通りです。

 

プロジェクトファイルのダウンロードはこちらから → Visual Recognition.zip

 

実機で動作確認済みです。

是非お試しあれ。

 

ただ、URLに
‘https://gateway-a.watsonplatform.net/visual-recognition/api/v3/classify’

を指定すると何故かエラーになるので、エラー内容に沿って以下のアドレスを指定したらうまく動きました。
‘https://access.alchemyapi.com/visual-recognition/api/v3/classify’

原因が良く分かりませんが、知っている方がいればぜひご教授ください。

よろしくお願い致します。

 

それではまた。

About The Author

Hideki
東京大学発AIスタートアップ企業でロボット開発室室長、画像解析室室長、動画解析室室長を務め、AIエンジニアとしても画像認識関連の特許を在籍中に3つ取得。その後、KDDIグループ内でプロダクトリーダーとして自然言語処理パッケージの自社開発を経て、現在はAGRISTのテックリードとして農業の人手不足の解決に向けた収穫ロボットの開発にチャレンジしている。ロボットは技術の総合格闘技との考え方から、AIだけでなく、ハードやエレキ、通信からクラウド、IOTまで幅広く手掛けることができる。最近では人とロボットの共存を目指すべく、性能だけを追い求める開発から「感動やワクワク体験」をデザインできるロボットの研究を進めており、人とロボットがうまく共存できる世界を作り出したいと日々行動している。

LEAVE A REPLY

*
*
* (公開されません)