Watsonと連携したPepper:Visual Recognitionで画像が分析できるPepper開発

PepperでWatson API「Visual Recognition」を使ってみよう

こんにちは。

AI coordinatorの清水秀樹です。

こんにちは。

AI coordinatorの清水秀樹です。

Pepperに搭載してあるカメラから、今映し出している画像がなんの画像なのか判別できるPepperを作ってみたので紹介します。

これをもっと応用できれば、色々なことに使えそうですね。

 

準備するもの

コレグラフを使用します。

Watson APIは「Visual Recognition」を使用しますので、Bluemix上で「Visual Recognition」アプリを作成しておく必要があります。

Bluemixの登録がまだの方は以下の記事を参考にしてください。

IBM Bluemix登録方法 30日間は無料で使用できるぞ

 

Bluemixの登録が済んでいる方は、カタログメニューから「Visual Recognition」を選択してアプリを作成してください。

 

プロジェクトファイルの説明

仕組みは簡単です。

まず、「Take Picture」ボックスで写真を撮ってから、写真を保存しているパスをWatosn API「Visual Recognition」を組み込んでいる次の「Python Script」ボックスに繋いでいきます。

その分析結果を「Say Text(2)」でしゃべらせています。

ボックス名が色々適当なのはご容赦ください。

 

「Take Picture」ボックスは写真のパスを出力するようにカスタマイズしています。

以下ソースコードの最後のロジック「self.onStopped」に「r」を指定しています。

この「r」には1行上のパスを出力するように設計しています。

 

Watson API「Visual Recognition」を組み込んでいる「Python Script」のソースは以下の通りです。

 

プロジェクトファイルのダウンロードはこちらから → Visual Recognition.zip

 

実機で動作確認済みです。

是非お試しあれ。

 

ただ、URLに
‘https://gateway-a.watsonplatform.net/visual-recognition/api/v3/classify’

を指定すると何故かエラーになるので、エラー内容に沿って以下のアドレスを指定したらうまく動きました。
‘https://access.alchemyapi.com/visual-recognition/api/v3/classify’

原因が良く分かりませんが、知っている方がいればぜひご教授ください。

よろしくお願い致します。

 

それではまた。

 


その他のPepperアプリ記事はこちらから

あなたにオススメの記事

コメント

  1. この記事へのコメントはありません。

  1. この記事へのトラックバックはありません。

PAGE TOP