読者です 読者をやめる 読者になる 読者になる

感情を認識するって?

ソフトバンクがちょっと前に発表したロボットペッパーは感情認識を行うらしい


Pepper


音声データと画像認識(顔認識のパターン)
から相手の感情の状態をパラメーターとして決定する分類器のロジック
+
人工無能アルゴリズムをベースに
音声読み上げ機能を加えて、ジェスチャーによる表現を加えた感じでしょうか

一応開発者環境としても公開されているようです。
http://www.softbank.jp/robot/special/tech/

学習機能はどこまで実装されているのかが気になるところです。
持論なんですけど知性を持たせるならロボットは環境に対して柔軟に適応しなくてはいけません
身体を持つ生物が持つ知性は結局ローカルな環境に適応していくというところに尽きると思います。


ちなみに恐怖した顔を認識した時の扁桃体の活動変化をMRIで見たりする研究は多く
人間の表情から感情を読み取ろうとする試みの知見は多く得られてます。
http://www.researchgate.net/publication/10632092_A_functional_MRI_study_of_human_amygdala_responses_to_facial_expressions_of_fear_versus_anger

感情が筋肉の動きとして表れやすいのは顔だと思うなので
表情から相手の感情を推測するというのは人間でもやっている事なんですけど
さて、果たしてそのアルゴリズムで共感を得る事は出来るかな?
感情の認識を機械の側でやれるという納得のいく報告を私はまだ見た事がありません
認識しているのは人間の表情のパターンでありその分類結果に対して
何かの評価で高い見返りが期待される反応とジェスチャーを出力するというのが
今機械側で出来る動作です。

感情には内的な認識と外的な認識があるでしょう
外的な認識は相手の表情とか声色から認識するものですが
自分の頭の中で怒っちゃいけない場面で怒りを抑えたりしてるのは
内的な認識を使っている訳です。
この内的な感情の認識はどうしたらソフトで実現出来るんでしょうね?
結局ニューロサイエンスの実験による知見が十分ソフトで実装出来るレベルまで
集まるのを待ってる段階だと思うのです
モデル化出来ないとは思いませんけど
人間っぽい感情のロジックを実装するには
実物がどうやって動いてるのかよく知らないと難しっす

動物とかペットで可愛がられているものもいるので
人間っぽくなくても感情っぽいものをモデル化して
ソフトにすれば十分商用に使えるんでしょうけど
ニューロを齧った私からすると
そういう作り方はやや不満ではあります

Blue Brain project に期待