AIチャットボット活用事業
( 新分野進出等モデル事例普及事業 )
この度、株式会社ガッツプラスでは「武蔵野学院大学 Edtech研究所」のご協力により、AIチャットボットのプログラミングに対応できる障がい者向けの技術訓練プログラムの開発を行います。またAIチャットボットを使った商品開発と販売を推進していきます。
この新規事業は、5年以内に急速にマーケットの拡大が推測されるAIチャットボットのプログラミングに対応できる専門家の育成、障がい者の工賃の増加、就労機会、雇用創出の機会を広げることを目的としており、2019年度の富山県の「新分野進出等モデル事例普及事業費補助金」の交付対象となりました。今後とも支援者の皆さまの変わらぬご愛顧とご指導を賜りますよう、よろしくお願い申し上げます。
AI × 人の非言語コミュニケーションについて学ぶ
講師 武蔵野学院大学Edtech研究所 所長 坂井裕紀(さかい ひろのり)教授
AIチャットボットのプログラム開発にあたり、武蔵野学院大学 国際コミュニケーション学部教授・EdTech研究所所長の坂井裕紀教授に「非言語コミュニケーション」を6つのテーマにわけて教えていただきました。
AI × 人の非言語コミュニケーションについて学ぶ
講師 武蔵野学院大学Edtech研究所 所長 坂井裕紀(さかい ひろのり)教授
AIチャットボットのプログラム開発にあたり、武蔵野学院大学 国際コミュニケーション学部教授・EdTech研究所所長の坂井裕紀教授に「非言語コミュニケーション」を6つのテーマにわけて教えていただきました。
Interview 1
コミュニケーションのすれ違いと意図の誤解
AIチャットボットとユーザー間で、コミュニケーションのすれ違い・意図の誤解が起こりうることを想定しています。対面・ネットを問わず、対話で行うコミュニケーションで起こりうるトラブルについて教えてください。
最もあり得るトラブルはおそらく思い込みによる違いでしょう。心理学的には「認知の齟齬(そご)」とも言います。コミュニケーションを構成する情報には、我々が言葉として発している言語情報のほかに「聴覚情報」と「視覚情報」が付与されています。先行研究ではアルバート・メラビアンという心理学者が実験を行なっていて、「メラビアンの法則」と定義されています。全体の割合でいうと言語情報は大体7%程度、聴覚情報は38%、視覚情報が残りの55%であるということが分かっています。テキストのみでコミュニケーションを行うチャットボットは聴覚情報も視覚情報も含まれておらず、言語情報7%での構成となっているので、93%の割合で誤解が生じるシステムだと思われます。
一つ例を出してみましょう。
おとこらしい
これ、どんな人をイメージしますか?
筋骨隆々でごっつい人を思い浮かべますね。熱血系で北斗の拳に出てきそうな。人によって多少イメージのばらつきはあるかと思いますが。
先ほど言ったとおり、これがテキスト(言語情報)のみの状態です。言語情報は7%正確に伝わることを示しているので、93%は意図の誤解が発生する可能性があります。
ではこの「おとこらしい」に聴覚情報を加えます。
おとこらしい
なるほど! 声の上がり下がりを変えると意味合いが違ってきますね。
分かりましたか? まさに誤解が生じているんです。
でも、これだけだと「イントネーション(抑揚)の変な人だな」と考える人もいますので、さらに視覚情報を追加してみます。
中性的な容姿の人を指さし「あの人、おとこらしいよ?」と驚いた表情でささやく坂井教授。
話す時の表情や仕草がポイントですね。いわゆる「オネエ」の人を想定していると。
言語情報7%(テキスト)だけの時は、筋肉質でたくましい男性をイメージしたと思いますが、聴覚情報38%(声の抑揚)と視覚情報55%(表情や仕草)が加わることで、「一見女性に見えるのに、実は男性らしい」という意味に変化しましたよね。結果として、テキストという曖昧さが残るフォーマットのみを使用したコミュニケーションは、基本的に誤解が生まれやすいと言えます。
このパターンでいくと、次のような例も考えられるでしょう。
私はさけが好き
うーん、どっちでしょうかね……(笑)
そういうことなんです。お酒とするのか、魚の鮭とするのか。この場合は発音以前に、あらかじめ漢字変換しておくことで、言語情報単体でも誤解を軽減できます。
実際に体験してもらいましたが、これがコミュニケーションのすれ違い・意図の誤解が生まれる要因です。
ありがとうございました。(2へ続く→)