【VUI/VUXってなに?】イベントレポート
こんにちは!IT女子のちーさんです。
所属しているオンラインサロン「Voicyファンラボ」の活動の一環で、音声におけるUI/UXを意味する「VUI」「VUX」の勉強会を開催しました!
◆お知らせ◆
勉強会第2弾を2018年11月24日に開催します!
準備までは運営として動きましたが、当日は完全に一般参加者として楽しんだので、参加者目線でレポートを書きます。
当日は、Voicyデザイナーの京谷実穂さん、ハルカナさんをゲストにお呼びして、音声サービスの過去・現在・未来についてみんなで学びました。
VUI/VUXとは?(京谷さん)
Voicyでデザイナーをされている京谷さんに、VUIとVUXの概念と歴史、これからについて語っていただきました。
VUIとはなにか?
VUI(ボイスユーザーインターフェイス)は、音声の入出力によってシステムとの情報のやりとりを行うことを指します。
コンビューターにおける「インターフェイス」を例にとると、最初はマウス操作から始まり、タッチパネルになっていきました。今それが音声になりつつある、ということです。
インターフェイスは、どんどん人間にとって自然な動作になっていくという流れがあります。例えば、マウスは子供が操作するのが難しかったものが、タッチパネルなら子供も操作しやすく、さらに音声であればお年寄りの方でも簡単に操作することができます。
音声の先は、脳波やシンパシーというものになって行くと考えられており、そこまで行くと「NUI(ナチュラルユーザーインターフェイス)」と呼ぶそうです。
音声におけるインターフェイス「VUI」という言葉は、最近出て来たものですが、実は30年前にもプロダクトとしてありました。
それが、カーナビです。車では手が使えないというところから、音声がナビゲーションする製品が生まれました。
次に出て来たのが、犬ロボット「AIBO」です。これは、組み込まれた簡単な会話ができるロボットです。
カーナビが第1次音声ブーム、AIBOが第2次音声ブーム、そして現在来ているスマートスピーカーやSiriが第3次音声ブームと呼ばれています。
しかし、これまで一時的なブームはあったものの、イマイチ活用されてこなかったのがVUIでした。
今来ている第3次と第2次の違いは、AIの存在です。第3次では、AIの発達によって、音声認識機能が発達し、パターンの組み込みではなく機械学習によって様々な会話ができるようになったので、再びVUIが注目されています。
VUXとはなにか?
それでは、VUX(ボイスユーザーエクスペリエンス)とはなんでしょう。
VUXは、VUIよりももっと広い概念です。VUIは、ユーザーと音声の間にある表面的なところでしたが、VUXは、音声サービスを使うユーザーの状況を踏まえて、どのような体験が最適なのかというのを考えることです。
VUXにも、VUIと同様大きな流れがあります。
受動→操作→会話→相棒
という流れです。
将来的には、音声のサービスが相棒のように自分を理解してくれるよきパートナーになるところを目指していますが、今時点ではまだ受動〜操作の段階です。
実際に、スマートスピーカーでもっともよく使われている機能が音楽を聴く、ポッドキャストを聴くといった受動的なコンテンツとなっています。
音声サービスと自然な会話をしたり、実際の生活を助けてくれるという風になるのは、まだもう少し先になりそうです。
音声が得意なこと、苦手なこと
音声にも得意なことと苦手なことがあります。
得意なことは、ながら作業ができることと想像力を掻き立てることができることです。
現代人がどんどん忙しくなっていく中、スマホの画面を見る時間というのも限られてくることでしょう。そんな中、音声というインターフェイスは、寝ている時間以外はほぼ全てユーザーの生活に組み込むことができます。生活とのタッチポイントが多く、もっとも生活に溶け込むメディアとして音声が注目されています。
また、想像力を掻き立てられるという特技もあります。好事例として、「Voice App Lab」がスマートスピーカーのスキルとして開発した「お願いサンタ!」があります。
これは、大人が子供のクリスマスプレゼントをリサーチするためのアプリなのですが、スマートスピーカーが「君の名前は?」「何が欲しい?」とサンタのおじさんの声で聞いてくれて、答えながら会話ができるというものです。BGMも非常に凝っていて、本当にサンタさんがいるかのようなイメージをすることができます。
スマートスピーカーを持っている方は、以下のように話しかけてみてください。
「ねぇグーグル。お願いサンタと話したい!」(Google Home)
「アレクサ、お願いサンタを有効にして」(Alexa)
逆に、苦手なことは、一度に多くの情報を伝えることです。例えば、レストランのメニューを伝える時に、音声だけだとどうも上手くいきません。
音声は、順番に伝えていく必要があるので、一覧性が弱く、リスト情報などはやはり視覚の方が有利です。
そうした情報伝達の際には、音声だけでなく視覚と併用して伝える必要があります。
音声デザインの設計5ステップ
- 理想の体験をイメージ
- ユーザーゴールを設定する
- 体験のシナリオを作る
- セリフのシナリオを作る
- ユーザーテストを繰り返す
1〜3までは、普通のデザイン設計と同じですが、4で音声ならではのセリフが登場します。
ユーザーテストでは、音声ならではの課題が出てくることも多いそうで、課題を元に仮説検証を繰り返していきます。
今すぐ試せる音声サービス活用例(ハルカナさん)
ハルカナさんのご紹介
ハルカナさんは、VoicyのパーソナリティをしているUXデザイナーで、最近Voicy社に入社しました。
ハルカナさんのチャンネルでは、スマートスピーカーを激推ししていて、それを聴いていた私が今回講演をお願いした形です。笑
ハルカナさんのチャンネルは、音声以外にも、デザイン全般の話やWEBサービスの話が面白いので、ぜひ聴いてみてください!このブログの記事テーマが好きな方は合うと思います。
スマートスピーカーとハルカナさん
ハルカナさんとスマートスピーカーの出会いは、2017年10月でした。
AlexaやGoogleHomeなど、複数台買って色々と試してみたところ、最終的にGoogleHomeminiに落ち着きました。
これは個人差がありますが、普段使っている言葉によって、それぞれのAIの反応しやすさみたいなものがあるらしく、色々試してみて自分に合うものを選ぶのがおすすめだそうです!
スマートスピーカーと家電を連携して快適なお部屋に♪
さて、スマートスピーカー購入者にありがちなのが、「結局、音楽しか聴いてない」という現象。私もそうです。
しかし、実はもっと便利な活用方法があるんです!
それが、家電との連携です。
部屋に帰ってきて、「電気つけて」「エアコンつけて」「テレビつけて」・・・
あれ、でもこれリモコンでやったほうが早くない?と思ったそこのあなた!ちょっと待ってください、もっと便利な使い方があります。
それは、馴染みある行動に家電操作を組み込むということです。
例えば、
「ねぇGoogle。ただいま」→電気がついて、エアコンがついて、テレビがつく
「ねぇGoogle。おはよう」→電気がついて、今日のニュースと天気予報が流れる
「ねぇGoogle。おやすみ」→電気が消えて、ヒーリング音楽が流れる
こんな感じです。まさに未来。
これが、スマートスピーカーとNatureRemoというデバイスとGoogleHomeアプリで実現できちゃうんです。
NatureRemoは、家電とスマホをつなげるIoTのデバイスです。
単価は14,000円と少しお高めですが、最近は機能を抑えたminiも登場し、9,000円くらいで買えるようになりました。

スマートリモコン Nature Remo mini【Amazon Echo/Google Home対応】
- 出版社/メーカー: Nature, Inc.
- メディア: エレクトロニクス
- この商品を含むブログを見る
NatureRemoは、赤外線で繋ぐのでリモコンのある家電ならほぼほぼ対応。リモコンがない家電でも「スマートプラグ」というので、コンセント自体を赤外線化してしまえば使えます。

NANXIN スマートプラグ 日本語版Amazon Alexa/Google Home/IFTTT対応 15A PSE/技適取得済み 日本仕様製品
- 出版社/メーカー: ナンシン(NANXIN)
- メディア: Tools & Hardware
- この商品を含むブログを見る
つまり、家じゅうの家電をスマート化できちゃいます。
NatureRemoが準備できたら、GoogleHomeアプリで、音声コマンドと操作内容を設定します。
GoogleHomeアプリの「その他の設定」から、「ルーティン」を選んで、簡単に設定ができます。
これであなたのお部屋も超快適空間に生まれ変わることでしょう。
私も、これを聞いてだいぶイメージができたので、NatureRemominiを購入しました!上手く使えたら、今度レビューしたいと思います♪
音声でプッシュ通知が送れる?
最後に、より発展したスマートスピーカーの事例のご紹介です。
音声とAIを組み合わせることで、例えばオフィスの受付業務もスマートスピーカーに任せることができます。
受付にスマートスピーカーを置いて、来客者が「ねぇGoogle。受付〇〇です」と話しかけると、「〇〇様ですね。お待ちしてました」と返して、来客の対応者に「〇〇様がご来社です」と教えてくれる、というもの。
今、事務の人が電話でやっていることが、スマートスピーカーだけでできちゃう感じですね。
居酒屋の注文でも使えそうですね。
これを実装するには、GHKitというものを使う必要がありますが、エンジニアとデザイナーの領域みたいなので、私にはちょっと難しそうです。
グループワーク「もし〇〇が話しかけて来たら?」
京谷さんとハルカナさんのお話を聞いた後に、グループワークをしました。
テーマは、「もし〇〇が話しかけて来たら?」
現在の音声サービスでは、音が一方的に流れてくる受動的なコンテンツが多いですが、将来的には、何かのアクションに対してデバイスの方から話しかけて来たり、あるいは、デバイスじゃなくてモノが話しかけてくるような時代が来るかもしれません。
そうなった時に、どんなサービスが考えられるかをディスカッションしました。
いろんなグループで出たアイデアの中で興味深かったものをいくつかピックアップします!
- 散歩中にお店情報を教えてくれるメガネ
- 「爪切りどこ?」と言ったら「ここだよ」と教えてくれる爪切り
- 話しかけるとろうそくがついて死んだ人の声で喋ってくれる遺影
- 使うべき食材を教えてくれる冷蔵庫
- 「疲れてる?オロナミン飲む?」とかしゃべる自動販売機
- バイク(自転車)と対話したい
- 気持ちよく寝かせてくれて気持ちよく起こしてくれるベット
- 筋トレ中、まだいけるだろ!ってムチ入れてくれるアブローラー
- 好きな声とマッチングできるアプリ(出会えない)
- 装着者の感情や膨大なビックデータと連動し、「あの人に声かけたら!良いことがあるよ!」と急に話しかけられ、背中をおすアプリ
出たアイデアをざっくり分類すると、
- 癒し
- アドバイス
- 励まし
という感じですね。
音声の方が、感情に訴えることができたり、頭にスッと入ってきやすいという特徴があるので、この3軸でのサービスはかなり相性がいいと思います。
京谷さんからのフィードバックでは、〇〇さんの声だからこそ伝わる喜ばれる、そういった視点でのサービスが、より音声の可能性を引き出せるのではないかということでした。
今後、音声AIがより発達して、自然な発声ができるようになったらそういうサービスもきっとどんどん出てきますね。
上のアイデアだと、喋る遺影とか、声のマッチングアプリとかが当てはまりそうです。
VUIとVUXがもっと実用化されたら、すごく面白い未来になるだろうな、とワクワクした勉強会でした!
第2回ももしかしたら企画するかもなので、お楽しみに〜。