日本初のデジタルサイネージ・コンサルタント、デジタルサイネージ総研(TM)が国内および海外の最新情報や市場の動向をお届けします
5ヶ月ほど前の、デジタルサイネージの広告モデルの行き着く先 という記事の中で、近未来のデジタルサイネージはモニターの置かれた場所の周辺データを自動的に収集して、画面の前にいる人々の属性や会話の内容に合わせたコンテンツ(や広告)をマッチングして配信するようになるだろうと予測しましたが、雑音に満ちた現実世界の中で音声認識がどの程度可能なのか、最新の研究成果をビデオでご紹介します。
こちらは京都大学とホンダ技術研究所の共同開発による「Robot Audition Project(ロボット聴覚プロジェクト)」の成果です。3人が同時にしゃべった言葉を、それぞれ誰が何と言ったのか聞き分けています。スゴいですね。
[googlevideo:http://video.google.com/videoplay?docid=-3386251792468042381]
何気なく会話していたら、その会話の内容に合った広告が表示されたりするのはちょっと気持ちが悪いですが、例えばサーフィンの話題で盛り上がっているときにサーフィンのビデオが流れるのは悪くない気がします。そのビデオと一緒に関連した広告が表示されてもそれほど気にならないでしょう。
視聴者とコンテンツのマッチングが行われ、そのコンテンツに付随してマッチングされた広告が表示される、という形であれば比較的すんなりと受け入れられるのではないでしょうか。