昨今のゆるキャラブームによって着ぐるみを目にする機会が増えましたが、彼らは着ぐるみ姿のままお喋りはできませんからひたすらボディランゲージでお愛想振りまくわけで、これは大変です。
そんな着ぐるみ業界(?)に朗報。首都大学東京大学院の生徒さんが、中の人の表情を着ぐるみに反映する「着ぐるみ演者の表情演出を支援する顔面入力インタフェース」を研究しているのだそうです。
『これが“未来の着ぐるみ”だ! 中の人と表情がシンクロします』という記事によると
中の人は、赤外線の反射率を計測する「フォトリフレクターセンサー」と赤外線発信機を備えたマスクを装着する。赤外線反射率はまばたきで変化するため、その数値を着ぐるみ側に伝えることで、着ぐるみの目を自動で動かせる。同様の仕組みで、口の開閉を伝えるインタフェースもマスクに備わっている。
こんな仕掛けで表情つけしているそうです。元記事には動画も。
今のところ目と口が動くだけですが、キャラ演出の面で役に立つんでしょうね。
ただ、ちょっと問題かなと思うのが『着ぐるみは重労働』ってことですね。時間が経つと目は閉じっぱなしで口開きっぱなしになってるかも知れません。
ウインクしようとしても、下手過ぎてまぶた痙攣させてるようにしか見えない人もいるだろうし。
いずれ研究が進んでこの機能があたりまえになってくると
“こどもに囲まれてニコニコしてるゆるキャラ”
というほのぼのした光景が、見ようによっては
“こどもに囲まれてニタニタしてる中の人”
といういささか危なっかしい光景として認識されかねないのでこの点も注意が必要かもわかりません。