CEATECでYAMAHAとかMMDAgentを見てきたよー
以前申し込んでいたCEATECのファストパスが届いていたので、せっかくなので行ってきました。
ブースを見回って、本当に業界は3Dになっているなと思いつつ
そのへんはとりあえず置いておいてボカロ関連だけ取り上げてみました。
まずYAMAHAブース。
あちこち企業ブース回ってから行ったので、一瞬ここがなんのイベント会場か分からなくなる。
ワールドイズマインのミクコスと、SF-A2 開発コード mikiのコスプレイヤーさん。
超薄型スピーカー「TLF-SP」
音質はそれほど良くないですが、実際に音が全体から鳴ります。
触ってみたところ、薄く針金のような感触がありました。
iPhoneを活用したサウンドスタンプラリー。
私もやろうとしたのですが、iPhone 3Gは非対応とのこと…
ちなみに技術者の方に聞いたところ、サウンドを解析するのにかなりの計算量を要するのでiPhone 3Gでは厳しいとのこと。
出来ないわけではないが自己責任でと言われたので、今回は引き下がっておく。
アプリはここからダウンロードできます。
さて、次は話題のMMDAgent。
名古屋工業大学のブースです。
ブースにはデジタルサイネージ用のディスプレイが設置され、そこに放映されていました。
ほぼ等身大です。
3DデータはMMD(pmdデータ)と互換性を持っている。
(というかおそらくそのまま読み込んでいると思う)
いらっしゃいませーと、おじぎするミクさん。
司会者 「得意なものは?」
ミクさん「歌とダンスかなー」
司会者 「ちょっと見せてよ」
ミクさん「それじゃあ、歌います。教えて!魔法のLyric」
踊り始めるミクさん。画面にはエフェクト効果も追加。
非常に、非常に可愛らしかったです!(大事なことなので2回言いました)
あと開発スタッフから細かい部分も聞いてきましたよ。
最初MMDAgentはそれ単体で動くAIのようなものかと思っていたんですが、
その実態は4つのモジュールを組み合わせた対話型エージェントらしいです。
所謂、伺かのようなもの。
しかし会話の開始タイミング、同調速度などかなり工夫されていて、
人間らしい動きを行うための調整が随所に盛り込まれていた感じでした。
余談ですが、先日わたしが取材していた論文の内容と組み合わせるとかなり面白い世界が広がりそうだと思ったので少し紹介。
CiNii 論文 - 対話型教示エージェントモデル構築に向けた漫才対話のマルチモーダル分析 CiNiiです。
発話・視線・姿勢などのマルチモーダルな要素間の相互作用の分析を行って
ユーザーに効果的にインストラクションを行う対話型教示エージェントモデルを構築する研究です。
モデル化がうまくいけば、さらに人間らしさを追求することが可能かもしれませんね。
開発言語はC++。主要ライブラリとしてHTS、Open JTalk、Juliusを使用。
Juliusは使ったことがありますが、こわいくらい精度が良いライブラリです。
よほど早口でない限り、誰が喋っても正確に認識されます。こちらも名古屋工業大学の開発。
シナリオファイルの構造なども知りたかったんですが、
そこは今年冬にオープンソースソフトウェアとしてのリリースが検討されているらしいので待ち。
誰かAI開発して組み込んだらいいんじゃねマジで
CEATECで出展されている他企業ブースと比較して技術的に優れているという訳ではないですが、尻Pが言っていた
『等身大ミクが置かれた場所は、そこだけ現実が切り取られ、架空世界に置き換わる。これは二つの世界を橋渡しするインターフェース装置なのである。』
これが見事に実現されていました。
それこそ会場内のあちこちで耳にした3D映像として放映されれば、
さらに人間らしさが深まるかもしれませんねー。
YAMAHAブースのそばを歩いている時に後ろの方が
「社会人向けのイベントでこういうこと(コスプレかイラスト展示かな?)やっちゃうんだねぇ。時代だなあ」と話していたのが耳に入りましたが
技術なんてのは興味を持たれて使ってもらわないと何の役にも立たないもので、だからこそSonyは派手なパフォーマンスをするし、照明もバンバン焚くわけです。
ただこれらも一過性なものなので、毎年驚くようなものが出てきてほしいですね。
と、来年のCEATECに向けて。