イベント
[GDC 2017]VR音楽制作アプリの開発者が語る「VRにおけるユーザーインタフェース」のポイントとは
SoundStageは,Hard Light Labsというデベロッパが現在も制作中の音楽制作アプリケーションで,VR(Virtual
VRといっても,SoundStageはゲームではない。VR空間の中にシンセサイザやドラム,シーケンサなどを配置し,それらを使って音楽を制作するツールである。
言葉で説明してもイメージするのは難しいと思うので,まずはどんなものか,
そこで本稿では,この講演の概要をレポートしたい。講演を担当したのは,
アナログシンセサイザをVR空間で作って音楽制作
まずOlson氏は,SoundStageの開発に至る経緯から話を始めた。
氏によると,SoundStageを制作した動機は,「1970〜1980年代における音楽制作の雰囲気をVRで再現したい」という思いだったという。とくにOlson氏が重点を置いたのが,アナログシンセサイザの再現だ。
アナログシンセサイザは,オシレータやモジュレータといった機器を「パッチケーブル」と呼ばれるケーブルでつなぎ,これらを使って音を作るのだが,
またOlson氏は,音楽制作の現場で長く使われている開発用ソフトウェア「Max」のVR版を作ることも,目標であったと述べていた。
こうした目標に加えて,「1970年台初期におけるコンピュータグラフィックスの雰囲気」(Olson氏)を重ね合わせることで,1970〜1980年代っぽさを醸し出すVRアプリケーションとして誕生したのがSoundStageというわけだ。
VR空間であっても2D的なUIが効果的
再現できない触感は視覚で表現
そんなSoundStageを制作したことで,Olson氏らはVRに関するさまざまな知見を得たという。
SoundStageでは,VR空間にアナログシンセサイザを構成するさまざまな機器を設置して扱うのだが,そうした機器をユーザーが操作するときは,「2次元的なUIが有効だ」とOlson氏は述べる。いわく,「現代では多くの人がタッチパネル的な操作に馴染んでいる」。VR空間でもあえてタッチパネル風の操作を取り入れると,ユーザーは自然に操作できるのだそうだ。
一方で,VR空間で何かをつかむ操作をUIに取り入れるというアイデアも悪くはないが,物体の奥行きをUIに取り入れるのは,難しい面があるとのこと。「物体がどのくらい離れているのかをユーザーが判断するのは,現在のVRではまだ難しいから」だと,Olson氏はその理由を説明していた。
現行世代のVRではうまく表現できず,それでいてSoundStageにとっては極めて重要な要素となるのが,触感だという。SoundStageでは,VR空間でドラムやキーボード,マラカスといった楽器を使って音楽を作れるのだが,それらの楽器に触れたときの触感を再現できないことが,問題になったそうだ。Viveのワンド型コントローラには振動機能があるはずだが,それではまだ十分ではないということなのだろう。
そのため,SoundStageでは仕方なく,鍵盤やドラムスティック,マラカスを光らせて触感の代わりにしたそうだ。
ここまでを振り返ってOlson氏は,VRにおけるUIについて,2次元的に,そしてタッチパネルなどといった現実の操作系を模倣するのが効果的であることと,現時点だと触感は諦めるほかないことを,SoundStageの開発から理解できたとまとめている。
次世代のUIは複合現実感やタンジブルが鍵に
Olson氏による講演の後半は,SoundStageで得た知見を基にして,次世代のUIを考えようというものだ。SoundStage自体が,まだ完成していないアーリーアクセス版という段階なので,次世代に話を進めるのは気が早いようにも思えるが,
さて,Olson氏によると,次世代のUIを考える上では,3つの重要な技術があるという。
1つは,「複合現実感」(Mixed Reality,以下 MR)だ。現実の世界に仮想世界の情報を重ねるという概念や,それを実現する技術のことである。たとえばMi
2つめに挙げたのは音声認識技術や視線追跡技術の応用だ。
音声認識技術は,「Amazonのデバイス(※Amazon Echo)や『Google
視線追跡技術も,Foveが開発するVR HMD「FOVE」で中核技術として使われており,ほかのVR HMDメーカーでも追従する動きが出てきている。
そして3つめが,「タンジブルUI」(Tangible UI)である。タンジブルUIとは,それこそ「情報」のように,本来は触れることのできない無形のデータを,あたかも触れられる物のように扱って操作するUIのこと。マサチューセッツ工科大学の石井 裕教授などが提唱している新しい概念だ(関連記事)。
タンジブルUIでは,実際に存在しないものを触ったように感じさせるために,「モーターなどを使って触覚を表現する」(Olson氏)のだという。
ここで,Olson氏が「過去を振り返ってみたい」と述べて紹介したのは,1980年にマサチューセッツ工科大学が提唱した「Put That There」と呼ばれるインタフェース技術である。Put That Thereは,声や指差しでコンピュータを操作するという先進的なUIを実現しようとしたものだ。
YouTubeにデモの動画がアップロードされているので,興味のある人は,ぜひ見てほしい。
Olson氏は,MR,音声および視線認識,そしてタンジブルUIという3つの技術と,Put That ThereのようにスマートなUIが融合することで,次世代のUIデザインが見えてくるのではないかと述べていた。
ゲームと直接は関係ない話題に終始した講演だったが,Olson氏らが開発したSoundStageを使ってみると,何か新しいUIの可能性が見えてきたりするのかもしれない。氏によると,音楽に詳しい人だけでなく一般の人でも楽しめる作りだそうなので,興味のある人は,Steamで体験してみるといいだろう。
SteamのSoundStage 製品情報ページ
SoundStage 公式Webサイト
GDC 2017記事一覧
- この記事のURL: