イベント
[TGS 2015]予想以上の“素手感覚”に驚き。VR空間にアクセスする新デバイス「Oculus Touch」体験レポート
非常に残念ながら「デモ内容の画像素材がまったくない」という状況なので,文章での説明のみになるが,ぜひ想像力を働かせて読んでみてほしい。
デモの説明の前にちょっと能書きから入らせてもらいたい。
VR業界では「プレゼンス」という概念が重視されている。実在感とでも訳せばよいのだろうか,要するに,仮想空間内のモノがあたかも実際にそこにあるかのように思わせる,仮想空間内での存在感を意味する言葉である。最近はなにかと強調されることが多いので,“なにか凄く特別な状態”だと思っている人もいるかもしれないが,実はVR HMDではそれほど特別なものでもない。「だって目の前にあるじゃん?」としか言いようのない状況には案外簡単に遭遇する。
Oculusの場合,ゲームですらない動作確認用の画面がまずそれだ。Configuration Utilityを起動すると広い空間の中で目の前に机が表示される。別にそれが本物に見えるわけではない。しかし,机の上には鉛筆,メモ帳,トランプタワーなどが,それなりの実在感を持ってプレイヤーの前に姿を現すのだ。多くの人は触ってみたいという衝動に駆られることだろう。
そしてプレゼンスが高くなればなるほど,その世界にインタラクトしたいという欲求は強くなる。
PSVRの場合,最初からVR空間へのインタラクト手段が用意されているという点でアドバンテージがあった。PS Moveは,剣であるとかラケットであるとかいった棒状のものを使うには最適なデバイスといえるだろう。初期のデモであった「The Castle」では剣やボウガンを使ったPS Moveならではの,両手を生かした操作が可能だった。とくに剣やハンマーをトリガーで掴んだり放したりといった操作ができたことは重要だ。
DK2にLeap Motionコントローラを装着するというソリューションの登場は画期的だった。Leap Motionコントローラは手の指の動きを認識することに特化したデバイスだが,それを使うことで10本の指すべての動きを取ることができ,VR空間に手で触れることができたのだ。この「手で」という部分はとくに重要で,なにかのデバイスを介しているのではなく,素手で直接触れるという感覚は,実に新鮮で衝撃的だったのだ。
2014年,Oculus VRは,Leap MotionコントローラをVR向けスーパーバージョンにした感じの「Nimble Sense」というデバイスを開発していたNimble VRを買収した。個人的に期待していたのだが,結局Oculus VRが発表した入力デバイスは手持ち型のOculus Touchだった。デバイスを持つとなると「素手感覚」での操作は期待できないかもしれない。形状からして,PS Moveよりもより直接的に手の動きを取れるだろうということは想像できるのだが,実動しているところを見た人はおらず,どんな操作感覚なのかは謎に包まれていた。
で,今回初めてOculus Touchを試用する機会を得たわけだが,最初に言っておくと,想像以上に「手」の感覚で操作できるデバイスに仕上がっていた。事前に,各種のボタンは単なるスイッチではなくて接触センサーも付いているということは聞いていたのだが,操作性とどう関わるのかが想像できていなかった。
Oculus Touchを見ると,手のひらで握るためであろう短いスティック部分と指で操作するハットスイッチのようないくつかのボタン,そしてトリガーが確認できる。当然ながら,こういったボタンやトリガーを使った,ゲームパッド的な操作が予想される。
しかし,今回行ったデモではこれらのボタンの使い分けなどはほぼしなかったのだ。
今回は説明を受けながら装着してもらったのでHMDを先につけてから手にOculus Touchを持つという順番になったが,通常時,自分一人で使うときは,ストラップを両手にかけてからHMDをかぶってOculus Touchを握り直すといった手順になるのだろう。
なお,Oculus Touchの取り付けから取り外しまでずっとHMDを付けての作業だったので,どういうふうに握っているのかは見えず,最後まで「なんとなく握っている」感じだったことを付け加えておく。正しく握るとどうなるのかがいまいち分からなかった。まあ,それでもまったく問題はなかったのだが。
さて,Oculus Touchを握ったときにHMD内ではどうなっていたかというと,目の前に「手」の映像が映っていた。右手と左手の手首から先が宙に浮いている感じだ。(限定的で申し訳ないが)DK2とLeapMotionコントローラを使ったことがある人なら分かるかもしれない。だいたいあれと同じ状態が実現されていた。
デモ中に行った操作は,ほぼ「Oculus Touch全体を握るか放すか」と腕の振りだけだったといっていいだろう。そう,握れるのだ。あちこちにあるボタン(どれがどういう機能かは知らないが)に手が触れている状態であれば軽く指を曲げた待機状態,触れていなければ手を広げた状態(人差し指だけ伸ばすといった操作も可能だった),ボタンが全部スイッチとして機能していれば手を握り締めた状態になる。実際に目の前に表示された「手」がその状態になるので分かりやすい。10本の指を自在に動かすことはできないのだが,これだけでもかなり直感的に「手で握る」操作は可能だ。タッチセンサーとスイッチはこういうふうに使われていたのだ。
デモの内容を紹介しよう。
最初のデモが起動されると,目の前にテーブルが表示され積み木やおもちゃが並んでいるのが見える。両手を使って積み木を操作できるというデモだ。
手を動かすと,表示されている手も空間内を動き,前述のようにオブジェクトを掴むことができた。操作感覚は「ぐっ」「ぱっ」という感じだ。積み木の形に合わせてつまむのではなく,形や大きさを無視してぐっと握る必要がある点はちょっと不自然ではあるが,位置に関しては正確で,自然に手を伸ばして取ることができた。オブジェクトによっては握る位置や角度がちょっと想定外になることはあったが。
オブジェクトを掴んで腕を振って放すと投げる動作になる。当たり前の話で,説明しなくても誰でもその通りにできる動作ではあるのだが,手を放すというのがちょっと難点だ。ストラップをつけないと本当に危ないのはもちろんだが,今回のデモで本当に手を放してしまって,手探りで握り直した場面もあった。
このデモの実装では,握った状態で手に接触判定が発生し,握っていない手はオブジェクトと干渉しない。ただ,オブジェクトを素通りする際には手のひら部のスティックが軽く振動して感触を伝えてくる。その際の位置判定は大雑把な感じだったので,おそらくオブジェクト表面ではなくて中心部との接触で実装されていたのであろう。
とりあえず,積み木を積み上げたり,掴んで投げつけてみる。とくに違和感なく操作できていた。
また,パンチングボールがぶら下がっており,ぐっと握った拳で殴りつけることもできるようになっていた。こういう操作は精度が低いとちょっとスカったりめり込んだりで「あれ?」となりがちなのだが,非常に感覚的に自然な挙動が確認できた。接触時に軽く音が出るので,なんとなく触覚フィードバックの錯覚も生じるのが面白い。
ちなみに,デモ空間内には別室にいる案内役もいたのだが,二人でパンチングボールを打ち合うようなこともできた。これだけで意外と楽しい。VR空間に直接干渉できるというのはよいものだ。
そのほか,マグネット型球体関節と思われるロボットのおもちゃは,手足を引っ張るとバラバラになる。切れた部分をうまく近づけてやればくっつくらしいのだが,結構シビアで試遊ではうまくできなかった。
同じシーンで無重力状態のデモも行われたが,操作という点ではとくに変わるところはない。
次のシーンでは,テーブルに置かれた四角いものを手に取ってみるとライターだった。持った状態で軽く手を振るとフタが開いて火が点く。
さらにテーブル上には花火が並んでいる。わりと日本的な感覚の花火だ。棒状のものを手にとって火を点けると,パチパチと火花が上がる。筒状のものを手に取ると,筒の先には導火線があり,そこに着火する仕様だった。これには火花が噴き出すものや連発花火風に弾を出すものなのどがあった。普通の連発花火と違うのは,大型の打ち上げ花火のように空中でさらに花を広げるところだ。ちょっとしたバーチャル花火大会が楽しめたのだが,映像をお見せできないのが本当に残念だ。
難しいのがブーメランだ。掴んだブーメランを腕を振って投げるのだが,これが難しい。“ブーメランを持った感じ”で投げると,ポトっと落下する。とりあえず腕を振り切る前に放すのがコツのようだったが,この部分ははっきり言って実装がよくない。おそらくスナップとかは関係ないんだろうなと思いつつも,それっぽく投げてしまうのが人間なので,ちゃんとそのように実装してほしいところだ。
大半のオブジェクトについては,現実のものとだいたい同じ感覚で操作できたのだが,考えてみるとそれも凄い話かもしれない。VR空間で実物そっくりなオブジェクトを再現するのはさほど難しくないのだが,それを自然に使えるかどうかは別の話だ。ものによってはチャレンジングなテーマになるかもしれない。
デモの最後に,なぜか“スモールライト”が使われ,おもちゃスケールの世界に入り込むことができた。ガイド役の人のボイスチャットが低音で再生されるのがシュールだ。
ちなみに,デモはガイド役の人のボイスチャットで進行していたのだが,インカムは使ってないけどマイクあったっけ,Crescent Bayにマイク付いてたかなと思いつつ,たぶん向こうには聞こえてないんだろうなと分かっていても音声で返事をしてしまうのがVR環境というものだ。はたから見るとかなり奇怪であったろうなとは思った。
ただでさえ言葉で表現しにくいVRとさらに表現しにくい操作系なので説明が分かりづらかったかもしれないが,雰囲気は感じていただけただろうか。
手の操作でLeap Motionより優れている点が分かりやすいのは投げる動作などだろう。Leap Motionではセンサーの前でしか手を認識してくれないのだが,Oculus Touchでは手を横に伸ばしたり,頭上に上げたりなどもっと自由な動きができる。表裏などの判定を間違えない位置と角度の精度も特筆すべきだろう。半面,指単位の細かな動きは苦手だろうが,これはソフト側の研究が進めば多少は改善される可能性がある。
今回のデモでは,Oculus Touchの可能性が見えてきた。個人的には,とにかくVR空間にアクセスできるということがなにより素晴らしいと感じた。このあたりは,ムダにプレゼンスだけ上がっているのに触れそうで触れないというフラストレーションがあった反動もあるので話半分で見てもらったほうがいいのかもしれないが,0が1になったことの意味は大きい。今後はより自然なアクセスの実現に向けて動いていくのだろう。ちょっと贅沢な話ではある。オブジェクトの掴み方などは実装次第なので,今後さらに洗練された方式が出てくることに期待したい。
また,デモの本筋ではないのだろうが,ネットワーク越しのボイスコミュニケーションがVRでどのように映るのかというのも興味深かった。相手の姿もほぼ手しか表示されていなかったのだが,それでも確かに人がいることが分かる。Facebook傘下となったOculus VRだが,ゲーム以外の部分でもVRの活用ができそうだ。
Oculus VR公式サイト
- 関連タイトル:
Rift
- この記事のURL: