イベント
[GTC 2016]4眼式カメラと専用ハードでPCいらずの360度ビデオ配信。VideoStitchの360度ビデオ製品が披露された講演をレポート
GTC 2016でも再びBurtey氏による講演が行われ,ソフトウェア専業のVideoStitchが,360度ビデオ関連のハードウェア事業を手がけることが発表された。ゲームとは直接関わりのない話題ではあるものの,VRのトレンドを理解するうえで興味深い話題なので,講演の概要をレポートしよう。
4眼式360度カメラと360度ビデオ生成ハードウェアのセット製品を発表
まず,Burtey氏が紹介したのは,2つのソフトウェア製品だ。
1つめは,最大6方向に向けて撮影したビデオストリームを,球体内面に投射したような360度ビデオストリームに変換する編集ソフト「VideoStitch Studio」だ。
2つめは,GPGPU技術を応用して,VideoStitch Studioの変換メカニズムをリアルタイム化することで,ライブ配信に対応させたソフトウェアの「Vahana VR」である。
なお,これらの製品については,GTC 2015でのレポート記事で紹介しているので,本稿では説明を省略することをお断りしておく。
GTC 2016でBurtey氏が発表したのは,これら2製品の機能を1つにまとめてハードウェアとした「Live processing unit」(※Stitching boxとも)に,専用の360度カメラを組み合わせた「Orah 4i」だ。
出荷は,2016年7月からの予定で,価格は,4月いっぱいまでの予約分は1795ドル(約19万3860円),5月以降は3595ドル(約38万8260円)になるという。
カメラのサイズは80(W)×70(D)×65(H)mmで,重さは約480g。4側面それぞれに魚眼レンズカメラを備えた4眼式で,それぞれのレンズには,F値2.0の8レイヤーMCガラス魚眼レンズを採用している。そして,各レンズごとに,ソニーの裏面照射型CMOS撮像センサー「Exmor」を配置。4基の撮像センサーから,計2048×1536ドット/30fpsの映像が出力されるという仕組みだ。撮影映像は,ハードウェアレベルで完全に同期した状態で展開して出力するので,時間的なずれは起こりえないとのことだ。
なお,カメラのバッテリー駆動はできず,Live processing unitから電力を供給されるとのこと。
カメラの映像は,有線接続でLive processing unitに送られたうえで,このボックス内で360度ビデオとして自動でつなぎ合わされて,4800×2400ドット/30fpsのパノラマ映像として出力する仕組みとなっている。
このLive processing unitは,サイズが274(W)×13(D)×264(H)mmで,重量は2.7kgと,そこそこ大きく重い。電源はAC電源なので,屋外で持ち運びながら使うことには向いておらず,基本的には,イベント会場などに設置して活用するのを想定しているようだ。
音声は,各カメラの撮影レンズに対応する位置につけられた計4基のマイクで録音され,Live processing unitで4チャンネルの360度音声信号「Ambisonic:B-Format」へと変換される。
Live processing unitは,ソフトウェア製品であるVahana VRをハードウェア化したものであるため,講演では「Vahana VR Embedded」という呼び方をしていた。
ソフトウェアのVahana VRと同様に,Live processing unitは,Real Time Messaging Protocol(RTMP)を使ったビデオストリーミングに対応している。Live processing unitだけで,映像の展開とつなぎ合わせからエンコード,ストリーミング出力までが,PC不要で行えるのが特徴だという。
対応する映像コーデックはH.264(※High,Main,Baselineプロファイル対応)で,ビットレートは5〜25Mbpsまでに対応する。
さて,実際に映像配信を行うには,別途360度ビデオ配信用のサーバーが必要になるのは今までと変わらない。しかし,Burtey氏は,「カメラをブラケットにはめて,それらをパソコンに接続し,複数のカメラから送られるビデオストリームをつなぎ合わせて配信するというこれまでの方式に比べて,(Orah 4iは)設置のやりやすさとシステム信頼性の点で,格段に良好なものになったと思う」と述べており,Orah 4iの完成度の高いシステムであることをアピールしていた。
なお,Burtey氏は,「Vahana VR Embeddedのリアルタイムビデオつなぎ合わせには,NVIDIAのハードウェアテクノロジーが使われている」と述べていたものの,「どのプロセッサを使っているのか」という質問には,明確な回答をしていない。Orah 4iのスペック情報ページにも,Live processing unitが搭載するプロセッサの名称は書かれていない状況だ。
Burtey氏は,講演会場にはカメラしか持参しておらず,Live processing unit部の実物を見せることはなかった。しかし,「Embedded」という名前からすると,Tegra系のSoC(System-on-a-Chip)を採用しているのではないだろうか。4K映像を処理できる性能が不可欠であることを考えれば,「Tegra K1」か「Tegra X1」ではないかと推測している。
360度ビデオに立ちふさがる課題とは
新製品紹介に続いてBurtey氏は,360度カメラによる360度ビデオのライブ配信が持つ価値と,将来の可能性についてを語った。GTC 2015での講演内容と重なる部分が多かったので,ここは簡単にまとめておこう。
まず第一に,演劇やコンサート,スポーツといったライブイベントの360度ビデオ配信は,「ユーザーに没入感という新しい価値を創出させる」と,Burtey氏は主張している。
コンサートステージに360度ビデオの撮影システムを設置すれば,アーティストと同じステージに立ったような気分でコンサートが楽しめるし,プロスポーツのベンチに設置すれば,控え選手や監督とともに,競技場で観戦する雰囲気を味わえる。こうしたVR体験は,場合によっては実際に会場や球場に行くよりも高い価値すら与えられるかもしれない,というわけだ。この意見には,同意する人も多いのではないだろうか。
教育についても,360度ビデオのライブ配信は有効だ。たとえば,言葉では説明しにくいベテラン技能者の繊細な技能を教えるときに,360度ビデオのVR体験であれば,それを技能者の視点でリアルタイムに学ぶことも可能になる。
なにより重要なのは,こうした360度ビデオのVRコンテンツは,再生クオリティに差はあるものの,ハイエンドのPC用VR HMDだけでなく,スマートフォンを表示兼再生装置にした安価なVR HMDでも体験できるようになりつつある点だ。
こうした状況も踏まえて,Burtey氏は,「VRエコシステムが今後も成熟していくことを確信しており,その未来は明るい」との予測を示していた。
一方で課題もあると,Burtey氏は指摘する。
その1つは,360度ビデオの標準的なフォーマットが存在せず,その規格化が待たれていること。
現在,パノラマ展開された映像をH.264のようなMPEGコーデックで圧縮することが慣例化しているが,この方法,地図における「メルカトル図法」のように映像フレーム外周が大きく引き伸ばされてしまうため,冗長性が大きいのだ。これについてBurtey氏は,「本来であれば,中央と外周とで解像度を均一化,正規化したうえで圧縮し,これを再生システムに適した形態で展開できるコーデックが必要だ」と述べていた。
サウンドについても課題があるという。映像が360度なのだから,音像もこれに見合ったものにしなければならない。そのためには,「Dolby Atmos」のように,音像に座標と向きを持たせるオブジェクトベースのサウンドシステムの採用が必要だろうと,Burtey氏は述べる。
さまざまな問題はあれども,「技術革新がそうした問題を解消して行ってくれるはずだ」とBurtey氏は結び,講演は終了した。
このセッションは,30分枠のショートセッションだったのだが,講演後はQ&Aに来場者が殺到して,かなり白熱している様子が見られた。それだけ360度ビデオに対して,高い関心が注がれているということなのだろう。
Orah 4i 公式Webサイト(英語)
GTC 2016公式Webサイト
- この記事のURL: