ニュース
[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
E-TECH展示セクションレポート(1)
E-TECH展示セクションレポート(2)
E-TECH展示セクションレポート(3)
iScan3D and iFace3D: 3D Scanners on iPhone
by Digiteyezer
〜iPhoneやiPadで人の顔を手軽に立体スキャン〜
フランスのDigiteyezerがE-TECHに出展した「iScan3D」と「iFace3D」は,ごく普通のiPadやiPhoneを使って,現実世界の立体物を3Dグラフィックスとして取り込めるアプリだ。
いずれのアプリも使い方は簡単で,表示されるテンプレートに従って対象物の動画を撮影するだけだ。汎用立体物の取り込みに対応したのがiScan3Dで,人間の顔面を取り込むのに特化して作られているのがiFace3Dとなる。
iPhoneやiPadの演算能力だと,撮影した動画を3Dモデルへ変換処理するのはさすがに難しいため,iScan3DとiFace3Dでは,撮影した動画をひとまず中間データに変換し,Digiteyezerが用意しているサーバーへ送るようになっているのだという。中間データから3Dモデルへの変換は,このサーバー上で行われることになる。
サーバーでのデータ処理は数分程度で完了し,スキャンした対象物を3Dモデル化したデータがiPhoneやiPadに返送されてくる仕組みだ。
ちなみにiFace3Dは,クラウド使用料込みで85円(※2011年8月31日現在)と低価格。iTunes Storeで販売されているので,興味がある人は試してみるといいかもしれない。
iScan3DとiFace3Dは,今のところ,3Dモデル化したデータを動かしたり,あるいは取り込んだ顔に落書きをしたり,アクセサリを付加したりといった,個人ユーザー向けアプリになっている。しかしDigiteyezerは,iScan3DとiFace3Dのソフトウェア技術をBtoBビジネス向け商材として展開したいと考えているそうだ。
対象を簡単に3Dモデル化できるという手軽さは,アミューズメントパークのアトラクションやゲーム機などにおいて,来場者やプレイヤー自身のアバター作成機能を実現するうえでは,かなり有効な手段になるといえる。
スマートフォンやタブレットの内蔵カメラと,クラウド技術とを用いて,難しいと思われがちな3Dオブジェクトスキャンを手軽に実現したiScan3DとiFace3Dは,技術的に相当高く評価されたようで,SIGGRAPH 2011の「Best Emerging Technology」に選ばれている。
展示ブースでiFace3Dを使って筆者の顔を取り込んでもらい,その3Dモデルを操作している様子を掲載しておこう。
Surround Haptics: Sending Shivers Down Your Spine
by Disney Research, Pittsburgh
〜次世代ゲーム用チェア!? 背中を駆け巡るボディソニックシステムが登場〜
前回のレポートでWalt Disney Research(以下,WDR)の展示の模様をお届けしているが,そのWDRのピッツバーグ研究所(以下,WDR Pittsburgh)が発表していたのは,コストパフォーマンスが高く,きめ細かな振動表現ができるというボディソニックシステム(≒フォースフィードバックシステム)「Surround Haptics」(サラウンドハプティクス)だ。
どちらもシート状で,椅子に取り付けられているのだが,背中のみに振動を与えるタイプのデモでは,被験者にはiPadが手渡される。iPad上では,手書き入力に対応したドローソフトのようなアプリが実行されていて,そこに指で自由に曲線を描くと,リアルタイムでその軌跡に沿った振動が背中に伝わるというものになっていた。
一方,椅子に取り付けると「L」字型に背中から太ももまでを覆うタイプのほうは,Disney Interactive Studiosのレースゲーム「Split/Second」をプレイすると,ゲーム進行と連動したSurround Hapticsを楽しめるというデモだった。
Split/Secondは,「破壊」がテーマになっている珍しいレースゲームで,崩壊していくコースを車で走り抜けていくという内容になっている。Surround Hapticsを体験するサンプルとして,おあつらえ向きのタイトルといえよう。
背中のみに振動を与えるタイプのデモ。iPadの画面に描いた軌跡が触感としてそのまま背中に再現される仕組みだ |
背中から太腿にかけて振動を与えるタイプのデモでは,Split/SecondをプレイしながらSurround Hapticsが体験できるようになっていた |
筆者が実際にSplit/SecondをプレイしてSurround Hapticsを体験してみたところ,アクセルを踏み込んでいるときや敵車に衝突されたとき,瓦礫だらけの道を走破しているときなどがとくに振動を体感できた。しかもこれらの振動は,オン/オフするだけではなく,背中の左右を駆け抜けたり,ふくらはぎの前から後ろに移動したりするのだ。この体感は感動的ですらあった。
表現として適切かどうかはわからないが,振動がドット単位で移動しているような感じで,車両とプレイヤーの身体がシンクロしたような一体感が味わえるのだ。
これだけ複雑な振動をさせているのだから,さぞ大量の振動ユニットが搭載されているのかと思いきや,背中のみに振動を与えるタイプで8個,背中から太腿にかけて振動を与えるタイプでも14個の振動ユニットしか実装していないのだという。
少ない振動ユニットで縦横無尽に駆け巡る振動をどのように作り出しているのかというと,それぞれの振動ユニットにおける振動の強弱を高い精度で制御し,仮想的な振動点を作り出すことで実現されているのだ。
「5.1chスピーカーセットで作り出されるサラウンドサウンドの振動版」と言うとイメージしやすいかもしれない。
C2 Tactorは,いわゆるボイスコイルモーター(VCM)で,スピーカユニットのボイスコイルに重りを付けたような構造になっている。WDR Pittsburghのスタッフは,「リニアで正確な振動を作り出すのにC2 Tactorが最適だった」と語っていた。
なお,Surround Hapticsは,パークの新アトラクションなどへの応用が考えられているそうだ。そのほか,今回の展示で好評を得ていたこともあり,民生向けのゲームデバイスとしての展開も検討中とのことで,今後に期待したい。
FuwaFuwa: Detecting Shape Deformation of Soft Objects Using Directional Photoreflectivity Measurement
by JST ERATO 五十嵐デザインインタフェースプロジェクト
〜「揉んだり,なでたり」が可能なゲームコントローラを実現できる!?〜
指で押し込むスイッチや,指で画面をなでるタッチ&スライドなどのマンマシンインタフェースは,堅い物に対するセンシングを基本としている場合が多い。スイッチ表面をゴムのようなものにして触感自体を柔らかくしているものもあるが,入力自体は「オンかオフか」の二値情報しか取れないケースがほとんどだ。
それに対し,JST ERATO 五十嵐デザインインタフェースプロジェクトが開発した「FuwaFuwa」は,「柔らかいものに対する無段階なアナログ入力」を情報として取れるインタフェースになっている。
展示ブースでは,センサーの仕込まれたクッションやぬいぐるみが用意され,クッションの任意の場所を押すと圧力の強弱分布がリアルタイムで取得される様子や,ぬいぐるみに手で触れると,ぬいぐるみの視線が触れた方向を向くというデモが披露されていた。
下に掲載したのは,今回のデモの内容も含めてFuwaFuwaの可能性を説明している公式解説ムービーだ。
圧力を感知するセンサーは球形をしており,直交する6方向(前・後・左・右・上・下)の穴に光学センサーが仕込まれている。この光学センサーは,赤外線LEDとフォトトランジスタで構成されており,いわゆる測距センサー(フォトリフレクター)に相当するものだ。
クッションは何もしない状態だと膨らんでいるので,中に詰め込まれている綿などの密度が低くなっている。この状態では,測距センサーが発した赤外光が散乱してしまい,帰還してくる光量が少なくなる。逆に強く押さえたりすると,内容物の密度が高くなるため,測距センサーが発した光がより多く返ってくるわけだ。要するに,測距センサーを密度測定に転用したということになる。
取得したデータをワイヤレスでホストPCへ飛ばすためバッテリーも内蔵しなければならず,また,試作型ということでその制御基板の物理的な大きさもそれなりにあるため,センサーモジュールは結構な大きさになってしまっているが,それらは今後改善される見込みとのことだった。
このFuwaFuwaの応用先としては,ぬいぐるみをはじめとしたアミューズメント系を連想する人が多いと思われるが,枕やそのほかの寝具に仕込めば介護や育児などの生活支援分野にも役立てられると,研究グループは考えているようだ。
PocoPoco: A Tangible Device That Allows Users To Play Dynamic Tactile Interaction
by 首都大学東京
〜新感覚ミュージックコントローラが登場〜
「音楽を視覚的に楽しむ,もしくは演奏する」というテーマは,楽器メーカーを含む世界中の研究機関が今もなお力を入れて研究している分野だ。首都大学東京が発表した「PocoPoco」もこの分野にまつわる研究成果で,新感覚ミュージックコントローラといえるものである。
PocoPocoは,ポコっと立ち上がる筒が4×4のマトリクス配置されたデザインになっており,サウンドを入力していくシーケンサーモードと,入力した楽曲を再生しながら演奏に表情を付けていくパフォーマンスモードとが用意されている。
PocoPocoの象徴的なモードともいえるシーケンサーモードでは,合計16本用意される筒のそれぞれが,サウンドを入力するための鍵盤的な役割を果たす。適当に筒を選んで押し込めば,押し込んだタイミングに合わせて音が鳴る仕組みだ。なお,音高の指定は特別なコマンドを打ち込む必要があるという。
パフォーマンスモードでは,発音するタイミングで各筒がポコっと立ち上がるので,筒をねじったり,上げ下げしたりすることでビブラート(モジュレーション)効果を掛けたり,ギュイーンというピッチベンド(ポルタメント)効果を掛けたりできる。
このあたりは,下に掲載した公式紹介ムービーを見てもらうと分かりやすいだろう。
この筒がポコっと立ち上がる仕組みは,電磁気を応用したソレノイドアクチュエータによるもの。筒の回転をロータリーエンコーダで取得し,その高低をフォトリフレクターで取得している。メカニズム自体は,ごく一般的な部材で実現されているため,コストがそれほどかからない点もPocoPocoの利点だといえる。
この種のデバイスでは,実用性よりも見た目重視なものが多いといえるが,意外や意外,PocoPocoは見た目だけでなく,実用的な機能設計になっているのが印象的だった。
The Virtual Crepe Factory: 6DoF Haptic Interaction with Fluids
by フランス国立情報学自動制御研究所(INRIA Rennes)
〜GPUベースの流体シミュレーションを用いた,とってもマジメな「クレープ調理シミュレータ」〜
日本でも誰もが知っている菓子であるクレープ。もともとはフランスのブルターニュ地方で産まれたパンケーキの1種で,ブルターニュ地方にはクレープ調理師の養成学校もあるのだとか。
フランスを代表するこの食文化を守るべく(?),フランス国立情報学自動制御研究所により開発されたのが,クレープ調理シミュレータ「The Virtual Crepe Factory」である。まずはその紹介ムービーを見てほしい。
このインタフェース部分には,同じくフランスのシミュレータ用触覚再現型インタフェースデバイス(力覚デバイス)メーカーであるHaptionによって製造された自由度6(DOF:Degree-Of-Freedom)の「VIRTUOSE 6D35-45」が採用されている。これにより,フライパンの重量感や,クレープ生地がフライパンの上を動き回るときの荷重変化を正確にユーザーへとフィードバックできるようになっているのだそうだ。
被験者は,ボウルに入っているクレープ生地を杓子でフライパンに敷き,レンジ(ホットプレート)部分にあてがって焼いていく。妙にリアルなクレープ生地の動きは,GPUベースで実装した流体物理シミュレーションで制御されているそうだ。担当者によれば,クレープ生地やシロップなどの流体は,シーンあたり総計2万5000のパーティクルによって再現され,粒子法の1つであるSmoothed Particle Hydrodynamics(SPH)によってシミュレーションされているという。
クレープ職人の見せ場といえば,片面が焼き上がったクレープをヘラを使わずに腕のスナップ動作だけで裏返す「フライパン返し」だろう。担当者によれば,The Virtual Crepe Factoryで訓練すれば「フライパン返し」もできるようになるそうだ。
というわけで筆者も挑戦してみたのだが,焼き上がったクレープをクレープ生地入りのボウルに投げ込むという失態をやらかしてしまったのだった。
Recompose - Direct and Gestural Interaction with an Actuated Surface
by MIT Media Lab
〜Kinectのセンサーを用いたデジタル彫刻システム〜
MIT Media Labが開発した「Recompose」は,Xbox 360用のモーション入力システムである「Kinect」を応用し,自由度の高いジェスチャー入力でデジタルな彫刻制作やCADモデリングを行えるようにしたシステムである。下に掲載したのは,その公式紹介ムービーだ。
Recompose from Matthew Blackshaw on Vimeo.
この上に両手をかざし,左右の手の親指と人差し指をくっつけて「つまむ」ジェスチャーをすると,つまんだ下にあるピン群が選択範囲になり,その後両手を上下させれば,選択範囲のピンが手の動きにシンクロして上下する仕組みだ。
つまむ動作をやめればアクション完了となり,その位置でピンが固定化される。
これらの動作を繰り返すことで,テーブル上に任意の高低分布を作り出していくことができ,がんばれば素晴らしいレリーフ像などを作れるかもしれないというのが,制作者であるMIT Media Labの主張である。
さらに,Kinectセンサーの隣にはプロジェクタも置かれており,「いまどの範囲を選択しているか」が分かりやすいよう,選択領域にマーキング映像を表示できるようになっている。
現在は試作段階のため,ピン自体も大きめなものが採用されているが,実用化する段階では,ピン数をもっと多くしなければならないだろうし,高低のダイナミックレンジももう少し大きくする必要があるだろう。
まだ改良の余地があるとはいえ,非接触で自在な造形を作り出せるという着想は面白い。
ピンの上にはキートップのような箱がくくりつけられている。これがピクセルの役割を果たす |
奥に見えるのが,実際にジェスチャー入力を認識したうえでピンを制御しているホストPCだ |
MoleBot: Mole in a Table
by Design Media Lab KAIST
〜モグラを叩かないで操るゲーム〜
韓国のDesign Media Lab KAISTは,物理的に存在するテーブルの上で「もぐら」のバーチャルペットが飼えるユニークなペットゲーム「MoleBot」を発表していた。
下に掲載したのは,その公式紹介ムービーだ。
MoleBot: Mole in a Table from Woohun Lee on Vimeo.
MoleBotが動き回るテーブルは70×70cm角の大きさで,そこに直径6mmある六角形状のピンが1万5000個も敷き詰められている。
蜂の巣状にピンが敷き詰められたテーブルを地面に見立て,この下でもぐら型の本体が動き回るという仕組みだ。
もぐらが存在している部分は,もぐらの形状に合わせてピンが盛り上がることなる。盛り上がったピンは,その場所からもぐらが移動することで自重により元の位置に下がり,平坦に戻る。もぐらが動くと,ピンの盛り上がりが軌跡を描くことになるわけである。
MoleBotでは,XYステージを用いて直接もぐらを動かすのではなく,テーブルの下面に設置された台座ユニットを動かすようになっている。この台座ユニットともぐらには,強力なネオジム磁石が組み込まれていて,台座ユニットを動かすと,もぐらも一緒に移動することになるのだ。
もぐらが動いたときにピンが引っかからないよう,ピンともぐらの間には合成弾性繊維のスパンデックスが敷かれており,さらにもぐらとテーブルの間にもベークライトのシートが敷かれているため,スムーズに動かせるという。
なお,MoleBotには3種類のゲームが用意されている。
1つめのゲームは,MoleBotの盛り上がりを操作して,ボールをゴールまで運ぶというものだ。テーブル上にはピンで作られた迷路もあるため,MoleBot本体をうまく動かしてボールを転がしていかなければならない。
2つめは,テーブル上に設置されたオモチャの木に実っている果物オブジェクトを回収してゴールまで運ぶゲーム。果物オブジェクトは,磁性体金属でできているため,もぐらが近くに移動すると引き寄せられることになる。もぐらに近づいた果物オブジェクトは磁力を帯び,別の果物オブジェクトを引きつけるようになるため,果物オブジェクトのあるところを次々と巡回して数珠つなぎに集めていくのだ。
3つめは,1つめに挙げた迷路ゲームの亜流バージョン。テーブル上のボールをゴールまで運ぶのは同じだが,もぐらを操るプレイヤーと車輪で動くラジコンロボットを操るプレイヤーとで競い合うゲームだ。現状,1体までしかもぐらを操作できないため制限から,こういった仕様にしているとのこと。
食卓のテーブルがMoleBotだったら毎食毎食がとても楽しくなりそうだが,実際にテーブル上の食器を倒さないように操作するのは相当スリリングかもしれない。
InteractiveTop: An Entertainment System that Enhances the Experience of Playing with Tops
by 電気通信大学小池研究室
〜これが次世代型ベイブレード!? 複合現実型コマバトルがやってきた〜
電気通信大学小池研究室が発表した「InteractiveTop」は,コマ遊びにハイテクを持ち込み,21世紀型に進化させたバージョンだという。
まずはその“ハイテクコマ”を公式紹介ムービーで確認してみてほしい。
InteractiveTopでは,ゲームフィールドとなる舞台にCGが映し出されており,なんともサイバーな雰囲気である。さらにゲームフィールドでコマを回し始めると,その瞬間からコマの回転数などがコマの直下に表示される仕組みになっている。
通常のコマ遊びだとプレイヤーは回っているコマを眺めるだけで,とくに何ができるわけでもないが,InteractiveTopでは,回転しているコマに対して,積極的にインタラクションが行える。コマ回し機を近づけるとコマの回転を強められるし,近づけ方次第でコマの軌道を変えることもできるのだ。
InteractiveTopは自分のコマを操作できるだけではない。自分のコマが敵プレイヤーのコマに衝突すると,その衝撃がコマ回し機から手へフィードバックされ,パチンと手の平が叩かれるのだ。「コマの痛みをプレイヤーも感じ取れ!」というわけである。
さらに,コマ同士が衝突すると,ゲームフィールドにも衝撃を表したエフェクトCGがオーバーレイ描画され,ド派手な効果音も鳴り響くといったシステムになっている。
コマを回す仕組みから見ていこう。InteractiveTopは,コマ側にネオジム磁石,コマ回し機側に電磁石がそれぞれ仕込まれており,磁力を用いてコマを回転させている,電磁石のS極とN極を高速に入れ替えることで回転動力をコマに対して発生させるわけだ。
コマが回っている最中に非接触でコマの回転が上げられるのは磁力を用いているためで,コマとコマ回し機の距離を30mm程度まで近づければコマに影響を与えることができる。なので,やや離れた距離から自分のコマを敵コマへ積極的に近づけて攻撃することもできる。
コマの底面に赤外線LEDと偏光板が取り付けられているのだが,実はゲームフィールドが半透過型のスクリーンになっているため,コマの偏光板を通った赤外線はゲームフィールドを透過するわけだ。そして透過した赤外線は,ゲームフィールド内部に設置されている高速度赤外線カメラが捉える仕組みになっている。
これにより,回転しているコマ側の偏光板を通った光は,「赤外線カメラ側に貼られた偏光板の偏光条件と一致した瞬間の赤外線」しか捉えられなくなる。つまり,高速回転しているコマから発せられた赤外線ほど,赤外線カメラから見ると高速点滅する光として捉えられることになる。
赤外線を利用したこの仕組みによって,コマの回転速度に加えて,位置も把握しているのだそうだ。
ホストPCでは,これらの情報を基に物理シミュレーションを走らせており,コマ同士の衝突判定を行って,衝突のエフェクトCGをどの程度の大きさにするか決定したり,コマ回し機経由でプレイヤーに返す衝撃の大きさなどを決定していたりする。
さらに,エフェクトCGやコマの回転数など,描画系もホストPC側で制御しているとのこと。ゲームフィールドの下に設置されたプロジェクタからゲームフィールド裏面の半透明スクリーンへ,映像が投射される仕掛けになっているのだ。
現在は試作機ということもあってか,テクノロジーデモが主体で,ゲーム的な要素はそれほど深く盛り込まれていない感じだったが,未来らしさが多大に感じられる展示内容だった。
今の状態からもう1段階,何らかのチャレンジングなスコアリングシステムを搭載してゲーム性を高めれば,子供たちに人気の高い「ベイブレード」をしのぐ,新しいコマ遊びの面白さを表現できそうな予感がする。
- この記事のURL: