ニュース
[SIGGRAPH]これこそ真の“アンドロイド”な携帯電話!? 最先端技術が集結の「Emerging Technologies」展示セクションレポート(1)
E-TECHでは,大手企業の先端技術がいち早く披露されていたり,将来製品化されるかもしれないような製品の初期プロトタイプが展示されていたり,はたまた「それは思いつかなかった」というような大発明的なもの,挙げ句の果てには「なにこれ!?」というようなローテクもの,一発ネタ的なものもあったりする。
このように最新のテクノロジーを体感できるE-TECHは,今やSIGGRAPHの「裏看板メニュー」的な存在であり,毎年必見ともいえる大人気の展示セクションになっている。
ブース出展者(もしくは出展社)は,まるで万博のように国籍も色とりどりで,世界各国から集まってくるのだが,毎年とくに強い存在感を放っているのが日本の大学と企業である。
そんなE-TECH展示セクションの様子をいくつかに分けてレポートしていきたい。今回はその第1弾だ。
Telenoid: Tele-Presence Android for Communication
by ATR知能ロボティクス研究所
〜人型携帯電話が登場。これが本当のアンドロイド携帯電話だ〜
遠く離れた人とリアルタイムで通信するときに,通信相手があたかもその場にいるような状況を再現することを「Tele-Presence」(テレプレゼンス)というのだが,このテレプレゼンスで最も普及している形は,テレビ電話やテレビ会議である。
京都府にあるATR知能ロボティクス研究所(ATR Intelligent Robotics and Communication Laboratories:以下,ATR-IRC)が今回発表した「Telenoid」(テレノイド)は,このテレプレゼンスの新しい形を提案するものである。
まず,ATR-IRCがコスト度外視で着手したのは,「Geminoid」(ジェミノイド)という超リアリズム型のロボットデバイスだ。ジェミノイドは,顔だけで13DoF(Degree of Freedom,自由度),全体で約50DoFを備えたロボットで,人間の表情や動きをかなり忠実に再現できるという。
ジェミノイドは,特定個人を模して作られているため,その個人を再現するなら有効といえるが,これだと汎用性が低く,とても一般的な製品として成り立つものではなかった。
そこでATR-IRCは,このジェミノイドを出発点にして,特定個人でなく不特定多数のユーザーに向けてテレプレゼンスを実現するために「何をジェミノイドから削ぎ落としていけばいいか」に着目したのだという。
テレノイドがジェミノイドと違うのは,ボディランゲージが大きく変更されている点で,まず足の動きが省略されている。さらに手を2DoFに減らし,首を3DoFに変更したそうだ。
ボディランゲージを最低限にしたといっても,人間同士のコミュニケーションにおいて顔面の動きが重要であると判明したため,テレノイドの顔表情再現は,ボディランゲージの変更に比べて最小限の変更にとどめたという。とはいえ,顔面の筋肉の動きをすべて省略し,眼球を3DoF,唇を1DoFにしている。なお,人種や性別の固定概念を排除するため,真っ白い肌を採用し,毛髪も省略したそうだ。皮膚はシリコン素材が用いられ,電気モーターによるアクチュエータで関節を駆動する。
このテレノイド,まだプロトタイプということもあって,重量が6kg,全長約800mmというサイズになっている。実際に受信機として使用するときは,赤ちゃんを抱きかかえるような格好になる。
通信相手がしゃべると口が動き,目も動く。首も動き,横に振るような動作も再現される。腕が駆動するため,抱きかかえてハグをしたり,バイバイしたりといったジェスチャーも可能だ。
テレノイドを使った通信は,送信するユーザーをComplementary Metal Oxide Semiconductor(CMOS)カメラで捉え,その映像をリアルタイムで解析し,音声などと共にテレノイドの駆動データとして送信するといった流れで行われる。
現時点のテレノイドが顔面筋肉再現をほぼ省略しているため,テレノイドの駆動データは,映画制作などに用いられるフェイシャルモーションキャプチャーのような高度で大がかりなシステムではなく,映像による基本的な表情認識的アプローチで生成しているという。
そのため,テレノイドシステムで使用するCMOSカメラは,ノートPCが搭載しているようなレベルのWebカメラでよく,ユーザーの顔面にドットマーカーを打つ必要もない。
最初に見たときは,「犬神家の一族」に登場する佐清(スケキヨ)みたいで怖かった筆者だが,デモ体験の通話相手が女性だったこともあり,話しているうちに親近感が持てるようになった。確かに,会話が弾んでくると,テレノイドがなんとなく女性に見えてくるから不思議だ。
このテレノイドシステムは,実際に利用可能な人型携帯電話「Elfoid」(エルフォイド)として,ATR-IRCとNTTドコモとで共同開発中だとのこと。
エルフォイドは,全長200mmになっており,テレノイドと比べてだいぶ小型化された印象だ。プロトタイプということもあってアクチュエータの類いは省略されている。
近い将来,本当(!?)のアンドロイド携帯電話が登場するかもしれない。
Vection Field for Pedestrian Traffic Control
by 電気通信大学
〜電力消費なしの歩行者誘導装置〜
駅構内などの対面通行する歩道では,右側通行や左側通行といったルールが分かりにくく,自然発生的にどちら側を歩くかが生み出されているケースが多い。しっかり規定されている場合においても,地域ごとにルールが異なったりするため,外部の人間はそれを知る由もなく,注意されるなんてこともしばしばあるだろう。
VFに用いられるのは,白黒の模様が描かれた,四角形のパネル。このパネルは,見る角度によって表示が変わるようになっていて,この上を歩くと特定の方向に模様が流れるような仕組みになっている。これにより歩行者は無意識ながら,模様の流れに従って歩くことになり,適切な進行ルートを選ぶのだという。
少し分かりにくいかもしれないので,まずは,公開されている動画を見てほしい。
さて,VFのキモといえる「白黒模様が動く仕組み」は,レンチキュラーレンズによって実現されている。
レンチキュラーレンズとは,見る角度によって複数の図柄が見えるようになる光学系シートのこと。かまぼこ状の凸レンズ(レンチキュラーレンズ)が線状に並べられており,アナログレコード盤にある溝のような手触りが特徴である。
食玩のおまけシールや,絵はがき,定規などの文房具などで見られる,というと「あれか」と思い出した人も多いかもしれない。
ちなみにレンチキュラーレンズは,裸眼立体視ディスプレイの表面に用いられていたりもする。東芝のグラスレス3DレグザGL1シリーズで採用されているのもこの方式である。
レンチキュラーレンズを採用したVFにおける最大の利点は,電気不要で歩行者を誘導できる点にある。そのうえ,摩耗などで削れたり破損したりした場合も,容易に交換可能とあって,まさにエコなソリューションといえる。
なお現在は,レンチキュラーレンズだけでなく,視差バリアを用いたVFも開発中とのことだ。
HAPMAP
by 慶應義塾大学大学院メディアデザイン研究科(KMD)舘研究室
〜バーチャルな手摺を掴みながら目的地まで進める〜
人間の「触る」という感覚をマンマシンインタフェースに応用したり,新しいメディア表現に応用したりする「Haptics」(ハプティクス,触覚学)は,SIGGRAPHの研究テーマとして注目度が高く,興味深い研究発表が毎年数多くなされている。
このハプティクスを応用した地図システム「HAPMAP」をE-TECHで公開していたのが慶應義塾大学の研究グループだ。
HAPMAPシステムのシーソー型方向指示器 |
このように片手で握って使用する。シーソー型方向指示器が行くべき方向を指示してくれるので,それを手の平で感じ取る |
これを解決するものとして慶應義塾大学の研究グループが発表したのがHAPMAPだ。HAPMAPは,どちらの方向に歩いて行けばいいのかを,触覚フィードバックで物理的に返してくれるシステム。ユーザーは,スマートフォンの画面を注視することから解き放たれ,周囲の景色をも楽しめるという。
HAPMAPは,スマートフォンに合体させて使用するタイプのデバイスで,HAPMAPを取り付けた状態のスマートフォンを片手で握って利用する。
HAPMAPには,サーボモーターで駆動されるメカニカルシーソーのような突起がついていて,それが方向指示器になっている。これを手のひらに接触させて,触覚で方向を感じ取る。さらに,この部分は,無段階で角度を示すようになっているので,あたかも手すりに触れつつ歩いているような感覚が得られる仕組みだ。
試作段階のため,やや大きめかつ,スマートフォンに合体させるような形状になっているが,実用段階では,より小型化し,携帯電話そのものに埋め込むようなデザインも可能になるという。
Touch Interface on Back of the Hand
by 東京大学情報理工学系研究科システム情報学システム情報第3研究室
〜スマートフォン,タブレット向けの新提案。手の甲の上でタッチ入力〜
スマートフォンやタブレット端末で標準的なマンマシンインタフェースといえばタッチインタフェースだ。
タッチインタフェースは,直観的で分かりやすいが,操作中に指が画面を遮蔽してしまって見にくくなることも多い。しかも,実際に指先がどこをポイントしているのかが分かりにくかったり,タップ入力がどのタイミングでどこをポイントしたのかユーザー自身が実感しにくかったりする局面が多々ある。
Touch Interface on Back of the Handは,スマートフォンの画面上でなく,ユーザー自身の手の甲でタッチインタフェースを代行するというものだ。手の甲がタッチパッドになるといえば分かりやすいだろう。
手の甲には,当然触感があるので,どこを指が触っているのかが直接的な感覚(直感)として伝わる。いつどこをポイントして,どういう感じでタップ入力したのかなどは,いうまでもなくユーザー自身が一番分かることだ。
もちろん,画面上で指を動かしているわけではないので,指で画面が隠れることもない。画面は100%視界フリーだ。
指入力の読み取りは,腕時計型のセンサーユニットで行うことになる。用いられているセンサーは,赤外線LEDとフォトトランジスタとで構成される「フォトリフレクタセンサー」。このフォトリフレクタセンサーがライン状に8つ並べられていて,指の位置を読み出している。
フォトリフレクタセンサーは,光を使った測距センサーであり,指までの距離をmm単位以下の精度で読み取ることができる。X軸をフォトリフレクタの位置,Y軸をフォトリフレクタで捉えた距離とすれば,指の位置をX-Y軸の平面座標で取得できるというわけだ。
そのほか腕時計型センサーユニットの仕様を挙げておくと,読み取り範囲が30mm四方のエリア,読み取り周波数が60Hz,読み取り誤差が1mm以下となっており,入力インタフェースとして十分なクオリティだ。
タッチインタフェースで気になる点ともいえるマルチタッチ入力も,ライン状に並んだフォトリフレクタセンサー群に対して指が平行に位置する状況であれば可能だという。つまり,フォトリフレクタの光を反射する物体が複数あっても問題なく座標を取得できるということだ。
ただし,フォトリフレクタは,前述のように光を利用しているため,その光線上に2つ指があったとしても,フォトリフレクタから見て手前の指しか測定できない。原理を考えれば当たり前の制限事項なのだが,どんな場合でもマルチタッチができるというわけではない。
研究グループの考えは,システム自体を腕時計に仕込んでしまういうもの。これなら普段から腕時計を付けている人は,面倒くさいなんてことを感じないはずという主張である。
現時点では,要になっているフォトリフレクタセンサーなどが汎用部品であるため,システム自体のサイズが大きくなってしまっているが,組み込み向けのセンサーを採用すれば,厚みに影響を与えずに腕時計へ組み込むことも可能だという。
今後,Bluetooth接続などに対応してくれれば,スマートフォンだけでなく,タブレット,PC,あるいはカーナビといった多くのデバイスを操作するための汎用マンマシンインタフェースとして活用できるかもしれない。
- この記事のURL: