ひねる動きに追従する様子

ARで表示された物体を直接「手」で操作する!

AppleがiOS11で実装する「ARkit」とモーショントラッキングデバイス「LeapMotion」を組み合わせて、ARで表示された物体を手で操作するデモが公開されました。ARの物体を直接操作できる体験がゲームに応用されると面白そうです。

スポンサーリンク

iPhoneで表示されたARの物体を手で操作

このデモではiPhoneで表示されたARと、モーショントラッキングセンサーの「LeapMotion」を接続したMacbookを使用しています。Macbookでモーショントラッキングを実施、それをiPhoneに送信して、ARと統合しています。

手に追従する様子

手の上部の空間にARの物体が浮いています。手を動かすとその動きに追従して、物体も動きます。

ひねる動きに追従する様子

手をひねると物体も回転します。

手を離した様子

手を画面の外へ素早く動かすと、物体はそのまま空中に浮いたままになります。開発者Arthur Schiller氏が作成した短いデモを観ていただくと、そのダイレクトな反応がよくわかります。

スポンサーリンク

まずはゲームへの応用か

これはデモのためにMacbookとトラッキングセンサーが必要になっていますが、ゲームへの応用であれば、ここまで手のトラッキングを厳密にする必要がないでしょう。iPhoneのARとカメラだけで実現される可能性があります。

例えば、ポケモンGOではARを使っているものの、モンスターボールを投げる際は画面のスワイプを必要とします。これがAR空間のボールを直接つかんで投げられるわけです。この体験は今までにはない感覚ではないでしょうか。

ARkitに統合される可能性も

Appleには3Dセンサーを使って奥行き情報を取得する特許があります。これがiPhoneに実装され、ARkitにも統合されれば、より高度なAR体験をできるようになるでしょう。本当にそのような実装がされるかはわからないものの、ワクワクするようなAR体験待っている。そんな予感がします。