\r\n\r\n
WWDCで明らかになったAppleの拡張現実計画。アルは、かねてから噂されていたクパチーノの次の大本命です。ARKitを使えば、Appleは開発者がiPhoneやiPadを使って拡張現実のアプリケーションを提供できるようになります。
SpriteKitやSceneKitとの連携により、開発者は簡単にアプリケーションをアップデートできるようになるはずです。しかし、これが今後のアプリケーションにどのような影響を与えるのでしょうか。
Appleのバーチャルリアリティ技術を取材した際にJamesが言ったように、多くの人が初めてARアプリを試したのが「ポケモンGO」なのです。カメラで撮った画像に簡単なポケモンをオーバーレイで載せるだけの簡単なスタートです。背景と連動しないし、端末の向きを変えてもゲームは何もしない。
Appleがpokemongoのアップデートを示したのは当然といえば当然です。しかし、ピカチュウは背景を無視するどころか、砂の中で飛び跳ねて砂埃をあげていたのです。また、自分の**周りを移動するARオブジェクトも披露されました。背景には、さまざまな角度から撮影された姿を見ることができます。の位置によって反応することができるのです。
キーノートでは、開発者が風景の上にテーブルを作るシーンが印象的です。3Dオブジェクトを使ったライブアニメーションで、あらゆる角度から見ることができるのです。アプリは、やはりiPhoneやiPadをポータルとしてコンテンツを閲覧しています。しかし、最初の可能性が見えてきたのは感動的です。これまではゲーミングギミックが中心でしたが、これはハードウェアの制限によるものかもしれません。
ARKitは、このAppleの新しいテクノロジーの中核をなすものです。これは、開発者がカメラや加速度センサーからデータを取得するための新しいAPIセットです。そして、このデータをトラッキングして、アプリを実世界に重ね合わせてレンダリングするのです。
理論的には、開発者はいくつかの新しい呼び出しを行うだけで、アプリケーションに拡張現実を適用することができます。そして、実空間に覆われたオブジェクトの描画に使用されるデータにアクセスできるようになるのです。アップルがARKitで売り込んでいる秘策は、水平面検出です。iPhoneは、この点を使ってオブジェクトを配置することができるので、例えば、床に椅子を置き、テーブルにランプを置くというように、複数の面にオブジェクトをレンダリングすることができます。
Appleは、デバイスの動きを追跡するために、VIO(Visual Odometry)と呼ばれる方法を採用しています。vioは、既存のiosapiのカメラ入力とCoreMotionの2つを使用しています。WWDCの開発者セッションを見たり、ドキュメントを読むと、Appleが既存のデータを使用してARを作成することに注力していることがわかります。
arKitはA9以上のチップを使うことが認定されており、iphoneseに**をもたらすことができるのです。
SpriteKitは、Appleが開発者向けに提供する2Dアニメーションツールセットです。主に2Dゲームの制作に使用されますが、それ以外の用途もあります。spriteKitは、ARアプリケーションへの統合のために、いくつかのアップグレードが行われています。
エルフはデジタル2Dアートで、画面内を移動させることができます。最も有名な例は、8ビットや16ビットのゲームで、キャラクターが画面上にスプライトとして表示されるものである。iOSの場合、スプライトは「スプライトシーン」というゲームやアプリのレイアウトのような役割を果たす場所に配置されます。そして、開発者はスプライトの物理演算や動きを作成します。
まず、2次元でのスプライトの移動と反転に対応しました。つまり、スプライトは平面であっても、反転させて角度をつけると2つの面を持つことができるのです。WWDCのセッションでは、宇宙に浮かぶ絵文字を配置することを例にしていました。カメラは、携帯電話と相手の位置関係で、どのようにぶら下がっているかに移動します。
また、テーブルの上に3段のシーンを描くというデモも興味深かった。これにより、2Dゲームに奥行きと現実世界での遠近感が生まれました。また、部屋にアーケード筐体を置いてゲームをする方法も紹介されました。最後の1枚は、実用性は低いけれど、見た目はカッコイイ。
SceneKitはAppleアプリケーションのための3Dアニメーションツールキットです。ARと統合するためにSceneKitに多くの変更はありません。すでにかなり包括的なアニメーションツールキットです。SceneKitは複雑なAPIですが、興味のある方はドキュメントをチェックしてみてください。
ARKitでは、APIがカメラデータを使用して環境中の照明の挙動をキャプチャする方法が変更されています。そして、そのデータを3Dアニメーションに渡します。そして、同じ光源でオブジェクトを表示する。そのため、ARオブジェクトが超越的な輝きを放つことはありません。
イケアは、家具を好きな部屋に飾ることができるアプリを発表しました。この照明のおかげで、現実に近い状態で見ることができるはずです。残念ながら、その椅子の座り心地を言うことはできませんが、読書灯で面白い色になるかどうかはわかります。
ARは(それでも)、これらのツールがすべてPokemon GoのクローンやIKEAのアプリに限定されるのであれば、ゲームを変えることはできません。これらはクールですが、iPhoneやiPadをポータルに見立てて走り回るというギミックは目新しさを失うでしょう。
記事全体には、すでにYouTubeで公開されているデモクリップが満載です**。ですから、開発者もAppleと同様に、こうした可能性**に期待を寄せているようです。
開発者がARKitをどのように採用するかは、この秋のAppleの発表を見なければなりません。今、はっきりしているのは、アップルが使いやすい開発ツールをたくさん作ってきたということです。UnityとUnrealに対応しているので、ゲーム**派も楽しめるでしょう。
個人的には、ARを使ってボードや駒を目の前に置いて、プレイヤー情報はiPadに残したまま遊べるボードゲームアプリが欲しいなと思っています。複数のデバイスやパスを実装して、マルチプレイをすることも可能です。
あなたにとって理想のiPad ARアプリとは?もし、満足できないのであれば、アップルからどんなハードウェアを出せば、ARにワクワクできるでしょうか?コメントでお聞かせください。