\r\n\r\n
アップルは、秋に「iphone 13」と仮称した製品群を発売することになっており、高価なプロフェッショナルモデルだけでなく、LIDARスキャナーを搭載すると見られている。
台湾のサプライチェーン専門誌DigiTimesは、クパチーノのハイテク企業が2021年にLIDARスキャナーをiPhone 13の全機種に拡大する見込みであると報じています。
レポートでは、AndroidメーカーによるLIDARの採用について、AppleがフラッグシップモデルのiPhone 13 Proに限定せず、「2021年のiPhone全機種」に採用すると言及している。また、将来的には**背面のLIDARスキャナーと前面の顔認証が共存することになるだろうと報じています。
関連記事:Time of FlightとLIDAR、その違いとは?
この記事は、DigiTimesの未確認の噂の一つではなく、Appleとソニーが少なくとも2023年までiPhone用のLIDARスキャナ部品の安定供給を保証する複数年契約を締結したとするものである。
ライダーとは、Light Detection and Rangingの略で、パルスレーザーを用いたリモートセンシング手法の一つで、対象物に光が反射するまでの時間を測定するものです。
タイムオブフライトと呼ばれるこの方法により、iPhoneの2つの背面カメラによる深度マップよりも正確で、前方のIRベースのTrueDepthカメラによる深度マップよりもさらに正確な深度マップを作成することができるのです。
デプスマップは、ポートレートやアニメーション、同様の拡張現実感の演出に必要です。深度マップでは、各画素がカメラから画像のその部分までの距離を示しています。iPhoneは色と深度のデータを別々に保存するので、撮影後にダメージなく被写界深度を適用・変更することができます。
LIDAR技術について詳しくは、LIDARとは何か、どのような仕組みなのかを紹介している記事をご覧ください。
Appleは、2020年3月に発売された第4世代iPad Proに初めてLIDARスキャナーを搭載し、その後、iPhone 12 ProとiPhone 12 Pro Maxに追加しました。LIDARセンサーは、App Storeで適切なアプリをダウンロードすれば、iPhoneを使って周囲をスキャンしたり、実際の物体の3Dデジタル版を作成したり、さまざまなことができるようになります。
そのスピードと正確さにより、先進のセンサーは拡張現実を新たな次元に導きます。
関連:見てみないとわからない拡張現実(Augmented Reality)アプリ
LIDARスキャナーは、AR(拡張現実)アプリケーションに加え、昼夜を問わずiPhoneのカメラにシャープなフォーカスをもたらします。さらに、このセンサーは、シーン、オブジェクト、およびそれらの相対的な位置をよりよく理解するための機械学習を可能にするため、陽炎の撮影を改善します。
例えば、LIDARスキャナーは、Appleのナイトショットモードをワイドおよびウルトラワイドのリアカメラで実現するのに役立っています。LIDARスキャナーがなければ、iphone12シリーズではナイトモードでのポートレート撮影に対応できません。
前述したiPhoneとiPadの両方でLIDARスキャナーが使われているのはこの技術の良い例ですが、一般的には、これは何か大きなものへの前触れに過ぎないと考えられています。AppleブランドのメガネはLIDARを使ってユーザーの周囲をスキャンし、現実世界の上に仮想オブジェクトを重ね合わせるものなのです。
Bloombergによると、Appleは2つの異なるAR(拡張現実)製品を開発中である可能性があるという。iPhoneがないと正常に動作しないデジタルメガネに加え、単体のヘッドセットもあります。強力なスペックを持ち、単独で動作するほか、近くにあるiOSデバイスとワイヤレスで接続してデータやグラフィックを処理することも可能です。