\r\n\r\n

iphone11に搭載されたディープフュージョンカメラとは?

ios 13.2のおかげで、AppleのDeep Fusion Camera技術が利用できるようになりました。iphone11やiphone11proをお持ちの方は、この新しい画像処理技術を使って、より良い写真を撮ることができます。その仕組みはこうだ...。

iOS 13.2のおかげで、AppleのDeep Fusion Camera技術が利用できるようになりました。iphone11やiphone11proをお持ちの方は、この新しい画像処理技術を使って、より良い写真を撮ることができます。その仕組みはこうだ。

しんゆうごうは何ですか?

Smart**はまだプロ用カメラの完全な代替品ではありませんが、Appleは毎年iPhoneをより良いカメラに仕上げています。

本機能は、iPhone 11、iPhone 11Pro、iPhone 11Pro Maxで利用可能です。これらの**は、Apple iOS 13でリリースされました。センサーの改良、超広角レンズ、ナイトモード、スローモーション**など、カメラ設定にいくつかの大きな改良を施したそうです。しかし、彼らの最新フラッグシップの改良点のうち、箱から出していないものは、2019年10月28日のiOS 13.2アップデートでリリースされた「Deep Fusion Camera」です。

アップルのフィル・シラー氏は、これを「コンピュテーショナル・フォトグラフィーのマッド・サイエンス」と呼んでいます。多くのスマート**カメラでは、ナイトモードによる暗い環境での画質向上やHDRモードによる明るい環境での画質向上が進んでいますが、私たちが撮る写真の多くはその中間的な位置づけにあります。Deep Fusionカメラは、主に屋内の低〜中照度下で撮影した写真のノイズを低減し、ディテールを大幅に向上させると考えられています。

このことを証明するために、アップルはジャンパーという写真ではディテールが失われがちな衣服を着た人のサンプルをいくつか使用しました。Deep Fusionカメラで撮影したジャンパーなどは、自然な質感を残しながら、より細部まで再現されていました。

関連:iOS 13の最高の新機能を紹介、配信開始

どのように機能するのですか?

Appleによると、この新しいモードは、iPhone 11の新しいA13 Bionicチップを使用して、"写真をピクセルごとに処理し、写真のあらゆる部分の質感、ディテール、ノイズを最適化します。"とのことです。基本的には、iPhoneカメラの「スマートHDR」と同様の機能で、露出の異なる複数の写真を撮影し、それらを合成して仕上がりのシャープネスを最大化するものです。両者が異なるのは、処理すべき情報量の多さです。

背景には、ディープフュージョンの役割がかなり複雑に絡んでいます。中照度下でユーザーがシャッターを押すと、すぐに短時間撮影4枚、部分撮影4枚、長時間露光1枚の計9枚の写真を撮影します。長時間露光と短時間の画像の良いところを融合させたものです。そして、プロセッサーがそれらをピクセル単位で処理し、両方の要素から最適なものを選んで、最も精細な写真を作り上げるのです。これらはすべて1秒足らずの出来事です。

最初に写真を撮ると、すぐにアルバム内の画像の後処理を開始します。だから、カメラロールを開いて見たときには、すでに効果を発揮しているのです。これを可能にしたのは、これまでの商用スマート**に搭載された中で最も強力なプロセッサーであるA13 Bionicチップです。

iphoneでディープインテグレーションを実現する方法

deepfusionを使用するには、iphone11、iphone11pro、iphone11promaxが必要です。また、将来のiphoneには対応するかもしれませんが、過去のiphoneのハードウェアには対応しません。

また、iPhoneにはios 13.2が必要です。古いバージョンのiOSが動作している場合、deepfusionは使用できません。アップデート**するには、「設定」→「一般」→「ソフトウェアアップデート」を選択します。Wi-Fiがオンになっていることを確認する。

アップデート後**、「設定」→「写真/カメラ」で「枠外撮影」機能をオフにしてください。便利な機能ですが、ディープフュージョンモードには対応していません。

Deep Fusion カメラの使用方法

今年Appleが導入したもう一つの機能は、複数の写真を使って最も明るい画像を生成する「ナイトモード」です。カメラソフトのスイッチでアクセスできるほか、非常に暗い照明条件では自動的に起動することも可能です。

ナイトモードとは異なり、ユーザーが手動でディープフュージョンモードを起動することはできません。スイッチが入っている様子はありません。Appleの人工知能が、Deep Fusionに最適な画像を自動的に検出し、エンドユーザーには見えない形で撮影を行います。その背景には、通常の照明条件下で、どのモードを選べばいいのか悩むことなく、最高の写真を撮ってほしいという思いがあるようです。

ただし、Deep Fusion カメラを使用できない状況がいくつかあります。現状では、広角レンズと望遠レンズのみに対応しています。照明条件が十分な場合、スーパーワイドカメラで撮影した写真は、デフォルトでスマートHDRに設定されます。

また、1枚の画像処理に1秒を要するため、バースト撮影には対応していません。

どうして効果があるとわかるのですか?

多くの場合、ディープフュージョンが何かをしているかどうかはわかりません。理論的には、この技術はモバイル写真を大きく前進させるものです。実際には、ほとんどの人がその違いに気づくのは少し難しいかもしれません。特に、2つの画像を並べて比較しない場合は、その傾向が強くなります。

深度ブレンドは、テクスチャーの多いオブジェクトで最も顕著に現れます。髪の毛、上質な布地、質感のある壁、毛皮、一部の食べ物などは、特に拡大するとより詳細に表示されます。これから年末年始にかけては、ジャンパーを着た人々の詳細な画像がフィードに表示されることでしょう。

それは私の携帯電話?

Deep Fusionは、iphone11、11pro、11promaxにのみ対応する予定です。XやXSなどAppleの旧機種には、最新機種向けに多くの新しいカメラ処理機能を提供する「A13 Bionic」チップが搭載されていません。今後のソフトウェアアップデートで追加することはできません。

一方、iPhoneでなければ、確かに**には表示されません。しかし、GoogleのPixelラインなど他のスマート○○ベンダーはこれを課題と捉え、Appleの新モデルに対抗する処理ツールを開発する可能性があります。

関連:Pixels 4のハンズオン:くそったれ、グーグル

あなたが興味を持っているかもしれない記事

匿名者
匿名者

0 件の投稿

作家リスト

  1. admin 0 投稿
  2. 匿名者 0 投稿

おすすめ