\r\n\r\n

5 Google Pixel Cameraのソフトウェア機能を使うべき

Google Pixel携帯には、印象的なカメラ機能が搭載されています。しかし、それらはどのように機能するのでしょうか?

発売以来、Google Pixelシリーズ**の根幹をなすカメラです。収集した膨大なデータを活用することで、Googleはモバイル写真の限界に挑戦してきました。他の純正品**では2台、3台、場合によっては4台のカメラを搭載するような高度な機能を、ソフトウェアで再現することに成功したのです。

では、特別なハードウェアを使わずに、これらのカメラモードはどのように機能するのでしょうか?ここでは、Google Pixelの最高のカメラ機能を説明します。

1hdr 株式会社+

HDR+は、現在ほとんどのスマートフォン**に搭載されている従来のHDRモードにGoogleが挑戦したものです。Googleがこのコンセプトにどのようにアプローチしているかを掘り下げる前に、後者を理解することが重要です。

HDR撮影では、1枚の写真を撮るのではなく、露出レベルを変えて複数枚撮影します。これにより、カメラはシーンに関するより多くのデータを収集し、ハイライトとシャドウをより正確にレンダリングすることができます。これらの異なるフレームを複雑なアルゴリズムでブレンドしています。

例えば、明るい背景の前に立っている人を撮ろうとすると、友人が完全に影になってしまったり、背景が飛んでしまったりするシーンがあります。そこで、フレーム内の最も明るい光と最も暗い光のバランスをとるために、HDRの出番となります。

は全プロセスが自動化されているため、アルゴリズムを学習させるための膨大なデータセットを持っていない企業にとっては、少々やっかいな存在です。他にも欠点があります。お使いの**センサーは、プロ用カメラに比べると非常に小さく、長時間点灯しているとノイズが発生します。

GoogleのHDR+は、これらの問題をすべて解決しようとしているのです。また、画像を大量に撮影し、それを加工することも必要です。しかし、他の**とは異なり、Googleの**は、露出不足の写真を数枚取り、ラベル付けされた写真の大規模なデータセットで訓練されたアルゴリズムでそれらをマージします。

HDR+は従来のような広帯域露光を行わないため、画像のモーションブラーやノイズもかなり少なくなっています。これらの計算が遅くならないように**、GoogleはPixel2シリーズにPixelVisualCoreと呼ばれる専用の独自チップの搭載まで始めています。

2 夜景

Googleのソフトウェアチームが開発したカメラ技術の中で、最も印象的なもののひとつがナイトビジョンと呼ばれるものです。この機能を有効にすると、ほとんど光のない暗いシーンを撮影しても、魔法のように明るい写真に仕上げることができるのです。

Google Pixelの第1世代にさえ搭載されたNight Visionは、同社のHDR+技術をベースに構築されています。ナイトビジョンオン**でシャッターボタンを押すたびに、さまざまな露出の写真が大量に撮影されます。

処理された情報はアルゴリズムに渡され、影やハイライト、実際の光の量など、シーンのさまざまな詳細を理解するために使用されます。この学習により、カメラアプリケーションはテクスチャーを拡大することなく、明るい画像をつなぎ合わせています。

3. 超解像ズーム

デジタルズームもモバイル写真の大きな欠点ですが、Googleは他社のような専用ハードウェアではなく、ソフトウェアで解決しようとしています。

超解像ズーム」と呼ばれるこの機能は、ディテールを損なうことなく最大2倍のデジタルズームを約束します。GoogleがHDR+やNight Visionに採用しているバースト撮影技術を使用しています。しかし、ここでは、露出の範囲に適用されません。

超解像ズームでは、レンズの異なる複数のアングルを撮影します。では、これには体を動かすことが必要なのでしょうか?そんなことはありません。ズーム画像の場合、ほんの少し手を動かすだけで、さまざまなアングルを演出することができます。つまり、Googleは基本的にあなたの手の震えを利用して、より多くの情報を蓄積しているのです。

Googleは、あなたの手があまりにも安定している場合、またはあなたの**三脚にマウントされている場合にも解決策を持っています。このようなシーンでは、実際にカメラを少し振って手の動きを再現するのですが、これがとにかくすごいんです。

この**は、これらのデータをすべて使って1枚の写真を撮りますが、通常、デジタルズームはより詳細な情報を得ることができます。

4 バーティカルモード

ほとんどの**ベンダーが深度検知のためのカメラを追加しているのに対し、Googleはソフトウェアによってポートレートモードを実装しています。そのために、カメラアプリはまず、HDR+を使って通常の写真を撮影します。そして、Googleが学習させたニューラルネットワーク**の助けを借りて、主要な主題を特定しようとするのです。それは人であったり、犬であったり、何でもいいのです。

Googleのポートレートモードは、エッジが乱れないように、デュアルピクセルと呼ばれる技術を利用しています。平たく言うと、**撮影された各画素は、技術的には一対の画素であるということです。その結果、フォーカスの向上に伴い、背景と前景の距離を評価する2つのビューが存在する**。

これは、画素が深度を計算するための複数のセンサーを持っていないため、非常に重要なことです。最後に、**は、識別した被写体のマスク以外をすべてぼかします。

あなたの**でこの機能を取得する方法を知りたいですか?ここでは、すべてのAndroid**でポートレートモードを使用するための簡単なガイドを紹介します。

トップバー5本

Pixel 3で、GoogleはTopShotという新しい、賢いカメラ機能を導入しました。その名の通り、クリックしたレンズより良いレンズを選ぶことができます。

そのために、シャッターボタンを1.5秒タップした前後で最大90枚の撮影が可能です。ブレや目の閉じ具合などの不具合を検出すると、自動的に別の画像を推奨します。また、高解像度のものは2枚だけですが、一括して手動で選択することも可能です。

最上部のレンズは動画の延長線上にあるため、カメラの性能に影響を与えることはありません。

スマート**な写真を撮るための簡単なコツ

Googleのソフトウェアが多くの作業を代行してくれますが、複雑なシーンでは、まだあなたの余分な労力が必要な場合があります。このような撮影をマスターするために、スマート○○の撮影技術を大幅に向上させる簡単なコツをマスターすることをお勧めします。

  • 2021-03-21 10:41 に公開
  • 閲覧 ( 18 )
  • 分類:IT

あなたが興味を持っているかもしれない記事

匿名者
匿名者

0 件の投稿

作家リスト

  1. admin 0 投稿
  2. 匿名者 0 投稿

おすすめ