目次:
GoogleとMITの研究者は、広角ショットの欠陥を修正しようとするアルゴリズムを開発しました。
一部の人の顔は、写真に伸びたり、わずかに押しつぶされたり、ゆがんだりしているように見えることがあります。写真家のスキルが少ないためかもしれませんが、実際には、モバイルデバイスから広角レンズを使用して撮影すると、通常、画像の端にあるオブジェクトや人物に歪みが生じます。
この問題を解決しようとするさまざまな方法がありますが、これまでのところ、Googleの新しい提案ほど効果的な方法はありません。修正するのは簡単に思えるかもしれませんが、写真の残りのオブジェクトに影響を与えない複雑なローカル編集が必要なため、修正はできません。
これがGoogleのアルゴリズムの仕組みです
研究者が説明しているように、このアルゴリズムは顔を検出し、画像に示すように広角でショットを撮るときにこのタイプの歪みを自動的に反転できるメッシュを作成します。
このアルゴリズムを適用すると、次の画像で違いがわかります。視野97°の広角レンズで撮影したセルフです。
最初の画像は顔の歪みを示し、2番目の画像はアルゴリズムが顔の形状を元の状態に復元する方法を示しています。
つまり、このプロセスは、広角レンズを使用すると自動的にアクティブになり、顔にこの特別な支援を提供しますが、画像の残りの部分に変更を加えることはありません。そしてもちろん、この自動修正の速度(約920ミリ秒)により、ユーザーは検出できなくなります。
彼らのテストによると、このアルゴリズムは視野内で70°から120°の範囲で正常に機能し、モバイルデバイスからのほぼすべての可能性をカバーします。
このアルゴリズムの可能性を活用するために、ユーザーはアクションを実行したり、特別なカメラモードをアクティブにしたりする必要はありません。この機能は、広角レンズが使用されていることを検出した場合にのみ自動的に実装されます。
コンテキストを考慮した自動修正
このアルゴリズムのダイナミクスは、次のビデオで見ることができます。
アルゴリズムは、シーンに表示される残りのオブジェクトを考慮して自動的に修正し、写真のコンテキスト全体が一致するようにします。写真がまったく変更されていることを示す詳細がなくても、結果は自然です。
このプロジェクトの背後にあるチームは、Flickrのフォトギャラリーを共有し、アルゴリズムのダイナミクスと比較して、さまざまな方法でこの問題に対処する方法を示しています。結果の評価に役立つ160枚以上の写真(記事の冒頭にある写真など)があります。
多分私達はPixelでこの技術を見るでしょう
このプロジェクトに参加するチームはGoogleの従業員であるため、このアルゴリズムまたは派生テクノロジーが次世代のPixelに適用されることを期待できます。
しかし、彼らが共有した文書では、彼らはそれについて何も言及していません。動作中のアルゴリズムのこれらの最初のテストは成功しており、人工知能の可能性がモバイルデバイスのダイナミクスを改善し、ユーザーの生活を楽にする方法をもう一度示しています。
間違いなく、私たちのモバイルデバイスに同様のダイナミクスがあると、写真のこれらの歪みを編集しようとする多くの頭痛と時間を節約できます。