目次:
今月初め、Google は Google レンズの新しいフィルタを発表しました。これらの新しい追加により、携帯電話で周囲を分析でき、たとえばレストランのメニューや最も人気のある料理と同じくらい価値のあるデータを得ることができます。これらの機能は、わずかな再設計ではありますが、ユーザーに届き始めています。
新しい Google レンズ インターフェースには、Google アシスタントまたは Google フォトから直接アクセスできます。水平スクロールを使用して選択できる 5 つの新しいモードにアクセスできるようになりました。これらの新しいモードには、自動、翻訳、テキスト、購入、食事のオプションがあります。
Google レンズは、他のブランドと同様に人工知能を使用した新しいモードを追加します
.実際、非常によく似ています。自動モードは、私たちが見ているものを分析して識別することができますが、最も正確ではありません.次の 2 つの翻訳モードでは、リアルタイムで自分の言語のテキストを取得できます。テキスト モードは、文字を書かずに現実世界からスマートフォンに文字をエクスポートするように設計されています。
最後に、買い物や食事のモードで製品をさらに分析できます。ショッピングモードでは、 形やバーコードからオブジェクトを認識することができます。食事のオプションは、特定のレストランのメニューを提供してくれますが、そのためには企業が最初に準備する必要があります.
レンズオプションは素晴らしいですが、多くの企業は準備ができていません
これらのモードは画面下部の小さなカルーセルに表示され、画像をキャプチャするボタンを押す必要はありません, Google レンズは、カメラの前に物体を検出するとすぐに機能を開始します。このソフトウェアのもう1つの興味深いオプションは、カメラで焦点を合わせている画像だけでなく、ギャラリーに既にある写真を分析できることです。写真全体が重要でない場合は、画像の一部だけを選択して分析することもできます。
Google レンズのこの新しい再設計は、Google 9.91 ベータ版を使用しているユーザーが利用できます。Pixel フォン専用のようですが、すでに一部の Samsung フォンでもテストされています。 9to5Google が示すように、まもなく誰でも利用できるようになります。
