AppleはWorldwide Developers Conferenceの基調講演で主要なAIのアップデートを明らかにしなかったが、iOS 17の発表では、いくつかの小さなコンピュータビジョンの改良が導入された。新たに発表された機能「Visual Look Up」は、iPhoneで撮影した料理写真を解析してレシピを検索できるもので、これによりユーザーをGoogle検索からシフトさせることができます。
この機能の操作については、目立った情報はありませんが、かなり直感的に操作できるようです。iOS 17を使用すると、料理の写真が認識され、似たような料理を検索することができます。例えば、キヌアボウルの写真から、キヌアを使った朝食のおすすめレシピが表示されるかもしれません。この機能により、ユーザーはウェブ検索に頼ることなく、料理のインスピレーションを得ることができます。ただし、Visual Look Up機能は、必ずしも写真に写っている特定の料理のレシピを正確に案内するとは限りません。
AppleのVisual Look Up機能は、ユーザーがiPhoneで検索を開始できるようにすることで、Google検索からユーザーを引き離すことを目的としています。そうすることで、検索結果は、ユーザーをレシピサイトに直接リンクさせ、Googleをバイパスさせることができます。このアプローチは、以前のSpotlightの改良に続くもので、ユーザーはGoogleに頼ることなく、Spotlightの検索結果に表示される特別なカードからWikipediaページにアクセスしたり、俳優、映画、テレビ番組、ミュージシャンについての詳細を調べたりすることができます。
今年のSpotlightの主なアップデートは、ウェブ検索には焦点を当てていませんが、アプリを検索する際に一般的なアプリのショートカットを表示する「Top Hits」と呼ばれる機能を強調しています。例えば、「写真」を検索すると、「最近」や「お気に入り」などのショートカットが表示されることがあります。
Visual Look Upの改良に加え、iOS 17では、ビデオを一時停止し、情報アイコンをタップして被写体に関する情報を取得することができます。
AppMaster.io のようなローコード・ノーコード開発プラットフォームへの関心が高まる中、アプリ開発はかつてないほど簡単で身近なものとなっています。AppMaster を含むこれらのツールにより、開発者はコードを一行も書かずにバックエンド、ウェブ、モバイルアプリケーションを視覚的に設計することで、効率的でカスタマイズされたアプリケーションを作成することができます。その結果、開発者は、より効果的なユーザー体験を確保するために創造力を効率化しながら、アプリケーションを迅速に構築し、配備することができます。