
Google est peut-être le leader de longue date des outils de recherche sur Internet, mais il ne se repose pas sur ses lauriers. Mercredi, il a annoncé le déploiement mondial de certaines de ses dernières fonctionnalités de recherche par image, ainsi qu’un nouvel outil pour les utilisateurs d’Android.
Google a d’abord présenté Recherche multiple, qui permet aux utilisateurs de rechercher des éléments à l’aide d’une combinaison d’images et de texte, aux utilisateurs américains l’année dernière. Il exploite l’outil Google Lens afin que les utilisateurs puissent rechercher des éléments qu’ils voient, tout en ajoutant une requête textuelle pour obtenir des résultats plus spécifiques et utiles. La famille de fonctionnalités Multisearch comprend également “Multisearch near me” et “Multisearch on the web”, qui vous permettent d’utiliser l’outil pour trouver des éléments localement ou d’ajouter du texte aux images que vous avez déjà trouvées lors de la recherche.
Dans le cadre de son annonce mercredi, Google a déclaré que toutes les fonctionnalités de recherche multiple seront déployées dans les mois à venir dans tous les pays et toutes les langues où Google Lens est actuellement disponible.
Former les ordinateurs à comprendre ce qu’ils regardent est un élément majeur de la stratégie d’IA de Google depuis des années. Google a introduit Lens, son outil d’IA visuelle, pour la première fois en 2017. Selon les statistiques de l’entreprise, il est maintenant utilisé plus de 10 milliards de fois par mois.
Google développe toujours de nouveaux cas d’utilisation pour Lens, y compris une fonctionnalité que la société a annoncée mercredi pour les utilisateurs de téléphones Android. La fonctionnalité, appelée “rechercher sur votre écran”, permettra aux utilisateurs de rechercher des éléments qu’ils voient dans des images et des vidéos sur l’écran de leur téléphone sans avoir à quitter l’application de messagerie ou la page Web.
Si quelqu’un vous envoie une photo d’un lieu mystérieux intrigant, vous pourrez appuyer longuement sur le bouton d’accueil ou d’alimentation de votre téléphone, et Google Assistant vous proposera une option pour rechercher votre écran et afficher toute information à ce sujet. emplacement. Il fera de même pour les vêtements ou autres articles qu’il voit, vous indiquant où vous pourriez être en mesure d’acheter ce que vous regardez.
Contrairement aux fonctionnalités précédentes de Lens qui étaient réservées aux États-Unis au début, “rechercher votre écran” sera disponible dans toutes les langues où Lens est actuellement disponible lors de son déploiement dans les mois à venir.