Merci, MUM - Google Lens vous permettra d'affiner votre recherche en posant des questions sur ce que vous voyez

Mises À Jour

Partager:

Merci, MUM - Google Lens vous permettra d'affiner votre recherche en posant des questions sur ce que vous voyez. Il s'agit d'une fonctionnalité intéressante lorsque vous recherchez un type de produit ou d'informations spécifique et que vous ne savez pas exactement ce que vous recherchez. L'utilisation de Google Lens vous permet de poser des questions sur ce que vous voyez dans l'image et d'obtenir des résultats plus spécifiques.



Hier, Google Presents: Search On '21 a eu lieu - l'événement virtuel de l'entreprise qui présente de nouvelles innovations et avancées dans la technologie de recherche. Plus tôt cette année, nous avons découvert MUM, ou Multitask Unified Model, qui est un nouvel algorithme révolutionnaire pour comprendre l'information. Il permet à Google de transférer des informations entre les langues et même les types. Cela signifie qu'il peut prendre une image ou une langue différente et appliquer cette même logique au texte ou aux produits, par exemple.

Pendant l'événement, nous avons enfin pu voir de quoi il serait capable. Lors d'une recherche avec Google Lens, vous pourrez bientôt 'Ajouter une question'. Comme vous pouvez le voir ci-dessous, cela aide à se concentrer sur quelque chose de plus spécifique. Il prend le motif de chemise trouvé dans l'exemple et l'applique à travers l'image à un produit sans que ces données ne soient perdues. Dans le passé, vous deviez savoir exactement comment le modèle s'appelait, puis lancer une nouvelle requête de recherche !

‘Ajouter une question’ pour affiner votre recherche

Vous pouvez taper des chaussettes victoriennes à fleurs blanches, mais vous ne trouverez peut-être pas le motif exact que vous recherchez. En combinant des images et du texte dans une seule requête, nous facilitons la recherche visuelle et exprimer vos questions de manière plus naturelle.

Le mot clé

Ce n'est qu'un cas d'utilisation de cette incroyable nouvelle technologie. Une autre chose impressionnante que vous pouvez faire est de pointer quelque chose comme une chaîne de vélo ou quelque chose d'autre qui peut être cassé et d'ajouter une question comme comment puis-je réparer cela ?. Google comprendra l'objet dans l'image et appliquera ces données d'image à une recherche de texte avec votre question.

Ainsi, au lieu de simplement renvoyer plus d'images de chaînes de vélo, cela suffira. Comment réparer une chaîne de vélo ? en arrière-plan. Gardez à l'esprit que cela ne nécessite rien de votre part, sauf de prendre une photo de l'article en question, même si vous ne savez pas de quoi il s'agit, et de poser la question - comme vous le feriez dans la vraie vie !

Pointez, tirez et demandez !

De plus, MUM va devenir une grande partie de la façon dont Google affiche les résultats de recherche. Pour les rendre plus naturels et intuitifs, de nouveaux sujets tels que 'Choses à savoir' ou tout ce que les gens recherchent couramment en conjonction avec votre requête apparaîtront de manière préventive afin que vous puissiez rechercher plus loin. Supposons que vous recherchiez 'Peinture acrylique' - plus de 350 sujets comprenant des didacticiels de peinture étape par étape, des trucs et astuces pour peindre avec des enfants, des techniques, des cours en ligne, le décapage de peinture, etc. ' section via puces de recherche !

Vous pourrez également « Élargir cette recherche ». Google ajoute cette partie suivante pour vous aider à vous diversifier à partir de votre requête au lieu de vous concentrer. Disons que nous nous en tenons à l'exemple 'Peinture acrylique' ci-dessus. Lorsque cela se déroulera, vous pourrez explorer des peintures qui utilisent le style, des peintres célèbres qui ont utilisé des acryliques, et plus encore ! Le panneau Knowledge Graph le fait déjà, mais pas à ce point.

Affinez ou élargissez votre recherche avec MUM

Enfin, et au cours des prochaines semaines, MUM sera directement responsable de l'identification des éléments dans les vidéos pendant votre recherche, même si ces sujets ne sont pas explicitement répertoriés dans la vidéo. De la même manière que Youtube répertorie les chapitres vidéo, MUM extraira des éléments de la vidéo en fonction de son son et de ses visuels et les affichera sous forme d'horodatages pour que vous puissiez passer de l'un à l'autre.

Chapitres vidéo MUM

Vous pouvez probablement commencer à voir à quel point c'est utile et incroyable maintenant, n'est-ce pas ? Il ouvre un tout nouveau niveau de compréhension dans le moteur et supprime la barrière de la langue entre les humains et l'IA. Google apprend à parler votre langue, et non l'inverse. J'ai hâte de voir la suite.

La société a déclaré qu'elle ne faisait qu'effleurer la surface avec ce qui était possible. En octobre dernier, Lens a commencé à proposer des conseils de style pour tous les vêtements que vous prenez en photo - les choses évoluent vraiment ! Faites-moi part de vos réflexions sur tout cela dans les commentaires ci-dessous. Nous discuterons des autres annonces de Search On ’21 plus tard dans la journée.

Partage Avec Tes Amis :