Il nous est tous arrivé de nous demander où nous pourrions bien acheter la chaise, la lampe ou la paire de chaussures qui apparaît en arrière-plan d’une image découverte au hasard d’une balade sur Internet. S’ensuit généralement de longues minutes passées à tenter de décrire l’objet désiré, sans, le plus souvent, parvenir à élaborer une requête efficace. C’est pour nous éviter de vivre ce type de mésaventure que Bing, le moteur de recherche de Microsoft, vient de lancer une nouvelle fonctionnalité baptisée « Visual Search ».
Rechercher dans cette image
Le principe de « Visual Search » est simple pour ne pas dire simpliste : désigner un objet présent sur l’image pour que le moteur se lance à sa recherche. Pratiquement, lorsque l’on visualise une image trouvée sur Internet via Bing et qu’on la survole avec la souris, apparaît en haut et à gauche de cette dernière une loupe. Il suffit alors de cliquer dessus pour que s’ouvre un cadre au centre de l’image. Ce dernier redimensionnable et repositionnable, va permettre d’isoler un objet présent sur la photo. Dès cette opération terminée, le moteur se lance, avec pour objectif de trouver d’autres images dont le sujet principal est l’objet en question. Certaines de ces images provenant de sites de vente en ligne, il ne reste qu’à cliquer dessus pour acheter le produit.
Et ça marche ?
Même si le système est encore imparfait, les résultats sont d’ores et déjà impressionnants. Le plus souvent, le moteur parvient à identifier le produit, sa couleur, sa fonction et à proposer des résultats très pertinents (objets identiques ou similaires). Une bonne raison, pour les entreprises de vente en ligne ou pratiquant le « Web to shop », de mettre sur leur site la collection photographique de l’ensemble de leurs produits.
Pour le moment, même si la fonction « rechercher dans cette image » apparaît sur la version française de Bing, elle n’est pas encore active (c’est sans doute l’affaire de quelques jours). En revanche, il est déjà possible de la tester sur la version américaine du moteur (paramètres/pays).
Les Echos Publishing 2017