L’application Bing va bientôt pouvoir utiliser l’appareil photo de votre smartphone pour effectuer une recherche sur le Web. Avec cette fonctionnalité, Microsoft entend concurrencer Google et son application Lens.
Microsoft multiplie les nouvelles fonctionnalités au sein de ses applications. Après son navigateur Edge qui se dote d’un bloqueur de pub, le géant américain propose son outil de recherche visuelle (Visual Search) dans Bing. Cette nouvelle fonctionnalité – uniquement disponible aux États-Unis – concerne les applications Bing pour iOS et Android, ainsi que le lanceur d’application Microsoft Launcher. La firme de Redmond prévoit de l’étendre à son navigateur Edge sur iOS et à son site Bing.com.
Pour utiliser la fonction, il suffit d’appuyer sur l’icône appareil photo accessible depuis la page d’accueil. Bing va alors utiliser l’appareil photo de votre smartphone ou une photo déjà présente dans la galerie pour effectuer une recherche. L’outil de Microsoft peut reconnaître des codes-barres, des objets et des monuments ainsi que la race d’un chien ou vous fournir des informations au sujet d’une fleur. La firme de Redmond met également l’accent sur le shopping en permettant de trouver la marque d’un vêtement ou d’un meuble et de donner la possibilité de l’acheter en ligne. « Parfois, il est presque impossible de décrire ce que l’on veut rechercher en utilisant des mots « , explique Vince Leung, responsable produit pour Bing Images chez Microsoft.
Microsoft veut concurrencer Google Lens
Avec cette nouvelle fonction, Microsoft montre qu’il n’est pas décidé à laisser Google faire cavalier seul dans la recherche visuelle. La firme de Mountain View a récemment accéléré le déploiement de son application Lens en l’intégrant dans ses applications Photos ou Assistant et sous la forme d’une application indépendante. Une concurrence bénéfique pour tout le monde qui devrait notamment permettre aux utilisateurs de voir ces outils progresser. Microsoft précise que cette fonction de recherche visuelle utilise ses algorithmes de vision par ordinateur. Ces derniers sont formés avec des ensembles contenant de grandes quantités d’images étiquetées, ainsi que des images provenant du web. Avec ces images entraînements, les algorithmes apprennent à reconnaître et différencier les chiens des chats ou les roses des marguerites, explique la firme américaine.
Vince Leung ajoute qu’il a eu « des progrès depuis de nombreuses années pour en arriver là » et qu’avec « l’avènement du cloud computing, nous sommes en mesure d’accélérer notre capacité à donner du sens aux pixels ». Microsoft n’a pas précisé quand cette nouvelle fonctionnalité serait déployée en France.
Source : wwww.labo.fnac.com