Le moteur de recherche de Google comprend désormais les subtilités de la langue française
Des réseaux neuronaux d’un nouveau type permettent au géant informatique de mieux saisir le contexte des mots et les complexités de langage. Ils permettraient d’améliorer entre 10 et 15 % des recherches effectuées.
Google vient de mettre à jour la version française de son moteur de recherche en lui donnant la capacité de mieux décrypter le langage naturel des utilisateurs et de saisir les nuances linguistiques dans leurs phrases. Le but de ce perfectionnement, c’est de ne plus nous contraindre de formuler une recherche par une série de mots clés, mais de pouvoir exprimer des phrases plus complexes, à laquelle l’algorithme apportera des réponses plus précises. Selon Google, cette technique permettra d’améliorer entre 10 et 15 % des recherches effectuées.
Cette mise à jour est déjà implémentée sur la version anglaise depuis fin octobre dernier. A l’époque, Google avait donné quelques exemples pour illustrer cette évolution. Auparavant, les premiers résultats de la requête « 2019 brazil traveler to usa need a visa » étaient des informations à propos de citoyens américains qui se rendaient au Brésil. Or, c’est l’inverse qui est ici attendu. La nouvelle version du moteur de recherche comprend désormais le sens lié à la préposition « to » et propose en tête de liste un lien vers une page dédiée aux voyageurs brésiliens. « Google Search sera en mesure de comprendre le contexte des mots dans des requêtes plus longues et plus conversationnelles, où des prépositions (…) apportent beaucoup à la signification », a expliqué Pandu Nayak, vice-président en charge de Search, dans une note de blog.
Cette amélioration, que Google estime être la plus importante des cinq dernières années concernant son moteur de recherche, s’appuie sur l’utilisation de réseaux neuronaux que le géant informatique a inventé il y a un an, à savoir les réseaux BERT (Bidirectional Encoder Representations from Transformers). Ces algorithmes ont la particularité de pouvoir analyser les mots d’une phrase en tenant compte de tous les autres mots qui la constituent. Ce qui leur permet de mieux saisir le contexte et, par conséquent, les petites subtilités de langage que ces systèmes statistiques ont parfois bien du mal à cerner.
Pour pouvoir réaliser cette nouvelle performance, ces algorithmes s’appuient sur des supercalculateurs spécialisés des centres de données de Google. Baptisé « Cloud TPU », ils sont dotés de circuits imprimés dédiés à l’apprentissage automatique et permettent d’accélérer la création de modèles d’intelligence artificielle. « Certains des modèles que nous pouvons construire avec BERT sont si complexes qu'ils repoussent les limites de ce que nous pouvons faire en utilisant du matériel traditionnel. Par conséquent, pour la première fois, nous utilisons les derniers Cloud TPU pour servir les résultats de recherche et obtenir rapidement des informations plus pertinentes », souligne Pandu Nayak.
Chaque mise à jour du moteur de recherche de Google inquiète évidemment au plus haut point les experts en marketing web et autres gourous en référencement. Dans le cas des algorithmes BERT, aucun cataclysme n’est à prévoir. Selon John Mueller, analyste web chez Google, cette nouvelle technique « n’affecte pas l’indexage » des sites. Les webmasters devraient donc n’avoir rien à changer à ce niveau là.
Source: Google