New York
London
Glasgow
Paris
Singapore

L’influence de votre contenu financier sur les moteurs de recherches propulsés par l’IA

Niels Footman 19 July 2024

Traduction-adaptation française: Fabienne Bersac. Relecture: Isabelle Rouault-Röhlich

L’émergence de nouveaux grands modèles de langage (LLM (1), propulsés par l’intelligence artificielle (IA) a pu laisser présager que l’activité rédactionnelle humaine courait à sa perte.

Cette vision est cependant en train de se nuancer à mesure qu’évolue le paysage de l’intelligence artificielle. Bien que les LLM tels que Claude et Llama continuent à prendre de l’ampleur en utilisant des séries de repères mathématiques et de raisonnement, d’autres voguent déjà vers d’autres horizons.

Les moteurs de recherche reposant sur l’IA cherchent à capter l’interactivité entre les conversations avec les chatbots tout en préservant la crédibilité et la précision des recherches « classiques ». Atteindre cet objectif présuppose la résolution des problèmes centraux aux LLM, tout en maintenant des méthodes éprouvées au fil du temps par le marketing en investissements.

Des moteurs de recherche bavards.

Les moteurs de recherche tels que Perplexity, le nouveau Bing, you.com et la SGE (Search Generative Experience (2) de Google proposent des réponses au format chatbot aux requêtes des utilisateurs·rices. Elles s’appuient sur les LLM mais il existe une différence claire dans l’angle d’approche, selon Otterly.ai :

  • Les LLM sont des modèles de langage entraînés sur de grandes quantités de données textuelles pour comprendre et générer du langage humain. À l’inverse, les expériences de recherches propulsées par l’IA utilisent une combinaison d’algorithmes issus de l’apprentissage automatique et des techniques de traitement du langage naturel, dans le but d’améliorer les résultats et de fournir des recommandations plus pertinentes et personnalisées aux usagers.
  • Les LLM sont généralement utilisés pour améliorer les capacités générales de compréhension du langage d’un système, alors que les expériences de recherche générées par l’IA se concentrent spécifiquement sur l’amélioration des fonctionnalités de requêtes et de l’expérience utilisateur d’un site internet, d’une application, ou d’une plateforme.

Une étude publiée par Google en début d’année explique la différence entre LLM et SGE :

Alors que la SGE utilise également les LLM, elle a en réalité été entraînée pour exécuter des tâches spécifiques aux requêtes, qui incluent l’identification de résultats web de qualité corroborant l’information présentée dans la réponse.

Ce dernier point est essentiel. Dans le monde de l’intelligence artificielle, les cas de professionnel·les qui se font piéger par des propos incongrus exprimés avec la plus grande assurance sont monnaie courante. Pour que la recherche exécutée par l’IA puisse prétendre égaler le niveau de fiabilité de moteurs de recherche tels que Google, elle devra connaître de grandes avancées, dans la gestion non seulement des hallucinations, mais aussi des erreurs contextuelles, ou des biais et opinions présentés comme des vérités factuelles.

Sources éducatives

Voyons un exemple dans un domaine pertinent, celui des services financiers : qu’est-ce qu’un fonds axé sur le passif (LDI) ? Voici la réponse en 70 mots de Perplexity en français :

« Un fonds LDI (Liability-Driven Investment) est une stratégie d’investissement utilisée par les fonds de pension pour aligner leurs actifs avec leurs engagements futurs. Elle vise à réduire les risques de décalage entre les flux de trésorerie et les paiements dus. Ces fonds utilisent souvent des produits dérivés pour gérer les risques et optimiser les rendements, mais peuvent être exposés à des risques de liquidité en cas de mouvements brusques des taux d’intérêt. »

Plutôt convaincant, non ? N’oublions pas cependant les « propos incongrus affirmés avec la plus grande assurance » susmentionnés. Alors, pourquoi accorder notre confiance à Perplexity sur un sujet aussi complexe et plutôt abscons ?

À y regarder de plus près, la réponse de Perplexity comprend également une série de sources numérotées tout au long de la réponse, listées dans les notes de bas de page :

Les LDI, et comment ils ont accru les tensions sur les marchés britanniques, par Les Échos

Une page d’information juridique au sujet de l’entreprise LDI Holding sur peppers. (hors sujet)

L’organisation et l’intégration des données comme antidote ?

En jargon de l’IA, Perplexity utilise des ensembles de données organisées et intégrées. Dans un effort soutenu par des recherches approfondies, les moteurs de recherche ont pour objectif de minimiser les hallucinations en se centrant exclusivement sur un cadre déterminé de données mises à jour récemment.

Alors pourquoi Perplexity choisit-elle ces sources-là en particulier parmi les nombreuses sources disponibles ? Voici la réponse de Perplexity (citant d’autres sources telles que GitHub, Search Engine Journal, and Reddit) :

  • Web crawling et indexation : La collecte automatique des contenus des sites web et leur indexation se concentrent sur des sources fiables.
  • Évaluation automatique des sources : les algorithmes analysent plusieurs signaux repères tels que les citations, les références des auteurs, les canaux de diffusion ou la vérification des faits afin de déterminer la crédibilité et la qualité des sources potentielles.
  • Construction d’une base de connaissances : pour les domaines spécifiques tels que les sciences et la finance, les algorithmes peuvent construire leur propre base de connaissances personnalisée en extrayant et en rassemblant de façon organisée des informations issues de sources hautement fiables, telles que des publications universitaires et des rapports sectoriels.

Dans cette étude, afin de limiter les points faibles des LLM, Google indique restreindre l’expérience SGE « à des tâches spécifiques, telles que la corroboration » et utiliser « nos systèmes de recherche de qualité existants ainsi que notre capacité à identifier et classifier des informations fiables et d’excellente qualité. » Et pour les thématiques d’importance critique, la santé ou les finances par exemple, Google « met encore davantage l’accent sur la collecte de réponses contenant des informations corroborées par des sources fiables », en « intégrant des avertissements dans ses réponses ».

Qu’est-ce que tout cela signifie ?

À mesure que progresse la recherche propulsée par l’IA, le besoin de précision et de crédibilité ne peut qu’augmenter de façon concomitante. Cela signifie que l’information citée doit être précise, fiable, actualisée et rigoureusement vérifiée. Comme le précise Google dans son étude, ce besoin de fiabilité est d’autant plus prononcé dans le domaine financier, un état de fait qui va continuellement nécessiter des interventions et vérifications humaines :

Qu’est-ce que cela signifie pour les professionnels du marketing ?

  • Mesures de crédibilité : bien que les choses évoluent, l’organisation intégrée des sources de données paraît incontournable pour augmenter la fiabilité des réponses aux requêtes formulées par l’IA. Pour sa SGE, Google a annoncé son intention d’associer des réponses informelles à des liens en bas de page permettant la vérification de ce qui est avancé. Pour les autres ressources telles que Perplexity, cette vérification prendra la forme de renvois en bas de page vers une liste de liens. Qu’il s’agisse de l’une ou de l’autre des deux méthodes, fournir du contenu actuel, crédible et éclairant restera essentiel à leur prééminence.
  • Ne mettez pas tous vos œufs dans le même panier de l’IA : en effet, ces moteurs de recherche ne risqueraient-ils pas de finir par se tourner eux-mêmes vers des contenus produits par de l’IA dans le but de prouver leurs dires ? C’est un risque indéniable : malgré tous les efforts des géants de la tech, aucun détecteur d’IA n’est infaillible. Et c’est d’ailleurs un danger de taille. Comme l’ont affirmé les plus grands cerveaux à l’origine de IA : alors que la quantité d’informations générées par les humains susceptible d’alimenter les IA de génération de contenus diminue, le risque réel que les LLM cannibalisent le contenu généré par l’IA augmente, renforçant par là-même les inexactitudes et l’absence d’objectivité. Si vous publiez du contenu exclusivement généré par de l’IA, et que cela alimente ce même processus, faites preuve de vigilance, car cela pourrait être source d’embarras — ou pire —, surtout dans un domaine tel que la gestion d’actifs, lequel repose sur la pertinence des raisonnements.
  • Produire du contenu de grande qualité et de façon constante reste LA clé. Alors que je rédigeais cet article, j’ai économisé beaucoup de temps et d’énergie grâce à l’IA qui m’a fourni des réponses simples et dans un style journalistique s’agissant de la structure de l’article, ou de mon processus de raisonnement. Cependant, l’angle d’approche et le ton donnés à ce texte, sa contextualisation, les partis pris sur des points spécifiques, et sa pertinence pour notre agence et nos clients, restent les miens. Enfin, concernant les connaissances issues de domaines spécialisés ou émergents, la production de contenus originaux et bien pensés semble pouvoir demeurer un facteur clé de forte présence et de différenciation en ligne.

Étant donné la vitesse avec laquelle l’IA s’est imposée dans notre quotidien, il devient évident d’affirmer que tout est sujet à changements. Au sujet de l’IA, peut-être faut-il retenir avant tout et durablement le fait que la situation pourrait être complètement autre dans un an, voire dans quelques mois.

Cela signifie également que le champ des possibles est incroyablement vaste pour le moment. En tant que professionnel·les du marketing en investissements, si vous pouvez vous reposer sur des viviers de connaissances et une expertise en interne importants pour générer du contenu original mis à jour régulièrement et de grande qualité, sur des textes souvent re-cités et, caractéristique indispensable, factuellement et contextuellement infaillibles, vous serez par définition la cible des moteurs de recherche par IA lorsqu’ils répondront aux questions du public.

N’est-ce pas là par définition un objectif qui, à lui seul, mérite d’être visé ?

Termes clés :

  • LLMs : large-language models en anglais. Grands modèles de langage pour
  • SGE : Search Generative Experience. Expérience de Recherche Générative.
  • LDI: liability-driven investment. Fonds d’investissements guidé par le passif