
- New York
- London
- Glasgow
- Paris
- Singapore
Traduction-adaptation française: Fabienne Bersac. Relecture: Isabelle Rouault-Röhlich
L’émergence de nouveaux grands modèles de langage (LLM (1), propulsés par l’intelligence artificielle (IA) a pu laisser présager que l’activité rédactionnelle humaine courait à sa perte.
Cette vision est cependant en train de se nuancer à mesure qu’évolue le paysage de l’intelligence artificielle. Bien que les LLM tels que Claude et Llama continuent à prendre de l’ampleur en utilisant des séries de repères mathématiques et de raisonnement, d’autres voguent déjà vers d’autres horizons.
Les moteurs de recherche reposant sur l’IA cherchent à capter l’interactivité entre les conversations avec les chatbots tout en préservant la crédibilité et la précision des recherches « classiques ». Atteindre cet objectif présuppose la résolution des problèmes centraux aux LLM, tout en maintenant des méthodes éprouvées au fil du temps par le marketing en investissements.
Les moteurs de recherche tels que Perplexity, le nouveau Bing, you.com et la SGE (Search Generative Experience (2) de Google proposent des réponses au format chatbot aux requêtes des utilisateurs·rices. Elles s’appuient sur les LLM mais il existe une différence claire dans l’angle d’approche, selon Otterly.ai :
Une étude publiée par Google en début d’année explique la différence entre LLM et SGE :
Alors que la SGE utilise également les LLM, elle a en réalité été entraînée pour exécuter des tâches spécifiques aux requêtes, qui incluent l’identification de résultats web de qualité corroborant l’information présentée dans la réponse.
Ce dernier point est essentiel. Dans le monde de l’intelligence artificielle, les cas de professionnel·les qui se font piéger par des propos incongrus exprimés avec la plus grande assurance sont monnaie courante. Pour que la recherche exécutée par l’IA puisse prétendre égaler le niveau de fiabilité de moteurs de recherche tels que Google, elle devra connaître de grandes avancées, dans la gestion non seulement des hallucinations, mais aussi des erreurs contextuelles, ou des biais et opinions présentés comme des vérités factuelles.
Sources éducatives
Voyons un exemple dans un domaine pertinent, celui des services financiers : qu’est-ce qu’un fonds axé sur le passif (LDI) ? Voici la réponse en 70 mots de Perplexity en français :
« Un fonds LDI (Liability-Driven Investment) est une stratégie d’investissement utilisée par les fonds de pension pour aligner leurs actifs avec leurs engagements futurs. Elle vise à réduire les risques de décalage entre les flux de trésorerie et les paiements dus. Ces fonds utilisent souvent des produits dérivés pour gérer les risques et optimiser les rendements, mais peuvent être exposés à des risques de liquidité en cas de mouvements brusques des taux d’intérêt. »
Plutôt convaincant, non ? N’oublions pas cependant les « propos incongrus affirmés avec la plus grande assurance » susmentionnés. Alors, pourquoi accorder notre confiance à Perplexity sur un sujet aussi complexe et plutôt abscons ?
À y regarder de plus près, la réponse de Perplexity comprend également une série de sources numérotées tout au long de la réponse, listées dans les notes de bas de page :
Les LDI, et comment ils ont accru les tensions sur les marchés britanniques, par Les Échos
Une page d’information juridique au sujet de l’entreprise LDI Holding sur peppers. (hors sujet)
En jargon de l’IA, Perplexity utilise des ensembles de données organisées et intégrées. Dans un effort soutenu par des recherches approfondies, les moteurs de recherche ont pour objectif de minimiser les hallucinations en se centrant exclusivement sur un cadre déterminé de données mises à jour récemment.
Alors pourquoi Perplexity choisit-elle ces sources-là en particulier parmi les nombreuses sources disponibles ? Voici la réponse de Perplexity (citant d’autres sources telles que GitHub, Search Engine Journal, and Reddit) :
Dans cette étude, afin de limiter les points faibles des LLM, Google indique restreindre l’expérience SGE « à des tâches spécifiques, telles que la corroboration » et utiliser « nos systèmes de recherche de qualité existants ainsi que notre capacité à identifier et classifier des informations fiables et d’excellente qualité. » Et pour les thématiques d’importance critique, la santé ou les finances par exemple, Google « met encore davantage l’accent sur la collecte de réponses contenant des informations corroborées par des sources fiables », en « intégrant des avertissements dans ses réponses ».
À mesure que progresse la recherche propulsée par l’IA, le besoin de précision et de crédibilité ne peut qu’augmenter de façon concomitante. Cela signifie que l’information citée doit être précise, fiable, actualisée et rigoureusement vérifiée. Comme le précise Google dans son étude, ce besoin de fiabilité est d’autant plus prononcé dans le domaine financier, un état de fait qui va continuellement nécessiter des interventions et vérifications humaines :
Étant donné la vitesse avec laquelle l’IA s’est imposée dans notre quotidien, il devient évident d’affirmer que tout est sujet à changements. Au sujet de l’IA, peut-être faut-il retenir avant tout et durablement le fait que la situation pourrait être complètement autre dans un an, voire dans quelques mois.
Cela signifie également que le champ des possibles est incroyablement vaste pour le moment. En tant que professionnel·les du marketing en investissements, si vous pouvez vous reposer sur des viviers de connaissances et une expertise en interne importants pour générer du contenu original mis à jour régulièrement et de grande qualité, sur des textes souvent re-cités et, caractéristique indispensable, factuellement et contextuellement infaillibles, vous serez par définition la cible des moteurs de recherche par IA lorsqu’ils répondront aux questions du public.
N’est-ce pas là par définition un objectif qui, à lui seul, mérite d’être visé ?