Llama 4 n’a pas « retourné sa veste », mais s’adapte en fonction des réactions des utilisateurs 

Des IA de plus en plus à droite. Une page se tourne. Rien d’étonnant : elles s’adaptent au contexte. Les choisirons-nous bientôt en fonctions de nos convictions politiques ?

Avec Llama 4, Meta promet une IA plus performante… et « moins à gauche ». L’entreprise revendique avoir expurgé une partie des penchants progressistes de son modèle, dans un contexte où la liberté d’expression devient un nouvel étendard idéologique pour les géants de la tech à l’ère Trump. En somme, une nouvelle IA raccord avec sa nouvelle ligne « éditoriale ».

Moins « biaisé » politiquement que ses prédécesseurs. C’est en tout cas ainsi que Meta le présente. Dans le post de blog dévoilant son modèle, l’entreprise écrit qu’il « est bien connu que tous les principaux LLM ont des problèmes de partialité (…) ils penchent historiquement à gauche lorsqu’il s’agit de sujets politiques et sociaux débattus. Cela est dû aux données d’entraînement disponibles sur internet. » L’entreprise dit avoir travaillé pour « éliminer les préjugés » de ses modèles d’IA afin de faire en sorte que Llama « puisse comprendre et exprimer les deux côtés d’une question litigieuse. »

Moins à gauche, donc. Dans l’industrie, c’est un, virage. L’IA aurait toujours été à gauche. C’est ce que, récemment encore, soutenait -preuves à l’appui- la start-up Trickstr, spécialisée dans la réputation en ligne des personnalités et des entreprises dont les experts ont testé les différents modèles d’IA.

ChatGPT ou WokeGPT ?

Si la question peut paraitre incongrue, elle a ressurgi avec force dans les médias à l’occasion de l’annonce par Elon Musk du lancement de Grok, présenté comme un concurrent idéologique de chatGPT, rebaptisé « WokeGPT » par le milliardaire.

Dans l’étude « Turning right ? An experimental study on the political value shift in large language models », trois chercheurs chinois ont adapté le test de la boussole politique en le combinant à des techniques rigoureuses d’amorçage afin de créer une méthode standardisée de test des valeurs politiques en IA. Cette approche a été appliquée à plusieurs versions de ChatGPT, en utilisant un ensemble de données de plus de 3 000 tests pour garantir sa robustesse. Les résultats ont révélé que, si les nouvelles versions de ChatGPT maintiennent systématiquement les valeurs dans le quadrant libertaire-gauche, un glissement statistiquement significatif vers la droite des valeurs politiques s’opère au fil du temps. Soit un « changement de valeurs » dans les grands modèles linguistiques. Ce glissement est particulièrement remarquable compte tenu de l’utilisation répandue des LLM et de leur influence potentielle sur les valeurs sociétales.

Un « changement de veste » qui s’explique

Les chercheurs avancent trois théories pour expliquer ce glissement vers la droite : un changement dans les ensembles de données utilisés pour entraîner leurs modèles, le nombre d’interactions avec les utilisateurs ou les modifications et mises à jour du chatbot.

Les modèles tels que ChatGPT « apprennent et s’adaptent continuellement en fonction des réactions des utilisateurs », de sorte que leur glissement vers la droite pourrait « refléter des changements sociétaux plus larges en matière de valeurs politiques », poursuit l’étude.

Des événements mondiaux polarisants, comme la guerre entre la Russie et l’Ukraine, pourraient également amplifier les questions que les utilisateurs posent aux LLM et les réponses qu’ils obtiennent.

Si rien n’est fait, les chercheurs ont averti que les chatbots d’IA pourraient commencer à fournir des « informations biaisées », ce qui pourrait polariser davantage la société ou créer des « chambres d’écho » qui renforcent les croyances particulières d’un utilisateur.