Data Intelligence

Analysis, BI, Prediction, Planning, Boardroom

IA génératives, le niet de la presse

Août 16, 2023 | Ai | 0 commentaires

Pas de déploiement de la technologie d’IA générative sans un cadre juridique. Il faut pouvoir protéger le contenu qui alimente les applications de l’IA, exige la presse. A raison.

Pour la presse, c’est niet. Dans une lettre ouverte, dix organismes de presse de renommée internationale exigent des garanties concernant leurs modèles économiques et la désinformation. De Getty Image à l’Agence France Presse, ce sont autant des acteurs de l’image que de l’écrit qui tirent la sonnette d’alarme.

« La démocratie repose sur la confiance dans un écosystème médiatique libre, fiable, indépendant et solide, peut-on lire. Nous pensons que l’intelligence artificielle et les modèles génératifs ont le potentiel d’apporter des avantages significatifs à l’humanité. Cependant, si elles ne sont pas contrôlées, nous pensons également que ces technologies peuvent menacer la durabilité de l’écosystème médiatique. Elles peuvent éroder considérablement la confiance du public dans l’indépendance et la qualité du contenu. Ce faisant, elles peuvent menacer  la viabilité financière de ses créateurs. »

Ligne après ligne, le texte soulève plusieurs interrogations existentielles pour un écosystème médiatique qui se dit « menacé ». Parmi les principaux griefs, celui de la désinformation. Les outils d’IA générative tels que ChatGPT sont régulièrement critiqués, voire poursuivis au regard du GDPR, pour diffuser de fausses nouvelles. Le travail des journalistes s’en trouve critiqué ou décrédibilisé.

Quid, demain, de la viabilité financière de la presse ?

Surtout, les organismes de presse estiment être floués. En effet, les grands modèles d’intelligence artificielle sont constamment entraînés sur la base de leurs contenus. Et cela sans qu’aucun consentement n’ait été donné. Et sans qu’aucune rémunération n’ait été prévue. « De telles pratiques sapent les modèles commerciaux qui reposent sur le lectorat et l’audience comme les abonnements et la publicité, indique la lettre. En plus de violer la loi sur le droit d’auteur, l’impact qui en résulte est de réduire considérablement la diversité des médias. La viabilité financière est sapée. Le risque est de réduire plus  encore l’accès du public à des informations de haute qualité et fiables. »

La lettre suit de peu la présentation de Genesis de Google au New York Times, au Washington Post et à News Corp, qui possède le Wall Street Journal. D’autres organes de presse qui ont adopté l’IA générative ont trouvé plusieurs erreurs dans les articles générés par l’IA.

Une liste de recommandations

Afin de rééquilibrer la balance et d’accueillir de façon juste le boom de l’IA générative, les dix organismes de presse dressent une liste de recommandations. En premier lieu, ils exigent davantage de transparence quant aux données utilisées par les sociétés comme OpenAI pour entraîner leurs systèmes. Ils demandent à ce titre qu’on requiert auprès d’eux un accord, à négocier, pour la cession éventuellement rémunérée de leur propriété intellectuelle.

Enfin, les groupes de presse estiment que les internautes qui rencontrent en ligne des contenus générés via l’intelligence artificielle doivent être avertis. D’autant que Bard, ChatGPT, Claude 2 et les autres robots conversationnels ont été conçus avec des biais qui peuvent exacerber leurs tendances à la désinformation. Les signataires de la lettre demandent d’ailleurs que le secteur de l’IA travaille à l’élimination de ces biais et de ces fake news.

L’AI Act européen, un premier pas ?

L’écosystème médiatique pourra-t-il compter sur les arsenaux législatifs en préparation aux quatre coins du monde ? La Commission  européenne, qui adoptera probablement l’AI Act avant la fin de l’année, pourrait reprendre à son compte certaines des suggestions évoquées dans cette lettre ouverte.

En plus d’évoquer avec intérêt ce type d’initiative réglementaire, les signataires saluent en attendant les initiatives communes plus sectorielles de ces fers de lance de l’IA qui disent vouloir participer à leur propre régulation.