Peut-on encore parler de « créations » ? Homme de communication, Dominique Mangiatordi craint une uniformisation des contenus au détriment de la diversité et de l’authenticité.

Si « la démocratisation des outils d’IA générative peut conduire à une industrialisation des attaques », selon Dominique Mangiatordi, expert en IA, invité de la récente Cyber School, le 19 juin à Living Tomorrow, c’est aussi la sophistication des offensives qui change la donne. En atteste cette récente fraude au président version 5.0 dans une entreprise de Hong Kong, sous la forme d’une visioconférence en présence d’un directeur financier plus vrai que nature, car fruit d’un « deepfake ». Résultat : 25 millions de dollars détournés. On vit la fin du vrai !

L’IA a inondé le web en prenant une place de plus en plus importante dans la création de contenus. Que ce soit pour générer des articles, des images, des vidéos ou même de la musique, les outils basés sur l’IA se multiplient et deviennent de plus en plus performants. Ce qui n’est pas sans dangers. En cause, l’extrême réalisme des contenus. « Le vrai se confond avec le faux et vice versa. Il devient difficile, voire impossible, de distinguer les contenus créés par l’humain de ceux créés par la machine ! »

Au-delà de la désinformation, c’est la question de l’avenir des créations humaines qui est posée

En un an, en Belgique, rapporte Statista, le nombre de deepfakes a progressé de 950 %. C’est dire. Par ailleurs, une nouvelle étude publiée par ISMS.online montre que les deepfakes se classent désormais au deuxième rang des incidents de sécurité de l’information les plus courants pour les entreprises britanniques et que plus d’un tiers des organisations en ont fait l’expérience…

Les outils peuvent également donner aux campagnes de phishing une apparence plus réaliste et attirer leur cible. Une image du pape vêtu d’une veste Balenciaga est devenue virale avant que l’on ne révèle que l’image avait été créée par une IA, ce qui prouve que la probabilité que les images d’IA et les vidéos deepfakes soient jugées crédibles n’a jamais été aussi élevée.

Au-delà de la désinformation, c’est la question de l’avenir des créations humaines qui est posée. En effet, avec des outils capables de produire des textes, des images ou des vidéos en quelques secondes, on peut se demander où est la place des créateurs humains dans un monde où le contenu peut être généré instantanément et à moindre coût par des algorithmes…

Et, d’abord, peut-on encore parler de « créations » ? Homme de communication, Dominique Mangiatordi craint une uniformisation des contenus au détriment de la diversité et de l’authenticité. « C’est déjà le cas avec les illustrations créées au départ de ChatGPT, qui manquent cruellement d’originalité. »

Où est le vrai ? Il est temps de trouver le juste équilibre

En même temps, il serait réducteur de voir l’IA uniquement comme un danger pur et simple. Bien utilisée, l’IA peut être un formidable outil d’aide à la création, et donc à l’innovation. Ainsi, AI Adobe pour Photoshop et Illustrator qui permettent aux designers de gagner du temps dans le traitement des photos et, par conséquent, la création.

Finalement, le défi sera de trouver un équilibre entre les bénéfices de l’IA et la préservation de l’authenticité des contenus. Pour contrôler les dérives de l’IA, il faudra un encadrement réglementaire plus strict. Par ailleurs, il sera nécessaire de fournir une meilleure éducation du public aux risques des deepfakes. Ainsi qu’un renforcement des mesures de sécurité et de vérification de l’identité en ligne.

« En fin de compte, l’IA n’est qu’un simple outil. A nous, en tant qu’utilisateurs et créateurs, de veiller à ce qu’elle soit mise au service de la connaissance, de la vérité et de la créativité humaine, plutôt qu’à sa perte », analysait Dominique Mangiatordi, devant le public réuni par Cyber Security Management, organisateur de la Cyber School.

De là, à côté d’une attirance réelle, un doute immense. Aujourd’hui, selon une étude de Forrester, la sécurité est un frein majeur pour 64 % des entreprises qui adoptent l’IA. En clair, près de deux tiers des organisations ne savent pas comment évaluer la sécurité des outils d’IA générative.

Ainsi, l’une des principales préoccupations à propos de Microsoft Copilot est le fonctionnement de son modèle de sécurité avec les autorisations et le fait que cette solution peut accéder à tous les fichiers et informations de l’utilisateur en question. Seulement, explique Dominique Mangiatordi, la plupart des utilisateurs d’une entreprise ont déjà des accès beaucoup trop vastes.

Notre sens de l’analyse est en train de disparaitre

« Le point commun de toutes les entreprises est l’augmentation considérable de l’accès des données par tous les membres de l’entreprise. C’est vraiment le risque le plus important qui, je l’observe, n’est pas pris en compte par la plupart des entreprises. C’est ce qui se traduira le plus directement en risque avec Copilot, car c’est ce qu’il exploite. Nous avons, dans nos entreprises, la responsabilité de mettre en place le modèle du moindre privilège en interne. » 

Selon une étude de Varonis, 76 % des participants déclaraient que bien qu’ils se soucient des risques de l’utilisation de l’IA générative, ils souhaitent tout de même poursuivre leur utilisation. Sans une formation appropriée ou des mesures de sécurité proactives mises en place, les entreprises courent le risque de voir leurs informations critiques partagées avec ces outils, ou pire, avec tout Internet.

« Au fur et à mesure que l’adoption des outils d’IA se développera, les humains deviendront de plus en plus paresseux, faisant peut-être trop confiance à l’IA pour effectuer les contrôles de sécurité qu’ils devraient réaliser eux-mêmes. Notre sens de l’analyse est en train de disparaitre », constate Dominique Mangiatordi. Le flou succède au vrai.

Propos recueillis par Alain de Fooz