Artificial Intelligence
Artificial Intelligence, Deep Learning, Machine Learning
Les Etats-Unis ont ChatGPT, l’Europe le GDPR !
L’innovation vient des Etats-Unis, la réglementation vient des institutions de l’Union européenne. Bientôt un projet de directive sur l’AI. Nécessaire, vraiment ?
Le 21 février 2023, Reuters dévoilait que la boutique Kindle d’Amazon – dédiée à l’achat de livres électroniques pour sa liseuse éponyme- contenait au moins 200 ouvrages pour lesquels ChatGPT est répertorié comme auteur ou coauteur… Un problème pour les « vrais auteurs » car leurs œuvres se retrouvent noyées dans une masse de publications de faible qualité ! Si ce mouvement, movité par l’appât du gain, ne doit pas faire craindre un bouleversement de l’industrie du livre, il appelle néanmoins à de nouvelles réflexions de régulations en matière de droits d’auteur.
En ce sens, le rappel de Thierry Breton, commissaire européen responsable au marché intérieur, à cerner l’intelligence artificielle par un cadre réglementaire adéquat se justifie. En somme, oui au développement de l’IA et donc de ChatGPT, mais pas sans garde-fou.
ChatGPT, un potentiel incroyable… à encadrer
Voici près de deux ans, en avril 2021, la Commission européenne révélait sa proposition de loi pour faire appliquer un nouveau règlement européen sur l’intelligence artificielle. Son message ? Comme l’IA a un potentiel incroyable, il faut l’encadrer. Pas d’agriculture de précision, de diagnostics médicaux plus fiables ou de conduite autonome sécurisée… sans règles !
La Commission européenne a tracé des lignes entre l’inacceptable, le risque élevé, le risque limité et le risque minimal pour les systèmes utilisant l’intelligence artificielle. Les règles proposées seront les suivantes:
- traiter les risques spécifiquement créés par les applications d’IA;
- proposer une liste des applications à haut risque;
- fixer des exigences claires pour les systèmes d’IA pour les applications à haut risque;
- définir des obligations spécifiques pour les utilisateurs d’IA et les fournisseurs d’applications à haut risque;
- proposer une évaluation de la conformité avant la mise en service ou la mise sur le marché du système d’IA;
- proposer des mesures d’application après la mise sur le marché d’un tel système d’IA;
- proposer une structure de gouvernance aux niveaux européen et national.
Législation à l’épreuve du temps
L’IA étant une technologie en évolution rapide, la proposition adopte une approche à l’épreuve du temps, permettant aux règles de s’adapter aux changements technologiques. Les applications d’IA devraient rester fiables, y compris après leur mise sur le marché. Ce qui va nécessiter une gestion continue de la qualité et des risques par les fournisseurs.
En attendant, ChatGPT pourrait se retrouver classé au troisième stade -le risque élevé. Ce classement imposerait aux développeurs certaines mesures d’atténuation des risques, de traçabilité, d’évaluation de l’impact potentiel d’un service. Un autre texte, une directive cette fois, est également sur la table. Elle se concentre sur la question de la responsabilité, pour protéger les citoyens européens potentiellement lésés par une IA.
Qu’en penser quand, en même temps, ChatGPT est « l’application grand public qui connaît la croissance la plus rapide de l’Histoire » avec 100 millions d’utilisateurs mensuels actifs en seulement deux mois, selon une étude d’UBS ? Bien que l’objectif de l’Union européenne soit de devenir un pôle d’excellence mondial de l’IA tout en construisant une IA « digne de confiance », certains acteurs du secteur affichent leur scepticisme.
Selon une étude de décembre d’AppliedAI, une organisation professionnelle, relayée par Reuters, près de 51 % des membres de l’écosystème redoutent un ralentissement du développement de l’IA sur le vieux continent avec l’entrée en application du texte. Seuls 16 % le perçoivent au contraire comme une avancée bénéfique…
Surenchère normative
En voulant protéger le consommateur par une réglementation stricte, l’Europe ne se trompe-t-elle pas de cible ? Le goulet d’étranglement n’est-il pas le manque de solutions -que seule l’innovation peut résoudre- plus que les risques inhérents aux dispositifs ?
Cette surenchère normative serait-elle le symptôme d’un mal plus profond qui ronge l’Europe ? Les grands projets -ouverture des frontières, monnaie unique- ont fait place à une publication sans fin de nouveaux règlements. Comme l’a fait remarquer Emmanuel Macron dans une interview remarquée, « les Etats-Unis ont les GAFAM, nous avons le GDPR ! ».
L’absence de toute entreprise européenne dans le Top 20 des grandes sociétés technologiques en est une autre preuve accablante. La part européenne du cloud, pour ne citer qu’elle, est passée de 30 à 15 % depuis cinq ans. Aucune société européenne n’a plus de 1 % du marché total, quand Amazon ou Google en capturent ensemble 50 %. Voulons-nous faire de même avec l’IA ?