Artificial Intelligence
Artificial Intelligence, Deep Learning, Machine Learning
IA : et si on faisait une pause ?
Elon Musk et des centaines d’experts appellent à une pause, évoquant des risques majeurs pour l’Humanité. Les signataires parlent d’ « un été de l’IA pour récolter les fruits »…
« L’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre. Elle devrait être planifiée et gérée avec un soin et des ressources proportionnés. Malheureusement, ce niveau de planification et de gestion ne se produit pas. Ces derniers mois, on a plutôt vu les laboratoires d’IA enfermés dans une course effrénée pour développer et déployer des esprits numériques toujours plus puissants que personne -pas même leurs créateurs- ne peut comprendre, prédire ou contrôler de manière fiable. »
Le message est fort. Et s’apparente fort à une guerre déclarée contre l’intelligence artificielle. Elon Musk et des centaines d’experts mondiaux ont signé mercredi 28 mars un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT4 le modèle d’OpenAI lancé mi-mars.
Devrions-nous perdre le contrôle de notre civilisation ?
Dans cette pétition parue sur le site futureoflife.org, ils réclament un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les « perturbations économiques et politiques dramatiques -en particulier pour la démocratie- que l’IA provoquera ».
« Les systèmes d’IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales, précise encore la pétition. Et nous posent mille questions. Devrions-nous laisser les machines inonder nos canaux d’information de propagande et de contrevérité ? Devrions-nous automatiser toutes les tâches, y compris celles qui sont épanouissantes ? Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? De telles décisions ne doivent pas être déléguées à des leaders technologiques non élus. »
La société a besoin de temps pour s’adapter
La pétition réunit des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l’être humain, dont le propriétaire de Twitter et fondateur et fondateur de SpaceX et Yuval Noah Harari, l’auteur de « Sapiens ». Le patron d’OpenAI, concepteur de chatGPT, Sam Altman a lui-même reconnu être « un petit peu effrayé » par sa création si elle était utilisée pour de « la désinformation à grande échelle ou des cyberattaques ». « La société a besoin de temps pour s’adapter », avait-il déclaré à ABCNews voici peu.
« Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables », stipule encore la pétition. Cette confiance doit être bien justifiée et augmenter avec l’ampleur des effets potentiels d’un système. La récente déclaration d’OpenAI concernant l’intelligence artificielle générale indique qu’ « à un moment donné, il peut être important d’obtenir un examen indépendant avant de commencer à former de futurs systèmes, et pour les efforts les plus avancés d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux des modèles. »
Nous sommes d’accord, s’accordent les signataires. « Par conséquent, nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins six mois la formation des systèmes d’IA plus puissants que GPT-4. Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire. »
Un « été de l’IA pour récolter les fruits »…
En parallèle, les développeurs d’IA doivent travailler avec les décideurs politiques pour accélérer considérablement le développement de systèmes de gouvernance de l’IA robustes. Celles-ci devraient au minimum inclure : de nouvelles autorités de réglementation compétentes dédiées à l’IA ; la surveillance et le suivi de systèmes d’IA hautement performants et de vastes pools de capacités de calcul ; des systèmes de provenance et de filigrane pour aider à distinguer le réel du synthétique et à suivre les fuites de modèles ; un solide écosystème d’audit et de certification ; responsabilité pour les dommages causés par l’IA ; un financement public solide pour la recherche technique sur la sécurité de l’IA ; et des institutions bien dotées en ressources pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA entraînera.
L’Humanité peut profiter d’un avenir florissant avec l’IA. « Après avoir réussi à créer de puissants systèmes d’IA, nous pouvons maintenant profiter d’un ‘été de l’IA’ dans lequel nous récoltons les fruits, concevons ces systèmes pour le bénéfice de tous et donnons à la société une chance de s’adapter. La société a fait une pause sur d’autres technologies avec des effets potentiellement catastrophiques sur la société. Nous pouvons le faire ici. Profitons d’un long été d’IA, ne nous précipitons pas sans préparation dans une chute. »