Frankenstein Factor : anatomie des peurs liées à l’intelligence artificielle
Pourquoi avons-nous peur de l’intelligence artificielle ? Sogeti fait le point dans un rapport The Frankenstein Factor – The Anatomy of Fear of AI.
Certains l’appellent «la fin de la civilisation». L’intelligence artificielle va prendre le dessus. Nous serons les esclaves et les ordinateurs seront nos maîtres. L’histoire de la peur des machines nous enseigne que cela a toujours été le cas. Nous craignons l’«unheimlich» («Inquiétante étrangeté», Freud), l’automate, les poupées vivantes et les androïdes.
«Les émotions ont un potentiel explosif, elles ne devraient pas être ignorées, estime Menno van Doorn, Director of Research Institute for the Analysis of New Technology, Sogeti. Notre nouveau rapport plaide pour des CIO-thérapeutes. Nous devrions prendre en compte autre chose que l’efficacité. L’existence et ce qui fait de nous des humains est maintenant une priorité dans les salles de réunion… De quelles peurs parlons-nous ? Et quelle est la valeur ajoutée de cet aspect de la peur ? Le fait que les intelligences artificielles anthropomorphiques créent des liens plus forts entre l’homme et la machine suggère que le future de l’IT est plus empathique, plus romantique que nous n’aurions jamais pu imaginer !»
Le rapport fourmille d’informations-clés…
> Une nouvelle formule pour le succès de l’IT – Productivité x efficacité x existence = succès de l’IT. Le CIO devrait prendre en compte l’existence humaine. Conduire le renouveau et l’innovation en se basant uniquement sur l’efficience et la productivité n’est pas suffisant. La peur de l’intelligence artificielle et l’attractivité de (ro)bots humanoïdes va définir les futurs scénarios des organisations.
> Le nouveau rôle du CIO : thérapeute – Le subconscient, les sentiments d’unheimlich associés à la confrontation avec les automates, l’attractivité du fait de parler avec un robot, toutes ces dimensions émotionnelles de l’ère de la technologie de l’intelligence artificielle requièrent de nouvelles compétences au sommet des organisations.
> La transparence et le dialogue thérapeutique – Même s’il n’y avait rien à craindre de l’utilisation de l’intelligence artificielle, les organisations devraient craindre la peur. Être transparents sur la manière dont les algorithmes fonctionnent est un pas en avant vers la solution.
> Quatre manières d’appréhender la peur de l’IA – L’intelligence artificielle est crainte parce qu’elle peut devenir très intelligente, mais aussi parce qu’elle peut être très stupide. C’est exactement la peur subconsciente décrite par Sigmund Freud et Ernst Jentsch. Il y existe également une peur de perdre notre culture, qui a l’air différente à l’est et à l’ouest. Et finalement, il y a la peur existentielle. Telles sont les quatre grandes peurs que chaque être humain doit affronter.