Artificial Intelligence

Artificial Intelligence, Deep Learning, Machine Learning

Une IA responsable, impérativement

Fév 15, 2022 | Ai | 0 commentaires

D’un côté, l’innovation et les profits ; de l’autre, l’éthique et le bien commun. L’IA responsable doit trouver son chemin. Pour Olivier Penel, de SAS, c’est une question de confiance.

« Pour être déployée à grande échelle, l’IA doit être responsable ; elle doit inspirer confiance, être perçue comme juste, non biaisée, explicable et augmenter les capacités humaines sans s’y substituer. »

Une IA responsable… C’est supposer qu’elle peut ne pas l’être, conçoit Olivier Penel, Head of Global Advisory, SAS. Le risque est là, du fait même des progrès de l’IA, de la course effrénée à l’innovation, de la croissance exponentielle des volumes de données disponibles… et qui multiplient les risques d’usages mal contrôlés ou abusifs. « S’il y a irresponsabilité c’est, le plus souvent, qu’il y a une recherche d’efficacité qui fait fi, consciemment ou non, de la responsabilité. Ce n’est pas l’algorithme qui est ‘irresponsable’, mais la façon dont on l’utilise… »

Il ne s’agit pas ici de faire le procès de la science des données, mais de responsabiliser l’humain qui a créé l’algorithme ou qui le pilote. La collaboration entre l’Homme et la technologie mène parfois à des résultats inattendus, non désirés, ou contraires à l’éthique. Le plus souvent, cela est dû à un manque de compréhension du fonctionnement intrinsèque des outils et à un manque de gouvernance des systèmes décisionnels.

Le besoin d’une IA responsable n’a jamais été aussi pressant. Les analystes du marché en ont pris conscience. Gartner a par example identifié « une IA plus intelligente, responsable et évolutive » comme la tendance n° 1 du marché des données et de l’analytique. Les régulateurs ont eux aussi décidé de s’attaquer au problème. Par exemple, en avril 2021, la Commission européenne a publié une proposition de règlementation spécifique à l’IA.

Tout, tout de suite !

Comment en est-on arrivé là ?Trois forces convergent : l’accélération, la délégation et l’amplification.

L’accélération, d’abord, permise par l’augmentation exponentielle des capacités de stockage et d’analyse des données. Une récente enquête de McKinsey montre que les réponses à la COVID-19 ont accéléré l’adoption des technologies numériques de plusieurs années. Les entreprises ont réalisé qu’elles devaient pouvoir s’appuyer sur leurs services analytiques et numériques pour renforcer leur résilience, leur compétitivité et leur capacité à survivre en période d’incertitude.

« L’accélération de la transformation digitale est également motivée par ce qu’il est permis de nommer la ‘tyrannie de l’instantanéité’, c’est-à-dire la demande des consommateurs et des citoyens pour un accès instantané aux services en ligne. Comme des enfants, nous voulons tout, et tout de suite. », illustre Olivier Penel.

La capacité à automatiser les décisions et les processus métier avec l’IA devient un différenciateur concurrentiel. « Si je ne parviens pas à faire approuver mon prêt en ligne immédiatement, je vais simplement m’adresser à une autre banque. Si le produit que je veux acheter ne peut pas être livré demain, je l’achèterai simplement chez un autre détaillant. »

Déléguer, oui. Mais jusqu’où ?

Deuxième aspect, la délégation. En somme, la part de notre prise de décision que nous sommes prêts à déléguer à des robots algorithmiques. Par exemple, on estime que 85 % de toutes les transactions boursières se font automatiquement avec des algorithmes, sans intervention humaine. C’est pratique et lucratif pour les commerçants, les banques d’investissement et les fonds spéculatifs. Ce n’est pas sans risques, non plus. Déléguer à ce point peut exacerber les krachs boursiers avec des conséquences concrètes sur la vie et le patrimoine des individus. Cela pose la question de la responsabilité et de l’explicabilité des algorithmes utilisés pour le trading automatique.

On s’est habitué à déléguer nombre de nos décisions du quotidien,  mais pas toujours avec un esprit critique, constate Olivier Penel. Songeons seulement aux informations que nous obtenons à travers les moteurs de recherche, aux itinéraires recommandés par les assistants de navigation,  le fonctionnement des feux de circulation, mais aussi des avions et des centrales nucléaires…

« Nous semblons avoir une foi aveugle dans la capacité des algorithmes à prendre les bonnes décisions. Et d’une certaine manière, les algorithmes sont bien meilleurs que les humains dans certains domaines, comme le traitement de grandes quantités de données pour identifier des modèles et faire des prédictions. Toutefois, ils manquent de bon sens, de culture et de contexte. Ils apprennent simplement des données que nous leur fournissons. Cela peut conduire les systèmes d’IA à faire des prédictions ou des décisions techniquement correctes, mais socialement inacceptables. »

L’IA, cette chambre d’écho

Quant à la troisième force, l’amplification, elle fait référence à tout ce que les applications d’IA peuvent réaliser et au nombre de décisions qu’elles peuvent prendre en un clin d’œil. Nous savons que les algorithmes font parfois de mauvaises prédictions ; ces mauvaises prédictions conduisent à prendre de mauvaises décisions, avec des impacts tangibles dans le monde réel.

« C’est une chose pour un individu de prendre une décision inadéquate ou injuste. Mais les algorithmes prennent des décisions à grande échelle et en temps réel, nuance Olivier Penel. Ainsi, les conséquences des mauvaises décisions s’aggravent très rapidement. La portée des systèmes d’IA est des millions de fois plus grande. En effet, l’IA agit comme un amplificateur ou une chambre d’écho. Par conséquent, les biais qui existent dans nos cerveaux, conscients ou inconscients, et les discriminations qui existent dans le monde réel, sont amplifiés par les applications d’IA. »

L’IA responsable, une affaire de confiance

La question de la responsabilité n’est pas nouvelle, mais elle se fait plus urgente, plus prégnante aussi. Plus une entreprise confie de prise de décisions à l’IA, plus elle prête flanc à des risques de répercussion sur son image de marque, sur sa conformité réglementaire, par exemple autour de la protection des données personnelles, et plus généralement à la confiance que les clients, employés, et partenaires place en elle,. Selon une étude d’Accenture, 88 % des personnes ne font pas confiance aux décisions prises par un système d’IA.

Deloitte va dans le même sens : 95 % des dirigeants interrogés se disent préoccupés par les risques éthiques liés à l’adoption de l’IA, au point que 56 % d’entre eux ralentissaient leur adoption de l’IA. Pourtant, l’IA est la clé pour accélérer la transformation numérique et  acquérir un avantage concurrentiel. C’est tout le paradoxe. Souvent, dans cette course, les considérations éthiques viennent après coup ; elles sont considérées comme un problème réglementaire.

« Il est temps de trouver un équilibre entre ces deux mondes qui ne s’opposent qu’en apparence. D’un côté, nous avons l’éthique et le bien commun ; de l’autre, schématise Olivier Penel, l’innovation et les profits. L’IA responsable est une question de confiance ; elle est en train de devenir un impératif commercial, un facteur clé de succès pour la transformation numérique. »