Data Intelligence
Analysis, BI, Prediction, Planning, Boardroom
Pas d’AI sans ethics by design !
Le succès de l’intelligence artificielle tint à l’éthique. Gianni Cooreman, Country Lead Solutions chez Salesforce Belux, prône l’ethics by design.
° La crise sanitaire continue d’accélérer la transformation numérique des entreprises. Dans celle-ci, vous incluez le recours à des technologies pilotées par AI. Pourquoi ?
Les technologies pilotées par AI confèrent aux entreprises résilience et avantage concurrentiel. Elles peuvent améliorer l’expérience client en résolvant plus rapidement et plus efficacement d’éventuels problèmes. L’AI et, plus généralement, l’informatisation, facilitent le télétravail. Elles donnent la possibilité aux employés d’assumer des rôles davantage stratégiques, comme l’exige l’économie numérique.
° Demain, dans un monde post-coronavirus, où entreprises et employés peuvent réussir où qu’ils soient, sommes-nous réellement prêts à cette mutation ?
Oui, mais sous condition. L’augmentation sensible de la demande de technologies AI implique que les entreprises respectent des normes plus strictes. Il est impératif de garantir le développement de technologies dûment fondées. Au contraire, si l’on fait l’impasse sur une totale compréhension des implications, les coûts de création, de commercialisation et d’implémentation de la technologie seront beaucoup trop importants pour être négligés…
Favoriser l’ethics by design
° Comment faire ?
Pour concevoir et appliquer l’AI en toute confiance, nous devons nous tourner vers des démarches inclusives. Nous devons aussi viser des intentions éthiques. Il nous faut prendre des mesures visant à expliquer en toute transparence l’impact et les motivations d’actions et de recommandations. A l’heure où une technologie éthique et justifiée devient une obligation organisationnelle, les entreprises peuvent gagner notre confiance. Il s’agit de miser sur la légitimation, la transparence et l’équité.
° A l’échelle d’une entreprise, cette éthique en AI n’implique-t-elle pas de susciter et de préserver, du côté des employés, une culture de la pensée critique ? Nos organisations y sont-elles préparées ?
Il n’est pas réaliste d’exiger d’un seul groupe de personnes qu’il assume la responsabilité d’identifier les risques éthiques lors de la phase de développement. Une approche éthique des projets AI exige plutôt une multitude de perspectives diverses. C’est affaire de cultures, d’ethnicités, de genres et de domaines d’expertises variés.
° C’est vaste…
Vaste, oui. Et nécessaire. Au final, chaque employé doit faire sien un sentiment de responsabilité vis-à-vis des autres au sein de l’entreprise. Responsabilité, aussi, vis-à-vis de la clientèle. Cultiver une mentalité d’’ethics by design’ exige une implication systématique. Tous les collaborateurs se voient octroyer le rôle de consultants produit. Les équipes data science identifient et s’emparent des questions éthiques ayant trait à leurs projets.
Comprendre la nature et l’ampleur des préjugés
° Qui dit implication, dit prise de conscience. Est-elle au rendez-vous ?
A nous de la susciter ! Bien que l’AI puisse très certainement avoir un impact positif sur le monde des entreprises et sur la collectivité, nous devons précisément prendre conscience du côté problématique que peuvent revêtir ces technologies, notamment en termes de renforcement des préjugés. C’est une chose que de créer de l’AI en laboratoire. C’en est une autre de prévoir de manière précise la manière dont elle opèrera dans le monde réel !
La prise de responsabilité doit être une priorité absolue tout au long du cycle de vie d’un produit. Les équipes doivent également appréhender parfaitement la nature et l’intensité des biais et préjugés dans les jeux de données qu’elles utilisent ainsi que ceux des modèles qui sont entraînés sur ces jeux de données.
Les utilisateurs de l’AI, propriétaires et responsables des données
° N’est-ce pas là, finalement, une autre façon de développer ?
Oui dans le sens où il est essentiel que des équipes d’AI éthique favorisent les questionnements sur la manière dont elles peuvent rendre les modèles davantage explicables, transparents et vérifiables. Le fait de pouvoir élaborer des méthodes et des pratiques soigneusement définies et validées par des tiers, en support à la prise de décision, constitue une garantie de transparence pour toutes les parties concernées.
° Dans ce cas, quel est le rôle des utilisateurs… pour autant qu’ils en aient un ?
Si les développeurs procurent des plates-formes AI, ce sont les utilisateurs de l’AI qui sont en fait les propriétaires et les responsables de leurs données. Et même si les développeurs peuvent procurer des formations et des outils afin de contribuer à identifier les biais et de limiter les préjudices, les algorithmes ont la capacité de renforcer des stéréotypes dommageables s’ils ne sont, par exemple, pas suffisamment entraînés ou s’ils ne sont pas contrôlés. Il est dès lors important que les entreprises procurent les bons outils aux clients et aux utilisateurs afin qu’ils puissent utiliser les technologies de manière sûre et responsable, et qu’ils sachent comment reconnaître et résoudre les problèmes. Moyennant une formation et un accompagnement adéquats, les clients pourront mieux comprendre les conséquences de l’exploitation qu’ils font des données.
La transparence comme condition d’application des bonnes pratiques
° Partant que les données existent, tout tient à la façon de les collecter ?
Exactement ! Ce faisant, il devient possible d’éviter les effets inattendus d’algorithmes, que ce soit en environnement de labo ou dans le cadre des futurs scénarios du monde réel. En procurant le plus de transparence possible sur la manière dont le modèle AI a été créé, l’utilisateur final se fait une meilleure idée des précautions qui ont été prises. Objectif : limiter les biais au maximum !
La chose est notamment possible en publiant les cartes de modèles, avec une description de la finalité visée, des utilisateurs destinataires, des chiffres de performances et toute autre considération éthique. Cela contribuera à susciter la confiance, non seulement auprès de clients existants et potentiels, mais également auprès des législateurs et de la société dans son ensemble.
° Finalement, pour pouvoir faire confiance à l’AI, le public ne doit-il pas comprendre pourquoi celle-ci formule certaines recommandations ou prédictions ?
Oui, tout en sachant que les utilisateurs AI abordent ces technologies avec différents degrés de connaissance et d’expertise. Des scientifiques des données ou des statisticiens voudront par exemple découvrir tous les paramètres qui sont utilisés dans un modèle. Par contre, des prestataires n’ayant pas de bagage particulier en sciences des données ou en statistiques seront sans doute noyés sous une telle masse de détails. Pour susciter la confiance et éviter de jeter le trouble, les équipes doivent comprendre comment elles peuvent aborder ces thèmes et ces explications, de manière judicieuse, avec les différents utilisateurs.