Artificial Intelligence
Artificial Intelligence, Deep Learning, Machine Learning
Sans éthique, l’AI n’est qu’un mirage !
Ethique, transparence et confiance, les trois piliers d’une AI fiable. Il s’agit d’un changement culturel. Pistes de réflexion avec Max Swerdlow (*).
° Ethique ? Vous avez dit éthique ? Observez l’état des technologies et vous aurez ainsi une bonne idée des progrès accomplis par une collectivité ! Comment, d’une manière générale, utilisons-nous ces technologies pour améliorer notre qualité de vie et notre vécu ?
Max Swerdlow : Bien, parfois mal. En négligeant l’éthique, notamment. La réponse se situe souvent dans la manière dont nous avons plus ou moins bien mis en oeuvre les progrès technologiques. La façon, aussi, dont nous les avons démocratisés pour le bien-être de tous.
Nous sommes à la veille de la cinquième révolution industrielle. Là où la quatrième avait été placée sous le signe de l’Internet, la suivante sera largement définie par l’essor et la progression de l’intelligence artificielle. L’AI a accompli d’énormes avancées. Elle nous aide à effectuer des tâches plus rapidement et de manière plus efficace. Bien que le potentiel d’impact positif pouvant encore être exploité est énorme, nous prenons surtout conscience aujourd’hui des défis supplémentaires qu’elle implique. Songez, par exemple, aux préjugés et biais ancrés dans notre inconscient. Ceux-ci ont refait surface lors d’épisodes récents. un logiciel de reconnaissance vocale qui présentait des biais à l’égard de voix de femmes et des outils utilisés pour prédire des délits qui renforçaient le caractère discriminant d’opérations de police.
La confiance se mérite
° Que se passe-t-il si une AI identifie erronément une personne dans une enquête judiciaire, en raison d’un manque de précision dans la technologie de reconnaissance faciale ? Que se passe-t-il quand quelqu’un perd son emploi parce qu’un système de recrutement pense que cette personne a un faible QE ? Ou encore lorsque la reconnaissance de la voix d’un système de service à la clientèle d’une banque ne peut déchiffrer l’accent d’un interlocuteur ?
Des progrès en matière d’AI qui n’ont cure de l’éthique ne sont rien d’autre qu’une fata morgana -un pas en avant, deux pas en arrière. Pour faire de l’AI un partenaire fiable -après tout, on automatise énormément d’analyses et de décisions- nous devons nous pencher sur l’inclusivité et les intentions éthiques. Cela signifie que nous devons concevoir l’AI de telle sorte que l’impact et les motivations des actions et des recommandations demeurent transparents. La confiance est quelque chose qui se mérite. Nous devons en faire une priorité. Et cela ne sera possible qu’en développant des solutions en privilégiant responsabilisation, transparence et équité.
° C’est la question de l’éthique qui est posée. Peut-on imaginer une forme d’ethic-by-design ?
Il n’est pas possible, dans le cadre d’une entreprise, de demander à un seul groupe de salariés d’endosser la responsabilité d’identifier les risques éthiques lors du processus de développement. Au contraire, l’éthic-by-design exige une multitude de perspectives variées venant de cultures, d’origines ethniques, de genres et, également, de domaines d’expertise différents.
Identifier les risques d’un oeil plus critique
° Concrètement, comment faire ?
Pour commencer, prévoir un cadre afin d’analyser les conséquences potentielles. L’idée : simuler les résultats indésirables d’une nouvelle fonction pour vérifier comment les ‘dommages de biais’ peuvent être limités. Non seulement cela présente des avantages pour le produit final, mais cela encourage les équipes à réfléchir de manière créative à leur produit alors que celui-ci est encore en phase de développement. Qui en subira les conséquences ou quels autres problèmes potentiels se produisent-ils avec telle ou telle fonction ? Comment quelqu’un pourrait-il utiliser ce produit ou ce service, quelqu’un animé de mauvaises intentions, ou qui l’utiliserait par mégarde ou simplement d’une tout autre manière que celle prévue par son concepteur ?
Le fait de créer un tel environnement qui bénéficie de l’apport d’un plus large public peut aider les entreprises à éliminer les angles morts qui peuvent être source de biais. En proposant des programmes de formation qui aident les salariés à placer l’éthique au coeur de leurs flux de tâches, on peut également leur permettre d’identifier des risques potentiels d’un oeil plus critique.
La clé, partager l’information
° C’est une chose de développer une AI dans un environnement de labo clos, c’en est une autre de prédire avec précision la manière dont cette même AI opèrera dans le monde réel. Bref, comment appliquer de bonnes pratiques ?
La clé réside dans la transparence. Le fait de partager activement l’information avec les bons groupes-cibles s’avère souvent crucial pour le balisage des perspectives. Qu’il s’agisse d’analyser la qualité des données ou d’évaluer dans quelle mesure les équipes éliminent les biais dans les données d’entraînement, collaborer avec des experts externes -venus du monde académique, industriel et politique- aura toujours pour effet d’améliorer les résultats. En obtenant des réactions sur la manière dont les équipes collectent les données, il est possible d’éviter les conséquences indésirables induites par un algorithme, tant au stade du développement en laboratoire que dans le contexte de scénarios futurs dans la vie réelle.
° Plus de transparence pour plus de confiance ?
Effectivement. En procurant le plus de transparence possible sur la manière dont est construit un modèle AI, l’utilisateur final se sentira plus à l’aise lors des vérifications visant à minimiser les biais. C’est possible via la publication de cartes modèle. Cela s’apparente aux étiquettes alimentaires qui aident à diriger le choix des les consommateurs. Ce principe s’avèrera utile pour bâtir la confiance, non seulement auprès de clients existants et potentiels, mais aussi auprès des législateurs et de la collectivité au sens large.
Contrôler et corriger les algorithmes
° Allons plus loin… Confiance = dialogue. Peut-on vraiment l’instaurer ? Voire renouer ?
Pour que l’on fasse réellement confiance à l’AI, tous les groupes-cible pertinents doivent, au final, comprendre pourquoi l’AI formule certaines recommandations ou prédictions. Qui plus est, les utilisateurs de l’AI abordent chacun ces technologies avec des niveaux de connaissances et un degré d’expertise différents. Les data scientists ou les statisticiens désirent par exemple prendre connaissance de tous les critères qui sont utilisés dans un modèle. Un commercial, sans expérience en science des données, peut se retrouver submergé par tous ces détails. Pour susciter la confiance et éviter un effet de confusion, les équipes doivent comprendre comment, de manière pertinente, porter ces thèmes à la connaissance des différents utilisateurs.
° Alors que les développeurs proposent des plates-formes AI, ce sont en fait les utilisateurs qui sont propriétaires des données. Ce sont eux les responsables de leurs données. Comment, à ce niveau, agir ?
C’est là, encore, un sujet important. Même si les développeurs AI peuvent former leurs clients et les aide à identifier les biais et à limiter les préjudices, un risque n’en subsiste pas moins. En effet, si les algorithmes ne sont pas suffisamment corrigés et contrôlés, ils risquent de perpétuer des stéréotypes dommageables.
Ethique et transparence
° Que faire alors ?
Il est important que les entreprises procurent les outils adéquats aux clients et aux utilisateurs. Ceux-ci doivent pouvoir utiliser la technologie de manière sécurisée et responsable. Ils doivent savoir parfaitement comment identifier et résoudre des problèmes…
Dans de nombreux cas, l’utilisation d’informations ayant trait à l’âge, à la race ou au genre est encadrée par des restrictions légales. En marquant les données qui sont fortement corrélées à ces champs -ce qu’on appelle des ‘variables proxy’-, des produits peuvent attirer l’attention de l’administrateur sur des champs de données potentiellement pertinents ou biaisés. Ce qui suppose un accompagnement et une formation.
° Bref, chacun tirera profit de la définition de valeurs ?
L’émergence de l’éthique ne va pas de soi. Il s’agit d’un changement culturel, de processus mouvants. Il s’agit d’accentuer l’implication des collaborateurs, des clients et des diverses parties prenantes. Si, collectivement, nous sommes en mesure de prendre appui sur ces trois piliers essentiels, nous pouvons être sûrs que l’AI sera conçue et implémentée avec davantage de transparence et de prise de responsabilité.
(*) Max Swerdlow, Country Leader, Salesforce Belux