Ethique, responsabilité… Les questions de l’AI
L’intelligence artificielle soulève des questions liées à l’éthique et la responsabilité. Pistes de réflexion au DiSummit 2019.
«L’éthique ? Le sens de la responsabilité ? intelligence artificielle c’est Black Mirror, la série créée par la BBC et diffusée par Netflix. Elle fait peur, terriblement peur», lance tout de go Tuba Bircan, Research Explorer, VUB. Au cours de sa présentation, lors du DiSummit 2019, qui s’est tenu le mardi 25 juin au Solbosch (ULB), une date s’affiche : 18 mars 2018. Ce jour là, Elaine Herzberg a perdu la vie. Cette jeune femme est le premier cas enregistré de décès d’un piéton impliquant une voiture autonome qui fonctionnait en mode auto-conduite.
Pour sa cinquième édition, le DiSummit avait pour thème «Being Human in the Age of AI». L’événement s’est déroulé autour de 7 tracks avec 40 intervenants, 12 master classes et 12 ateliers pratiques. Pour Lorelien Hoet, Government Affairs Director EU, Microsoft, «l’intelligence artificielle ne tiendra ses promesses que si les enjeux d’équité, d’interprétabilité, d’explicabilité, mais aussi d’éthique et de responsabilité sont considérés au même niveau que la recherche d’efficacité. S’il est encore difficile de savoir comment concevoir une régulation efficace sans brider l’innovation, nul doute que la maîtrise des risques passe en partie par l’éducation, la formation et la diffusion d’une ‘culture des données et des algorithmes’».
Cette ‘culture’ nous amène à une question primordiale en data science : celle de l’éthique et de la responsabilité des data scientists, estime Maryse Colson, Communication Manager, Eura Nova. «Peut-on, déontologiquement, demander à un algorithme de révéler la date de mort d’un patient, même si c’est pour lui offrir les soins les plus adaptés ? A quel point, illustre-t-elle encore, le médecin peut-il s’appuyer sur la technologie, numérique ou non, pour prendre une décision ? La technologie n’est envisagée que comme un soutien à la décision, un exosquelette qui doit obligatoirement profiter au patient…»
Les systèmes ne sont pas exempts de préjugés
Peut-on avoir confiance dans l’homme ou faut-il faire confiance à la machine, interroge pour sa part David Bruyneel, Responsible AI Belux, Accenture. Les systèmes ont beau disposer d’une logique «froide», ils ne sont pas exempts de préjugés… «Le deep learning, technique parmi d’autres en intelligence artificielle, est à la fois celle qui occasionne le plus d’applications spectaculaires et qui présente un inconvénient majeur : on ne sait pas en expliquer les résultats. Ce sont des réseaux de neurones qui fonctionnent comme des boîtes noires !»
Qui dit boites noires, dit biais. Il en fut beaucoup question au cours du DiSummit 2019. Pour Stephen, Brobst, CTO, Teradata, «les algorithmes sont biaisés, tous ! Ils le sont parce qu’ils ont été conçus par des êtres humains.» Bonne nouvelle : il devient possible de déceler et d’expliquer les biais des décisions algorithmiques en temps réel et pour toutes les organisations, assure IBM. «Les biais sont inhérents à l’IA dans la mesure où elle est programmée par des hommes et des femmes. Notre système permet de détecter le biais au moment même où il apparaît, explique Ann-Elise Delbecq, Data Science Sales Leader, Europe, IBM. Par exemple, lorsqu’il suggère une décision sur les bases des jeux de données qu’il a à disposition, par exemple refuser une police d’assurance à une personne de 22 ans, il va aussi informer l’assureur que cette police a été approuvée à 91% pour les clients entre 31 ans et 55 ans, mais seulement à 52% pour les 18-24 ans. Cette information devient enfin visible, en temps réel, ce qui permet au client de la prendre en compte.»
Intelligence augmentée
On avance. Des recherches récentes en apprentissage automatique ont mis au point des mesures intéressantes de l’équité algorithmique -les différentes manières dont un algorithme prédictif peut être juste dans ses résultats.. L’objectif est d’utiliser ces définitions d’équité pour responsabiliser les algorithmes prédictifs. Mais jusqu’où ?
La question renvoie au message de Tuba Bircan sur la première victime de la «route du futur», Elaine Herzberg… Si personne ne tient le volant lors d’un accident, qui sera tenu pour responsable ? Le constructeur ? Le prestataire informatique qui aura fourni le logiciel ? Les deux ? Par ailleurs, si l’IA choisit de renverser un piéton qui traverse pour éviter un accident mortel aux occupants de la voiture, qui sera comptable de cette décision ? «Ce n’est pas la voiture autonome qui choisira, mais des agents humains qui auront déterminé certains algorithmes et critères d’après lesquels elle déterminera son comportement en faveur d’une orientation ou d’une autre. Mais qui dispose de la légitimité pour déterminer ces critères ? Quels seraient-ils et comment les justifier ?», s’interroge encore la chercheuse de la VUB.
Les questions restent ouvertes. En préconisant l’intelligence augmentée, Katya Vladislavleva, CEO, DataStories.com, propose de repenser notre approche. Pour elle, l’intelligence artificielle imite l’intelligence humaine de façon plus rapide et à différentes échelles. Elle est pensée pour aider les humains à prendre de meilleures décisions, mais elle n’a rien de magique et n’a pas réponse à tout. L’intelligence augmentée, en revanche, permet de réaliser des simulations incluant plus de facteurs, et de révéler une gamme de possibilités plus vaste. «L’intelligence augmentée ne remplace pas l’intelligence humaine, elle la complète. Elle nous offre la capacité de modifier notre vision du monde et les décisions que nous prenons. Pour nous, la prise de décision finale reviendra toujours aux êtres humains !»
Reportage photo : Frédéric Moreau de Bellaing
Cet article parle de "Artificial Intelligence"
Artificial Intelligence, Deep Learning, Machine Learning