Artificial Intelligence

Artificial Intelligence, Deep Learning, Machine Learning

IA : il est temps de cataloguer les cas d’usage

Avr 5, 2024 | L'opinion de l'Expert | 0 commentaires

Gartner recommande aux organisations de mettre en place un programme de gouvernance de l’IA pour cataloguer les cas d’usage et traiter dĂšs que possible les instances interdites. Conseils de Nader Henein, Vice-prĂ©sident Analyst, Gartner.

Les organisations devraient Ă©valuer quatre classes de dĂ©ploiement d’IA dans le cadre de la prĂ©paration de la loi europĂ©enne sur l’intelligence artificielle, estime Nader Henein, VP Analyst, Gartner. Or, avec l’approbation par le Parlement europĂ©en de la loi de l’Union europĂ©enne sur l’intelligence artificielle, l’AI Act, « la plupart des entreprises ne sont pas prĂȘtes Ă  se conformer Ă  ces rĂ©glementations radicales en matiĂšre d’IA. » Et il y a danger.

De nombreuses organisations pensent que parce qu’elles ne crĂ©ent pas d’outils et de services d’IA en interne, ils sont gratuits et clairs. C’est une erreur ! « Ce qu’elles ne rĂ©alisent pas, c’est que presque toutes sont exposĂ©es Ă  l’AI Act. Non seulement, les organisations sont responsables des capacitĂ©s d’IA qu’elles dĂ©veloppent, mais Ă©galement de celles qu’elles ont dĂ©jĂ  acheté ! »

Gartner recommande aux organisations de mettre en place un programme de gouvernance de l’IA pour cataloguer et catĂ©goriser les cas d’utilisation de l’IA et traiter dĂšs que possible les instances interdites.

DĂ©couvrir et cataloguer

Les rĂšgles concernant les systĂšmes d’IA interdits entreront en vigueur six mois aprĂšs l’entrĂ©e en vigueur de l’AI Act. Celles-ci entraĂźneront des amendes pouvant aller jusqu’à 7 % du chiffre d’affaires mondial. Dix-huit mois plus tard, la majoritĂ© des rĂšgles associĂ©es aux systĂšmes d’IA Ă  haut risque entreront en vigueur. Celles-ci s’appliqueront Ă  de nombreux cas d’utilisation en entreprise nĂ©cessitant un peu de diligence raisonnable et encore plus de documentation dĂ©crite dans ce guide et les guides ultĂ©rieurs.

« La premiĂšre Ă©tape, et la plus critique, consiste Ă  dĂ©couvrir et Ă  cataloguer les fonctionnalitĂ©s basĂ©es sur l’IA avec suffisamment de dĂ©tails pour l’Ă©valuation des risques ultĂ©rieure », conseille Nader Henein.

De nombreuses organisations disposent de centaines de fonctionnalitĂ©s basĂ©es sur l’IA dĂ©jĂ  dĂ©ployĂ©es, dont certaines sont spĂ©cialement conçues, mais la majoritĂ© sont invisibles car intĂ©grĂ©es sur de nombreuses plates-formes utilisĂ©es au quotidien.

Quatre niveaux de risques

Cataloguer oblige les organisations, les fournisseurs et les dĂ©veloppeurs Ă  entreprendre la dĂ©couverte et la liste de chaque systĂšme basĂ© sur l’IA dĂ©ployĂ© dans l’entreprise. Cela facilitera la catĂ©gorisation ultĂ©rieure dans l’un des quatre niveaux de risque dĂ©crits dans la loi : systĂšmes d’IA Ă  faible risque, systĂšmes d’IA Ă  haut risque, systĂšmes d’IA interdits et systĂšmes d’IA Ă  usage gĂ©nĂ©ral.

« Pratiquement, il est prĂ©fĂ©rable de travailler systĂ©matiquement sur chacune des quatre classes de dĂ©ploiement de l’IA, note Nader Henein. Cette approche est la plus rationnelle. En effet, si l’objectif Ă  court terme est l’identification des risques, le but ultime est l’attĂ©nuation des risques et chacune de ces classes a ses propres exigences en matiĂšre d’attĂ©nuation des risques. »

S’y retrouver


On a encore beaucoup d’IA Ă  l’Ă©tat sauvage, constate Gartner. GĂ©nĂ©ratifs ou autres, ces outils disponibles dans le domaine public sont utilisĂ©s par les employĂ©s Ă  des fins professionnelles de maniĂšre formelle et informelle. ChatGPT ou Bing sont les plus connus. « Cataloguer nĂ©cessite une formation des employĂ©s et une sĂ©rie d’enquĂȘtes pour compiler rapidement la liste des systĂšmes utilisĂ©s. En parallĂšle, l’équipe IT peut ĂȘtre en mesure d’identifier des outils d’IA supplĂ©mentaires utilisĂ©s en examinant les analyses du trafic Web de l’organisation »

DeuxiĂšme classe, les IA intĂ©grĂ©es. Il s’agit de capacitĂ©s d’IA intĂ©grĂ©es aux solutions standard et offres SaaS utilisĂ©es au sein de l’entreprise. Les fournisseurs de services complĂštent leurs offres avec des capacitĂ©s d’IA depuis la majeure partie de la derniĂšre dĂ©cennie, dont beaucoup sont complĂštement invisibles pour l’organisation, comme les modĂšles d’apprentissage automatique qui alimentent les moteurs de dĂ©tection de spam ou de logiciels malveillants. « Pour cataloguer, les organisations vont devoir Ă©tendre leur programme de gestion des risques liĂ©s aux tiers et demander des informations dĂ©taillĂ©es Ă  leurs fournisseurs, car les capacitĂ©s d’IA intĂ©grĂ©es peuvent ne pas ĂȘtre Ă©videntes. »

IA internes, IA hybrides

TroisiĂšme, classe, les IA en interne. On parle ici de capacitĂ©s d’IA formĂ©es, testĂ©es et dĂ©veloppĂ©es en interne, oĂč l’organisation a une visibilitĂ© totale sur les donnĂ©es, les technologies et les ajustements ultĂ©rieurs apportĂ©s aux modĂšles, ainsi que sur l’objectif pour lequel ils sont utilisĂ©s. C’est un autre niveau, observe Nader Henein. « Les organisations crĂ©ant et gĂ©rant leurs propres modĂšles d’IA disposeraient de data scientists et d’un programme de gouvernance pour organiser les donnĂ©es concernĂ©es. Le processus de dĂ©couverte serait donc transparent. Et les donnĂ©es nĂ©cessaires Ă  la catĂ©gorisation ultĂ©rieure facilement disponibles. »

Enfin, l’IA hybride. Soit des capacitĂ©s d’IA d’entreprise construites en interne Ă  l’aide d’un ou plusieurs modĂšles fondamentaux prĂȘts Ă  l’emploi, gĂ©nĂ©ratifs ou non, complĂ©tĂ©s par des donnĂ©es d’entreprise. « Comme il s’agit d’une combinaison de modĂšles externes prĂ©-entraĂźnĂ©s avec des donnĂ©es internes, il en rĂ©sulte une combinaison des questions de gestion des fournisseurs de l’IA intĂ©grĂ©e et de la recherche de mĂ©tadonnĂ©es internes de l’IA en interne pour collecter les informations appropriĂ©es nĂ©cessaires Ă  la catĂ©gorisation. » Autant le savoir.