Artificial Intelligence
Artificial Intelligence, Deep Learning, Machine Learning
IA : il est temps de cataloguer les cas dâusage

Gartner recommande aux organisations de mettre en place un programme de gouvernance de l’IA pour cataloguer les cas d’usage et traiter dĂšs que possible les instances interdites. Conseils de Nader Henein, Vice-prĂ©sident Analyst, Gartner.
Les organisations devraient Ă©valuer quatre classes de dĂ©ploiement dâIA dans le cadre de la prĂ©paration de la loi europĂ©enne sur lâintelligence artificielle, estime Nader Henein, VP Analyst, Gartner. Or, avec lâapprobation par le Parlement europĂ©en de la loi de lâUnion europĂ©enne sur lâintelligence artificielle, lâAI Act, « la plupart des entreprises ne sont pas prĂȘtes Ă se conformer Ă ces rĂ©glementations radicales en matiĂšre dâIA. » Et il y a danger.
De nombreuses organisations pensent que parce quâelles ne crĂ©ent pas dâoutils et de services dâIA en interne, ils sont gratuits et clairs. Câest une erreur ! « Ce quâelles ne rĂ©alisent pas, câest que presque toutes sont exposĂ©es Ă lâAI Act. Non seulement, les organisations sont responsables des capacitĂ©s dâIA quâelles dĂ©veloppent, mais Ă©galement de celles quâelles ont dĂ©jĂ achetĂ©Â ! »
Gartner recommande aux organisations de mettre en place un programme de gouvernance de l’IA pour cataloguer et catĂ©goriser les cas d’utilisation de l’IA et traiter dĂšs que possible les instances interdites.
DĂ©couvrir et cataloguer
Les rĂšgles concernant les systĂšmes d’IA interdits entreront en vigueur six mois aprĂšs l’entrĂ©e en vigueur de lâAI Act. Celles-ci entraĂźneront des amendes pouvant aller jusquâĂ 7 % du chiffre d’affaires mondial. Dix-huit mois plus tard, la majoritĂ© des rĂšgles associĂ©es aux systĂšmes dâIA Ă haut risque entreront en vigueur. Celles-ci s’appliqueront Ă de nombreux cas d’utilisation en entreprise nĂ©cessitant un peu de diligence raisonnable et encore plus de documentation dĂ©crite dans ce guide et les guides ultĂ©rieurs.
« La premiĂšre Ă©tape, et la plus critique, consiste Ă dĂ©couvrir et Ă cataloguer les fonctionnalitĂ©s basĂ©es sur l’IA avec suffisamment de dĂ©tails pour l’Ă©valuation des risques ultĂ©rieure », conseille Nader Henein.
De nombreuses organisations disposent de centaines de fonctionnalitĂ©s basĂ©es sur l’IA dĂ©jĂ dĂ©ployĂ©es, dont certaines sont spĂ©cialement conçues, mais la majoritĂ© sont invisibles car intĂ©grĂ©es sur de nombreuses plates-formes utilisĂ©es au quotidien.
Quatre niveaux de risques
Cataloguer oblige les organisations, les fournisseurs et les dĂ©veloppeurs Ă entreprendre la dĂ©couverte et la liste de chaque systĂšme basĂ© sur l’IA dĂ©ployĂ© dans l’entreprise. Cela facilitera la catĂ©gorisation ultĂ©rieure dans l’un des quatre niveaux de risque dĂ©crits dans la loi : systĂšmes d’IA Ă faible risque, systĂšmes d’IA Ă haut risque, systĂšmes d’IA interdits et systĂšmes d’IA Ă usage gĂ©nĂ©ral.
« Pratiquement, il est prĂ©fĂ©rable de travailler systĂ©matiquement sur chacune des quatre classes de dĂ©ploiement de l’IA, note Nader Henein. Cette approche est la plus rationnelle. En effet, si l’objectif Ă court terme est l’identification des risques, le but ultime est l’attĂ©nuation des risques et chacune de ces classes a ses propres exigences en matiĂšre d’attĂ©nuation des risques. »
Sây retrouverâŠ
On a encore beaucoup dâIA Ă l’Ă©tat sauvage, constate Gartner. GĂ©nĂ©ratifs ou autres, ces outils disponibles dans le domaine public sont utilisĂ©s par les employĂ©s Ă des fins professionnelles de maniĂšre formelle et informelle. ChatGPT ou Bing sont les plus connus. « Cataloguer nĂ©cessite une formation des employĂ©s et une sĂ©rie d’enquĂȘtes pour compiler rapidement la liste des systĂšmes utilisĂ©s. En parallĂšle, lâĂ©quipe IT peut ĂȘtre en mesure dâidentifier des outils dâIA supplĂ©mentaires utilisĂ©s en examinant les analyses du trafic Web de lâorganisation »
DeuxiĂšme classe, les IA intĂ©grĂ©es. Il sâagit de capacitĂ©s d’IA intĂ©grĂ©es aux solutions standard et offres SaaS utilisĂ©es au sein de l’entreprise. Les fournisseurs de services complĂštent leurs offres avec des capacitĂ©s d’IA depuis la majeure partie de la derniĂšre dĂ©cennie, dont beaucoup sont complĂštement invisibles pour l’organisation, comme les modĂšles d’apprentissage automatique qui alimentent les moteurs de dĂ©tection de spam ou de logiciels malveillants. « Pour cataloguer, les organisations vont devoir Ă©tendre leur programme de gestion des risques liĂ©s aux tiers et demander des informations dĂ©taillĂ©es Ă leurs fournisseurs, car les capacitĂ©s d’IA intĂ©grĂ©es peuvent ne pas ĂȘtre Ă©videntes. »
IA internes, IA hybrides
TroisiĂšme, classe, les IA en interne. On parle ici de capacitĂ©s d’IA formĂ©es, testĂ©es et dĂ©veloppĂ©es en interne, oĂč l’organisation a une visibilitĂ© totale sur les donnĂ©es, les technologies et les ajustements ultĂ©rieurs apportĂ©s aux modĂšles, ainsi que sur l’objectif pour lequel ils sont utilisĂ©s. Câest un autre niveau, observe Nader Henein. « Les organisations crĂ©ant et gĂ©rant leurs propres modĂšles d’IA disposeraient de data scientists et d’un programme de gouvernance pour organiser les donnĂ©es concernĂ©es. Le processus de dĂ©couverte serait donc transparent. Et les donnĂ©es nĂ©cessaires Ă la catĂ©gorisation ultĂ©rieure facilement disponibles. »
Enfin, lâIA hybride. Soit des capacitĂ©s d’IA d’entreprise construites en interne Ă l’aide d’un ou plusieurs modĂšles fondamentaux prĂȘts Ă l’emploi, gĂ©nĂ©ratifs ou non, complĂ©tĂ©s par des donnĂ©es d’entreprise. « Comme il s’agit d’une combinaison de modĂšles externes prĂ©-entraĂźnĂ©s avec des donnĂ©es internes, il en rĂ©sulte une combinaison des questions de gestion des fournisseurs de l’IA intĂ©grĂ©e et de la recherche de mĂ©tadonnĂ©es internes de l’IA en interne pour collecter les informations appropriĂ©es nĂ©cessaires Ă la catĂ©gorisation. » Autant le savoir.