Artificial Intelligence
Artificial Intelligence, Deep Learning, Machine Learning
Shadow AI, en plein dedans !
En Belgique, seules 5 % des entreprises ont intégré l’IA dans leurs processus. Le risque de shadow AI est bien réel. Plus que jamais, la gouvernance IT joue un rôle crucial
77 % des organisations en Belgique utilisent déjà des outils d’IA… mais seules 5 % les ont intégrés dans leurs processus d’entreprise ! Sans surprise, ChatGPT est l’outil de genAI le plus utilisé (44 %), suivi par Microsoft Copilot (27,6 %).
Ce manque d’intégration est accroît le risque de shadow AI, rappelle Insight, qui, via iVoxx, a interrogé 150 entreprises belges afin de s’enquérir de leurs avancées en matière d’IA et de cybersécurité. De fait, utiliser un LLM grand public dans le cadre d’une activité professionnelle expose l’entreprise à la diffusion de données confidentielles.
Prenons le cas d’un marketeur en mal d’imagination pour lancer sa prochaine campagne publicitaire. Pour l’aider dans sa recherche créative, il sollicite ChatGPT et, pour que les réponses de l’IA soient plus pertinentes, il livre au modèle quelques informations sur le produit (nom, caractéristiques.), sur le marché, ou encore sur la cible… En se retrouvant dans le vivier de datas du modèle, toutes ces informations deviennent potentiellement accessibles à toute personne faisant des requêtes sur ce type d’informations. Inconsciemment, le collaborateur a donc diffusé des données confidentielles.
Inutile d’interdire…
Cela peut paraître évident. Pourtant, d’autres études l’ont montré, la majorité des employés ne connaissent pas le fonctionnement d’un LLM. Plusieurs actualités récentes de fuites de données -récemment encore dans l’industrie pharmaceutique- en sont le parfait exemple et montrent que les entreprises de tous secteurs peuvent être touchées.
Interdire l’utilisation ou l’accès aux modèles de LLM revient à encourage le shadow AI ! Adopter une attitude d’interdiction est une erreur à bien des égards : non seulement elle véhicule l’image d’une entreprise vieillotte, mais elle freine aussi l’innovation et réduit la productivité des équipes.
Les entreprises ont donc tout intérêt à offrir une alternative en autorisant l’accès à des IA sélectionnées, en mettant en place des outils de sécurité spécifiques aux IA génératives et des mesures de contrôle permettant de superviser leur utilisation.
Une affaire de gouvernance
Enfin, et c’est un élément essentiel de la politique de sécurité de l’entreprise, une sensibilisation de tous les collaborateurs aux risques et une formation sur les bonnes pratiques doivent être menées régulièrement.
Adopter et maîtriser les LLM, n’est plus une option, mais une stratégie qui inscrit les organisations dans le sens de l’histoire.
Plus que jamais, la gouvernance IT joue un rôle crucial dans la gestion du shadow AI. Les services IT doivent non seulement surveiller l’utilisation des outils de genAI par les employés, mais aussi garantir que les données traitées restent sécurisées et conformes aux réglementations. Cela implique souvent de revoir les bases de données existantes et de s’assurer que les données fournies aux systèmes d’IA ne contiennent pas d’informations confidentielles ou personnelles.