Selon le Workforce Lab de Slack, 20 % des employés sont des utilisateurs secrets de l’IA. Ils explorent les avantages de l’IA sans partager ouvertement cette information avec leurs pairs….
IA, 20 % d’utilisateurs secrets, c’est beaucoup. La peur des réactions des managers semble être une raison majeure. Les collaborateurs ne connaissent souvent pas la position de leurs supérieurs vis-à-vis de l’utilisation de l’IA et préfèrent donc éviter toute confrontation potentielle…
Les utilisateurs secrets choisissent le silence, sauf si interrogés directement. C’est d’autant plus étonnant que le nombre de dirigeants souhaitant mettre en œuvre l’IA « dans les 18 prochains mois » a grimpé de 700 % depuis septembre 2023. En revanche, paradoxalement, plus des deux tiers des employés de bureau n’ont pas encore officiellement mis les pieds dans le bassin de l’IA au travail.
Ce comportement témoigne d’un climat d’incertitude quant aux normes et aux attentes liées à l’IA, explique le Workforce Lab de Slack. Dans certains cas, il résulte également d’une politique d’entreprise peu encourageante envers cet outil novateur, voire de son interdiction lorsque des données sensibles sont en jeu.
Qui dit utilisateurs secrets dit danger !
Ce manque de direction claire a donné naissance à ce que les experts appellent le shadow AI – l’utilisation non autorisée d’outils d’IA sur le lieu de travail. Tout comme son prédécesseur, le shadow IT, cette tendance se caractérise par l’utilisation par les employés d’outils d’IA non autorisés pour accroître leur productivité et rationaliser leurs flux de travail.
Or, une utilisation incontrôlée de l’IA peut présenter de graves risques. La sécurité des données devient une préoccupation lorsque les employés saisissent des données d’entreprise dans des outils d’IA publics, exposant ainsi potentiellement des informations sensibles. De même, des problèmes de conformité peuvent survenir si les outils d’IA n’ont pas été vérifiés en fonction des exigences spécifiques du secteur. Il existe également un risque de résultats incohérents entre les différents outils d’IA, ce qui pourrait nuire à l’uniformité des produits, des services ou de l’expérience client.
Combler le fossé : l’approche PET
Pour relever ces défis et exploiter l’esprit d’innovation des employés, le rapport suggère que les organisations adoptent une approche proactive. Et de proposer la stratégie PET (Permission, Education, Formation).
Tout d’abord, les entreprises doivent établir des directives claires sur l’utilisation de l’IA. L’enquête montre que les employés des entreprises dotées de politiques d’IA sont six fois plus susceptibles d’expérimenter des outils d’IA. Cette phase « Permission » pose les bases d’une utilisation sûre et productive de l’IA.
Vient ensuite l’« Education ». Étant donné que seulement 15 % des employés conviennent fortement qu’ils ont la formation nécessaire en IA, il est clair qu’il est nécessaire de mettre en place des programmes d’apprentissage complets. Cette formation doit couvrir non seulement la manière d’utiliser efficacement les outils d’IA, mais également les risques potentiels et les considérations éthiques.
Enfin, la « Formation » est cruciale. Les employés ayant suivi une formation en IA sont jusqu’à 19 fois plus susceptibles de signaler des améliorations de productivité. Cette expérience pratique renforce la confiance et la compétence dans l’utilisation responsable des outils d’IA.
L’évolution du paysage de l’IA sur le lieu de travail
L’IA transforme déjà le lieu de travail, mais souvent en coulisses, analyse le Workforce Lab de Slack. Il est temps que les dirigeants prennent les choses en main, établissent des lignes directrices claires et donnent à leurs équipes les moyens d’exploiter tout le potentiel des outils d’IA de manière sûre et éthique.
N’oublions pas que l’objectif n’est pas seulement d’effectuer plus rapidement les tâches administratives. Il s’agit de libérer du temps pour l’innovation, la créativité et ces compétences humaines uniques qu’aucune IA ne peut encore reproduire. En reconnaissant l’innovation des employés, en mettant en œuvre des politiques claires, en proposant des formations et en favorisant une communication ouverte, les entreprises peuvent transformer le défi de l’IA fantôme en un avantage concurrentiel.