Artificial Intelligence
Artificial Intelligence, Deep Learning, Machine Learning
Oui à l’AI, mais pas pour nous surveiller !
Selon Gartner, au moins 10 % des employés chercheront à tricher pour biaiser les intelligences artificielles déployées par leurs employeurs pour les surveiller.
Pas question de nous surveiller ! Gartner prédit que d’ici 2023, plus d’un travailleur sur dix cherchera à tromper les systèmes d’intelligence artificielle utilisés pour mesurer son comportement et sa productivité. Ces systèmes connaissent une augmentation significative de leur utilisation à la suite de la pandémie de COVID-19.
«De nombreuses entreprises sont en train de passer en permanence au travail à distance à temps plein ou à temps partiel. De là, un choc pour les cultures managériales habituées à s’appuyer sur l’observation directe du comportement des employés. Résultat, le travail à distance renforce le mandat de surveillance numérique de l’activité, dans certains cas via l’AI», observe Whit Andrews, Distinguished Research Vice President, Gartner.
Des contrôles de plus en plus sophistiqués
«Comme avec toutes les technologies visant à restreindre les utilisateurs, les collaborateurs découvriront rapidement les lacunes des stratégies de surveillance basées sur l’AI, estime Whit Andrews. Certains pourront même considérer la duperie des outils de surveillance comme un jeu…»
Faut-il s’en étonner ? Sans répondre à la question, Gartner constate les faits. Les organisations s’y prennent de la même manière qu’elles essaient de comprendre le marché à travers les consommateurs. Ces outils fournissent une journalisation des activités de base avec des alertes. Dans des versions plus sophistiquées, ils peuvent détecter des comportements inappropriés grâce à une analyse multivariée.
Echapper, submerger…
De nombreux employeurs utilisent des systèmes de surveillance de la productivité malgré un pourcentage élevé de travailleurs réticents. Même avant la pandémie, constate Gartner. De là, cette crainte légitime par rapport aux habitudes au travail. Et le célèbre cabinet d’aller plus loin. Au fur et à mesure que ces outils se répandent, dit-il, les organisations seront de plus en plus confrontées à des travailleurs qui cherchent à leur échapper et à les submerger.
Pensez éthique !
Les travailleurs peuvent rechercher des lacunes lorsque les mesures ne capturent pas l’activité, la responsabilité n’est pas claire ou l’AI peut être trompée en générant des données fausses ou déroutantes. De telles activités ont déjà été observées dans les organisations axées sur le numérique. Ainsi, les chauffeurs de covoiturage qui travaillent parfois pour deux services différents simultanément.
«Les responsables informatiques qui envisagent de déployer des outils de surveillance de la productivité basés sur l’intelligence artificielle devraient examiner de près les sources de données, la conception de l’expérience utilisateur et le cas d’utilisation initial prévu pour ces outils avant de s’angager, poursuit Whit Andrews. Déterminez si l’objectif et la portée de la collecte de données aident les employés à faire au mieux leur travail. Pour ceux qui décident d’investir, assurez-vous que la technologie est mise en œuvre de manière éthique…»