Artificial Intelligence
Artificial Intelligence, Deep Learning, Machine Learning
Sans confidentialité suffisante, pas d’essor de l’IA !
Plus d’une organisation sur quatre interdit l’utilisation de la GenAI en raison des risques liés à la confidentialité et à la sécurité des données. C’est aujourd’hui le premier frein à l’essor de l’IA.
48 % des entreprises admettent avoir saisi des informations non publiques sur leur organisation dans les outils de GenAI ! C’est pourquoi, sans nécessairement se déclarer, un grand nombre d’entreprises limitent son usage. Les questions de confidentialité et de sécurité des données sont au cœur du Cisco 2024 Data Privacy Benchmark.
91 % des entreprises reconnaissent qu’elles doivent faire davantage pour rassurer leurs clients sur le fait que leurs données sont utilisées à des fins prévues et légitimes. Ce qui passera nécessairement par des certifications externes. Il faut clairement renforcer la confidentialité, conclut Cisco, qui s’appuie sur les réponses de 2 600 professionnels de la confidentialité et de la sécurité dans 12 zones géographiques.
Problèmes croissants en matière de confidentialité avec la GenAI
Les organisations considèrent la GenAI comme une technologie fondamentalement différente avec de nouveaux défis à prendre en compte, estime Deborah « Dev « Stahlkopf, Executive Vice President and Chief Legal Office, Cisco. « Plus de neuf personnes sur dix interrogées pensent que la GenAI nécessite de nouvelles techniques pour gérer les données et les risques. C’est là qu’une gouvernance réfléchie entre en jeu. Il en va de la préservation de la confiance des clients ! »
Parmi les principales préoccupations, les entreprises citent les menaces qui pèsent sur les droits juridiques et de propriété intellectuelle d’une organisation (69 %), ainsi que le risque de divulgation d’informations au public ou à des concurrents (68 %).
La plupart des organisations sont conscientes de ces risques. Et, d’ailleurs, mettent en place des contrôles pour limiter l’exposition. Plus de six sur dix (63 %) ont établi des limites sur les données pouvant être saisies. 61 % ont des limites sur les outils de GenAI qui peuvent être utilisés par les employés. Symptomatique : 27 % des répondants déclarent que leur organisation interdit complètement les applications GenAI pour le moment !
Des progrès, oui, mais encore fort lents
Comparant les benchmarks d’une année sur l’autre, Cisco constate que le problème de fond lié à l’utilisation de l’IA impliquant les données des consommateurs, les positions n’ont pas changé. Comme précédemment, les organisations reconnaissent qu’elles doivent faire davantage pour rassurer leurs clients. Les pourcentages n’ont pas bougé Ils sont similaires. Ce qui suggère que peu de progrès ont été réalisés.
En y regardant de plus près, force est de constater que les priorités des organisations pour renforcer la confiance des consommateurs diffèrent de celles des individus. Les consommateurs ont identifié leurs principales priorités comme étant d’obtenir des informations claires sur la manière exacte dont leurs données sont utilisées, et de ne pas vendre leurs données à des fins de marketing. Lorsqu’on leur a posé la même question, les entreprises ont identifié leurs principales priorités comme étant de se conformer aux lois sur la protection de la vie privée (25 %) et d’éviter les violations de données (23 %). Le benchmark suggère qu’une attention accrue à la transparence serait utile, en particulier avec les applications d’IA où il peut être difficile de comprendre comment les algorithmes prennent leurs décisions.