Comment la technologie permet-elle aux cybercriminels d’agir ? Et comment les organisations peuvent-elles utiliser l’IA pour les arrêter à temps ? L’IA est une arme à double tranchant. Une réflexion de Patrick Commers, Cybersecurity Evangelist, Fortinet Belgium.
Les avantages de l’IA sont légion, mais cette technologie soulève également de nombreux questionnements. Elle rend les attaques plus efficaces, nécessitant moins de compétences. C’est donc une arme à double tranchant. De fait, l’IA dote les cybercriminels aguerris d’un outil supplémentaire pour mener des attaques plus rapides, plus efficaces et plus destructives. En parallèle, la technologie facilite considérablement le travail des cybercriminels débutants. Ils peuvent créer des logiciels malveillants sans disposer de compétences en programmation, car les outils d’IA à grand modèle de langage (LLM) se chargent de cette tâche à leur place.
« Comme nous l’avions prédit, les cybercriminels utilisent de plus en plus l’IA pour soutenir un grand nombre d’activités malveillantes, qu’il s’agisse de déjouer les algorithmes qui détectent des activités anormales sur le réseau ou d’imiter le comportement humain, commente Patrick Commers. Nous constatons également une augmentation des spécialisations dans le domaine de la cybercriminalité et des services de cybercriminalité par l’IA. Selon le rapport 2024 de prédictions sur les menaces, plusieurs groupes de hackers s’attèleront uniquement à collecter des données sur une cible pour ensuite les vendre, plutôt que de se concentrer sur l’ensemble de la chaîne d’attaque. Nous nous attendons également à ce que les cybercriminels utilisent l’apprentissage automatique pour recruter des tiers potentiels ou des ‘mules’, en les identifiant plus rapidement… »
Former, une nécessité
Selon les données provenant des évaluations de phishing menées par la CISA ( Cybersecurity and Infrastructure Security Agency ), 80 % des organisations interrogées ont vu au moins un de leurs collaborateurs être victime d’une tentative de phishing simulée. Toutefois, une étude récente indique également que quatre organisations sur cinq ont constaté que la formation à la cybersécurité réduisait la vulnérabilité de leur personnel aux attaques de phishing. Bien que le résultat ne soit pas immédiat, il peut être rapide : une formation régulière ramène le risque de 60 % à 10 % au cours des 12 premiers mois !
Cependant, l’IA – et en particulier la GenAI – augmente la puissance et la crédibilité des attaques de phishing. L’époque où l’on recevait des SMS ou des courriels d’un prince étranger promettant un million si l’on versait d’abord quelques milliers d’euros est révolue. La GenAI et les LLM mettent fin aux messages amateurs, voire comiques, truffés de fautes de grammaire et d’orthographe…
L’ingénierie sociale a, elle aussi ,le vent en poupe. Le facteur humain est toujours à la base de la majorité des incidents, il est même à l’origine de 74 % du nombre total de violations de données. La GenAI améliore la crédibilité et la précision des courriels, tandis que l’utilisateur, plus isolé depuis l’avènement du télétravail partiel né du COVID, devient une victime plus facile à atteindre. En parvenant à accéder à ses contacts et au contenu de tous ses courriels, les cybercriminels sont en mesure de rédiger des messages qui reprennent exactement le langage et les sujets habituels de la personne. Ne voyant plus le danger, le destinataire est dès lors plus enclin à répondre à la demande du hacker.
Deepfakes criminels
La plupart des organisations forment leurs collaborateurs à détecter les BEC ( Business Email Compromis ). Ces messages leur demandent de contourner les processus normaux et, par exemple, d’effectuer des transactions financières à des tiers. Les collaborateurs contactent ensuite la personne en question par téléphone ou par visioconférence afin de vérifier l’expéditeur et la demande. En apparence, cela semble très sûr.
N’empêche : les cybercriminels utilisent de plus en plus de deepfakes, une forme d’IA permettant de modifier la voix et l’apparence physique d’une personne. La validation d’un ordre financier réel n’en devient que plus complexe. « Les deepfakes sont souvent utilisés pour mener des attaques d’ingénierie sociale, constate Patrick Commers. Les cybercriminels compromettent ainsi la confiance dans la technologie numérique et menacent la société. »
A double tranchant
Heureusement, l’IA, arme à double tranchant, est fort utile dans la lutte contre la cybercriminalité. Aujourd’hui, face à un paysage des menaces d’une grande complexité, les équipes informatiques ont une charge de travail telle qu’elles n’identifient parfois les attaques que quelques jours après les faits.
« Une approche consolidée de la sécurité, des réseaux et des données est nécessaire, estime Patrick Commers. Grâce à l’automatisation basée sur l’IA, il est possible de soulager les équipes informatiques et de détecter les attaques beaucoup plus rapidement. L’IA permet de traiter de grandes quantités de données à très grande vitesse et de filtrer les informations cruciales qui s’y trouvent. En automatisant le travail manuel et les actions répétitives dans la détection des menaces, la probabilité d’erreurs diminue et les équipes sont à même de réagir plus vite. »L’IA peut apporter une contribution majeure à la cybersécurité. En déployant de plus en plus cette technologie, les entreprises sont en mesure de développer des stratégies intelligentes d’automatisation et de sécurité. Le résultat ? Une uniformisation des règles du jeu, même face à des adversaires dotés d’IA et aux menaces sophistiquées qu’ils représentent. « L’intelligence artificielle stimule l’innovation sur tous les fronts technologiques, c’est aux organisations de décider d’en tirer parti ou non », conclut Patrick Commers.