ChatGPT, un nouveau défi pour la police

L'essor rapide et impressionnant des intelligences artificielles contraint les services de sécurité à se spécialiser dans l'IA et à élaborer des contre-mesures face à ses usages malintentionnés.

© Stéphane Peeters

ChatGPT est un modèle de langage alimenté par l'intelligence artificielle. Il a été entraîné sur une grande quantité de données provenant d'Internet. A la suite d’une requête textuelle, il peut répondre aux questions qui lui sont posées, converser sur une variété de sujets et générer des écrits créatifs. Il est programmé pour suivre une instruction dans un message et fournir une réponse détaillée. Il utilise des calculs complexes pour prédire le texte le plus probable qui devrait suivre le message de l'utilisateur.

Il peut également être utilisé pour différentes tâches telles que la recherche d'informations, la traduction de langues, l'assistance personnalisée, l'analyse de données et la programmation. C'est un outil polyvalent, extrêmement puissant qui peut aider à communiquer plus efficacement. Mais cette richesse de fonctionnalités facilement accessibles a été rapidement identifiée par les criminels qui n’ont pas tardé à l’utiliser.



Les nouvelles menaces

EUROPOL a récemment publié un rapport qui met en lumière les dangers potentiels liés à l'utilisation abusive de ChatGPT.

La fraude et l'ingénierie sociale

ChatGPT peut être utilisé pour rédiger des courriels ou des messages très convaincants dans le but d'escroquer ou de manipuler. Le modèle peut reproduire le style de langage de personnes ou de sociétés, ce qui permet de se faire passer pour elles. Cette capacité peut être exploitée à très grande échelle.

Avec ChatGPT, les criminels sont en mesure de rédiger des mails extrêmement réalistes, sans aucune faute d'orthographe et avec de nouveaux sujets d’arnaques. Ils peuvent en plus demander à l’intelligence artificielle de mettre en place des mécanismes pouvant déclencher un sentiment d’urgence, et donc susciter chez le destinataire une réaction instinctive et irréfléchie.

La désinformation

La capacité de ChatGPT à générer un contenu textuel réaliste à une échelle et à une vitesse stupéfiantes est une épée à double tranchant. Elle peut être détournée pour des campagnes de désinformation et de propagande, alimentant la diffusion de fausses nouvelles, de théories de conspiration, de discours haineux ou de campagnes de diffamation.

La cybercriminalité

Non seulement ChatGPT est capable de simuler le langage humain, mais il peut également produire du code dans divers langages de programmation. Avec une connaissance technique minimale, ChatGPT peut être utilisé pour générer des virus, des logiciels espions, des ransomwares ou des botnets, posant une menace significative pour la cybersécurité.

Ces exemples ne sont pas exhaustifs, et il est probable que d'autres formes d'abus ou d'exploitation de ChatGPT émergent dans le futur. Selon Europol, les cas d'abus sont déjà nombreux et préoccupants.



Les intelligences artificielles, un défi pour les services de sécurité 

Face à ces innovations technologiques, les forces de l'ordre doivent se doter de moyens adaptés pour détecter, prévenir et réprimer ces activités.

Formation

Il est crucial que les forces de l'ordre soient formées à l’usage des IA, leur fonctionnement, leurs capacités, mais aussi leurs limites. Cela inclut la compréhension des diverses formes d'Intelligences artificielles, et les usages frauduleux qui en sont faits.

Collaboration avec les experts en IA

Les forces de l'ordre devraient travailler en étroite collaboration avec des experts en IA. Ceci permettrait une meilleure compréhension des menaces potentielles et une réponse plus efficace.

Sensibilisation du public

Il est important de sensibiliser le public aux dangers potentiels de l'IA et de la cybercriminalité, et de leur enseigner comment se protéger efficacement.

Utilisation des IA au profit de la sécurité

Les forces de l'ordre pourraient utiliser les IA à leur avantage en développant ou en utilisant des technologies basées sur l'IA pour la détection des menaces, l'analyse des données, la prédiction des crimes, etc.

De par sa capacité à traiter de grands volumes de données, une IA telle que ChatGPT pourrait être utilisée pour analyser les activités criminelles enregistrées et ainsi donner des indications sur la probabilité que de nouveaux crimes surviennent dans des zones identifiées.

L'IA pourrait également optimiser la veille des réseaux sociaux et des forums en ligne pour repérer des indices d'activités ou de plans délictueux, ce qui permettrait aux forces de l'ordre de réagir plus efficacement.

ChatGPT pourrait probablement intervenir dans les investigations criminelles en traitant toutes les données disponibles et en établissant des connexions entre des informations apparemment sans lien.

 

En synthèse

La Commission européenne travaille activement sur une législation plus contraignante pour rendre l’utilisation des IA plus sûre. OpenAI, la société qui a développé ChatGPT, met de son côté tout en œuvre pour bloquer les requêtes pouvant déboucher sur des activités criminelles.

Pour résumer, il est essentiel d'adopter une approche multifacette pour faire face à la menace croissante que représentent les intelligences artificielles dans le domaine de la criminalité. ​​Compte tenu des risques, il est nécessaire de sensibiliser le public et les autorités sur les enjeux liés aux intelligences artificielles et d’y investir des ressources pour maîtriser ce nouveau domaine d’expertise. Il est également indispensable d'ouvrir un dialogue avec les entreprises d'IA pour les inciter à intégrer davantage de garanties éthiques et sécuritaires dans leurs systèmes, et de promouvoir le développement d'une IA sûre et responsable.



Stéphane PEETERS

Consultant Senior en Marketing Digital et Intelligence Artificielle, IMPACT 360

Sources :

https://www.consilium.europa.eu/fr/press/press-releases/2022/12/06/artificial-intelligence-act-council-calls-for-promoting-safe-ai-that-respects-fundamental-rights/

https://www.europol.europa.eu/cms/sites/default/files/documents/Tech%20Watch%20Flash%20-%20The%20Impact%20of%20Large%20Language%20Models%20on%20Law%20Enforcement.pdf

®https://www.secunews.be/fr

Étiquettes