Lancé en novembre 2022 par OpenAI, ChatGPT a considérablement évolué en quelques mois d’utilisation. Avec ses 175 milliards de paramètres, ce modèle auto-attentif (basé sur un transformeur) est capable de converser comme un être humain. Conférenciers, universitaires, écrivains et créateurs de contenu des quatre coins du monde l’utilisent pour écrire des poèmes et des essais, obtenir des suggestions de lectures et rédiger des contenus optimisés pour les moteurs de recherche. Mais au-delà de ses capacités, ChatGPT présente aussi des risques en matière de cybersécurité.
Top 5 des risques de ChatGPT pour la cybersécurité et (comment les contrer sans danger)
Les cybercriminels sont toujours à l’affût de moyens pour piéger leurs proies ou mettre la main sur des données sensibles. Ils peuvent ainsi utiliser ChatGPT pour créer des contenus dans le but de tromper leurs victimes ou de les voler. En effet, même si le sujet est encore peu documenté, cet outil d’intelligence artificielle générative présente des failles et des risques. Pour connaître les risques que ChatGPT d’OpenAI fait peser sur le monde numérique, lisez la suite. Nous faisons le point sur les cinq risques cyber que cette application fait courir.
1. Prolifération de code malveillant
Ce robot conversationnel dopé à l’IA présente un potentiel de nuisance élevé dû à sa capacité d’écrire du code. Un cybercriminel technophile peut ainsi l’utiliser pour écrire les programmes qu’il utilisera pour nuire. Il pourra ainsi développer des outils cyber de bas niveau, infectés par des scripts de chiffrement et de logiciels malveillants. En incitant leurs cibles à cliquer sur des liens les redirigeant vers des applications ou des programmes abritant des scripts malveillants, les criminels peuvent accéder à leurs données bancaires et personnelles.
L’écriture d’un script par un chatbot d’IA sollicite peu l’humain — d’où l’accélération des tentatives de piratage. Dépourvu de systèmes permettant de signaler l’écriture de code malveillant, l’outil pourrait en effet être utilisé pour des actes de cyberpiratage.
2. Augmentation de phishing en vue
Dans l’arsenal des cybercriminels, l’hameçonnage est l’une des techniques qui font le plus de dégâts dans le monde. Chaque jour, des hackers envoient près de 3,4 milliards de spams. Les bots anti-phishing de Google ne bloquent, quant à eux, que 100 millions d’e-mails d’hameçonnage par 24 heures. Ces chiffres soulignent la vulnérabilité des utilisateurs Gmail au quotidien. Grâce à ChatGTP et sa capacité à rédiger des courriels impeccables et très persuasifs, les pirates en profitent pour multiplier leurs tentatives d’hameçonnage.
Même si ChatGPT s’appuie sur une technologie intelligente et ne cautionne pas la création de contenu malveillant, les pirates peuvent modifier leurs invites de chat (ou « prompts ») afin de manipuler l’IA. Les pirates peuvent alors utiliser ce chatbot dopé à l’IA pour créer des e-mails uniques et accrocheurs, qui témoignent d’une maîtrise de la grammaire et des ressorts émotionnels proches d’un être humain. La capacité de l’application à rédiger un flot d’e-mails en quelques secondes accroît la force de frappe des cybercriminels. Résultat : ils peuvent cibler plus de victimes et faire plus de dégâts, sans trop d’efforts.
3. Des apparences trompeuses grâce à la traduction intégrée
ChatGPT impressionne par sa prise en charge de 20 langues. Sa capacité à rédiger des textes pour un public mondial aide les utilisateurs à localiser leurs sites web et partir à la conquête de marchés internationaux. [Cependant, ces traductions automatiques devront impérativement être révisées par un traducteur humain pour éviter les erreurs qui pourraient coûter cher aux entreprises, sur le plan financier et pour son image de marque]. Mais si l’application impressionne, elle peut également contribuer à faire de nombreuses victimes innocentes.
Des pirates russes ont récemment essayé de contourner les mesures mises en place dans ChatGPT pour éviter l’exploitation du robot conversationnel à des fins néfastes. Ils y sont cependant parvenus, prouvant ainsi les limites de la sécurité de l’application, si celle-ci est exploitée par des pirates qui maîtrisent leur sujet. En fin de compte, ces tentatives ont mis en lumière le fait que les restrictions géographiques de l’application pouvaient être contournées. Rien n’empêcherait donc des pirates de transformer cette application en plateforme pour cybercriminels.
4. Explosion des atteintes à la sécurité des données
ChatGPT s’appuie sur un modèle de langage complexe et sur d’énormes sources de données de tiers. Il est capable d’identifier des modèles, et de traiter et analyser des informations pour générer des données lisibles. Mais ChatGPT ne tire pas ses informations de source sûre, pas plus qu’il ne génère des données sûres. Qui plus est, l’application ne demande pas la permission d’utiliser et de réutiliser les données — étonnant, non ?
Les données générées sont facilement accessibles en ligne et peuvent, si elles sont utilisées de manière abusive, constituer une violation d’intégrité. En d’autres termes, les données utilisées par cette application de génération de contenu d’intelligence artificielle peuvent enfreindre des accords de confidentialité.
5. Hallucinations et résultats biaisés en première ligne
ChatGPT est souvent utilisé pour générer du contenu rapidement et facilement. Pour les propriétaires de sites web et les blogueurs, le robot conversationnel offre un bon moyen d’optimiser leurs contenus pour le référencement. Quant aux étudiants, ils peuvent y trouver des réponses pour préparer leurs examens. Problème avec cet outil de génération de contenu piloté par l’IA : les données utilisées pour entraîner ChatGPT peuvent contenir des biais et des inexactitudes. Un pirate pourrait ainsi utiliser ce modèle de langage pour lancer des campagnes de désinformation ou de propagande, manipuler l’opinion publique, ou encore mener des attaques de phishing, en imitant des sources légitimes.
En conclusion
Le monde évolue rapidement. Hier encore, on découvrait comment partager sa connexion Internet pour arrondir ses fins de mois. Aujourd’hui, c’est ChatGPT qui accapare toute l’attention. Mais en étant informé des risques de sécurité possibles associés à ChatGPT, vous saurez comment réduire ces risques, et prendre les mesures adéquates.
Il sera intéressant d’observer ce qu’OpenAI mettra en place pour limiter ces risques de sécurité. Mais en attendant, la meilleure des choses à faire est de créer des mots de passe plus forts et de les conserver en sécurité. N’oubliez pas de mettre en place l’authentification multifactorielle (MFA) pour ajouter une couche de sécurité supplémentaire à vos comptes et protéger vos données des hackers. Enfin, choisissez les bons outils pour analyser vos réseaux et identifier efficacement les menaces.
Découvrir les solutions de MFA
Remarque : cet article de blog a été rédigé par un contributeur invité dans le but d’offrir une plus grande variété de contenu à nos lecteurs. Les opinions exprimées dans cet article sont uniquement celles du contributeur et ne reflètent pas nécessairement celles de GlobalSign. Découvrir les solutions de MFA