GlobalSign Blog

Mésinformation et IA : inquiétudes et méthodes de prévention

Mésinformation et IA : inquiétudes et méthodes de prévention

L’avènement des systèmes d’intelligence artificielle (IA) générative basés sur de grands modèles de langage (LLM, Large Language Model) a suscité en 2023 bien des inquiétudes à travers le monde, inquiétudes qui resurgissent régulièrement. En 2024, l’IA devrait continuer à évoluer, se perfectionner et devenir plus accessible ; ce n’est qu’une question de temps.

L’idée que des outils open source puissent générer rapidement des textes, des images, des vidéos et des enregistrements audio convaincants et d’une précision proche de celle des humains est apparue, à un moment donné, comme la panacée. Mais chez les experts, la montée en puissance de l’IA sur le marché soulève de vives inquiétudes quant à son authenticité et sa validité. L’augmentation de la cybercriminalité liée à l’IA et l’automatisation est un autre point préoccupant.

L’un des problèmes les plus souvent passés sous silence est cependant la tendance de l’IA à inventer. Pour les organisations qui cherchent à se démarquer dans un monde numérique à la fois très concurrentiel et exigeant, les conséquences peuvent être lourdes. Mais ce n’est pas tout. Le déploiement à grande échelle de solutions d’IA peut se répercuter sur les politiques et les infrastructures internes des entreprises, suscitant des préoccupations internes et externes. 

L’IA a tendance à falsifier les informations

ChatGPT et d’autres outils universellement reconnus comme Bard, Bing Chat, Claude, Perplexity et bien d’autres, ont régulièrement des hallucinations. On parle d’hallucination lorsque ces outils génèrent des contenus qui ne se fondent pas sur des preuves tangibles, mais plutôt sur des conjectures. Ces outils cherchent à répondre le mieux possible et le plus rapidement possible aux requêtes des utilisateurs, sans prendre en compte le contexte et sans se soucier d’exactitude factuelle. 

Reste cependant un problème de fond. L’utilisation répétée de textes générés par l’IA, qui est vouée à s’intensifier dans les mois et les années à venir, risque de propager la mésinformation, la désinformation et les « fake news ». Or, les créateurs des modèles linguistiques modernes sont souvent accusés de se défausser en attribuant les erreurs et les contenus diffamatoires aux hallucinations de l’IA plutôt que d’assumer la responsabilité des résultats.

La prolifération de ce type de contenu à une telle échelle souligne la nécessité d’une supervision et d’un contrôle humains accrus sur tout contenu généré par une IA.

Si les avantages et les promesses de l’IA peuvent faire rêver, l’absence de garde-fous adéquats, d’intégration raisonnée et de mise en œuvre à la fois réfléchie et menée par l’homme pourrait entraîner des problèmes bien plus graves à l’échelle mondiale. Sans supervision, les applications et les outils dopés à l’IA, ainsi que les discours mal informés pourraient causer plus de tort que de bien. Les dirigeants doivent par conséquent prendre des mesures de prévention claires avant que la situation ne devienne incontrôlable.

Mesurer le potentiel de nuisance de l’IA

Les entreprises peuvent sans aucun doute exploiter l’IA à leur avantage dans le but d’améliorer leur productivité et leur efficacité en décuplant les capacités de leurs équipes. Mais ne nous arrêtons pas aux économies de coûts et à l’augmentation du nombre de tâches accomplies. Étudions aussi méthodiquement les contenus générés par l’IA. 

Droit d’auteur et protection de la vie privée

Les outils d’intelligence artificielle peuvent en effet reproduire des images prises avec un appareil photo. Mieux vaut cependant vérifier l’absence de violation du droit d’auteur ou de la vie privée, ou d’éventuels biais susceptibles d’être exploités pour perpétuer des opinions nocives. 

La génération d’images par l’IA sans supervision peut entraîner des sanctions légales ou réglementaires s’il s’avère que le contenu porte atteinte à l’œuvre d’un créateur original. Pour éviter ce genre de problème sans débourser une fortune, les professionnels du marketing et de la narration visuelle peuvent utiliser du matériel photo de qualité d’occasion pour prendre des photos originales. La plupart des entreprises peuvent néanmoins continuer à utiliser les générateurs d’images basés sur IA à condition d’en mesurer pleinement les risques. Le droit d’auteur n’est pas le seul point de vigilance. Les deepfakes et la propagande générée par informatique continuent, en effet, de susciter la controverse. Les entreprises doivent donc faire preuve de prudence lors de l’utilisation de ces outils. 

Plus généralement, en intégrant l’IA à de multiples niveaux, les organisations s’exposent au risque de voir leurs équipes baisser la garde et laisser passer un plus grand nombre d’arnaques « discrètes » hameçonnage ou phishing à travers les mailles du filet. Les données non vérifiées et anormales peuvent alors se déplacer latéralement dans l’infrastructure d’une organisation, entraînant toute une série de problèmes de cybersécurité.

Perpétuer de fausses informations 

Les générateurs de texte peuvent également diffuser de fausses informations convaincantes à première vue en raison de la manière dont elles sont rédigées. Contrairement au cerveau humain, les outils d’IA ne possèdent pas les informations contextuelles nécessaires pour déterminer si un texte s’appuie bel et bien sur des faits. Les modèles d’IA sont entraînés à partir de données qu’ils ont agrégées et d’instructions qui leur sont données. Il leur manque cependant l’intuition nécessaire pour déterminer si le texte est préjudiciable ou partial, ou ignore/ne tient pas compte/omet certains faits, données ou preuves.

Ainsi, lorsque les utilisateurs demandent aux outils d’IA de générer des textes comme un « humain » – textes qui renforcent des stéréotypes, des opinions datées ou des préjugés, qu’ils soient conscients ou inconscients – on court le risque de voir ces contenus exposés au public. Or, ce risque est d’autant plus préoccupant qu’on déplore actuellement un manque de réglementation indépendante, même si des mesures devraient voir le jour
dans quelque temps.

Toutefois, en faisant preuve de prévoyance et de vigilance, les entreprises responsables peuvent surmonter ces obstacles efficacement. Les pratiques et méthodes de prévention suivantes visent à favoriser une utilisation des technologies d’IA profitable, et à promouvoir son intégration éthique au sein de votre infrastructure existante.

Comment intégrer et mettre en œuvre éthiquement l’IA pour empêcher la diffusion de fausses informations ?

Aujourd’hui, identifier et isoler les « fake news » constitue un défi de taille dans l’écosystème numérique. À l’échelle de l’entreprise, c’est aux dirigeants et responsables marketing de s’assurer qu’aucun de leurs contenus originaux, qu’il s’agisse de textes, de visuels ou de vidéos, ne véhicule de stéréotypes injustes et ne propage d’idéaux dangereux ou mal étayés.

Lorsque l’on envisage d’intégrer un outil basé sur l’IA dans ses configurations et systèmes existants, il est essentiel de ne pas se laisser aveugler par les seules promesses d’économies de coûts et de gains de temps. Aussi, avant de vous lancer dans l’optimisation de vos opérations en faisant appel à l’IA et à l’automatisation, établissez ces trois règles d’or.

1. Encourager la véracité et l’exactitude des données

Qu’importe si les contenus sont générés en totalité ou en partie par l’IA : les créateurs et leurs utilisateurs doivent se montrer vigilants et aborder avec un sens des responsabilités les questions de véracité et d’authenticité des contenus.

Avant publication d’un texte, les faits doivent être vérifiés par l’entreprise afin d’identifier toute anomalie ou tout argument discutable. Supervisez et gérez les contenus avant, pendant et après leur publication, en précisant le contexte des sources, et prévoyez une décharge de responsabilité pour tout média synthétique afin de pouvoir rendre compte de vos choix. Catégorisez clairement les contenus générés par l’IA pour éviter de semer dans l’esprit de vos utilisateurs la confusion ou les graines d’une insensibilisation.

La diffusion de contenus d’IA fondés sur de mauvaises informations peut, sur le long terme, poser des risques pour la cybersécurité, en particulier si les outils d’IA agrègent des données sans filtre de sensibilité. Pour cette raison, les entreprises doivent exercer une surveillance et une gestion régulières des outils d’IA pour s’assurer qu’aucune donnée privée ne soit divulguée par erreur au public. 

À terme, plus les outils iront en se perfectionnant, plus il sera difficile de repérer les informations inventées, falsifiées ou exagérées produites par l’intelligence artificielle. Les entreprises doivent par conséquent prendre des mesures strictes afin de vérifier l’éventuelle présence de mensonges ou de contre-vérités dans leur narratif. Elles doivent le faire bien avant que ces contenus générés par l’IA arrivent au public et alimentent la propagation de fausses informations, même non intentionnellement. Encourager une culture transparente permettant de mener des actions de cyberprévention méthodiques, plutôt qu’une approche principalement réactive, est l’une des clés qui permettront de garantir l’intégrité des données et la cybersécurité.

Pour éviter toute ambiguïté, les organisations doivent faire preuve de transparence et indiquer si elles utilisent des modèles et systèmes d’IA générative. Il leur appartient, au fil du temps, de contrôler et de perfectionner en interne tout système intégrant de l’IA pour s’assurer du respect des normes de qualité et du degré de précision et d’exactitude attendus.

2. Respecter la vie privée et le consentement

De nombreux dirigeants alertent sur les problèmes sérieux que pose l’IA pour les droits de la personne et les profonds bouleversements qu’elle pourrait entraîner sur la vie de millions de personnes. Même si en l’état actuel des choses et compte tenu des limites des IA, ces problèmes ne paraissent pas toujours évidents, les entreprises qui souhaiteront exploiter cette technologie révolutionnaire devront mettre l’humain au cœur de leur stratégie. Afin de garder une longueur d’avance sur les cyberattaquants, les entreprises peuvent opter pour une approche de la sécurité multicouche. En mettant ainsi en place des alertes en temps réel, une surveillance constante des menaces et des solutions permettant d’identifier les données anormales, elles s’assurent d’être informées en amont de toute activité suspecte. 

La protection des droits et des libertés des salariés, des parties prenantes et des consommateurs doit rester une priorité de chaque instant. Les organisations veilleront donc à recueillir le consentement de l’ensemble des parties concernées avant de produire des images ou des vidéos comportant des personnes identifiables, à anonymiser les données et protéger les identités dans la mesure du possible. Les entreprises, en particulier celles opérant dans des secteurs très réglementés comme la finance et la santé, sont soumises à des lois et réglementations strictes en matière de confidentialité. Elles doivent donc aborder l’intégration de l’IA avec une extrême prudence. 

GlobalSign aide les entreprises de tous secteurs à obtenir les certificats de conformité réglementaire nécessaires. Ses solutions de certificats numériques PKI entièrement gérées et évolutives simplifient la tâche des entreprises en maintenant leur conformité réglementaire — même si l’automatisation s’applique à certains domaines de l’organisation. Retrouvez plus d’informations sur nos certifications numériques.

3. Soutenir et représenter la diversité 

Les systèmes d’IA intègrent des biais inconscients, comme l’atteste aujourd’hui un nombre croissant de preuves. Au fur et à mesure que de nouveaux outils et solutions voient le jour, les entreprises doivent surveiller et contrer consciemment ces biais pour empêcher qu’ils ne se matérialisent.

Lorsqu’ils sollicitent l’avis et les retours de leurs équipes sur l’intégration et les tests menés sur l’IA, les managers doivent sonder des points de vue divers et évaluer soigneusement chaque contenu afin d’éviter les biais injustes et dénués de tact. 

Les entreprises auront tout intérêt à mener une réflexion approfondie sur les conséquences d’une diffusion d’informations erronées sur des groupes marginalisés afin d’éviter de se retrouver associées à de tels propos. L’inclusivité doit continuer à s’appliquer tant au contenu destiné au public qu’aux communications internes.

Cette année, et dans les années à venir, intégrer l’IA de façon responsable restera un vrai défi pour les entreprises. Mais, guidées par des principes éthiques et inclusifs, elles peuvent néanmoins maximiser leur potentiel, tout en évitant les écueils liés à la mésinformation et la prolifération de contre-vérités. 

Avec précaution, diligence et compassion, les organisations peuvent innover tout en faisant passer les intérêts humains devant les objectifs d’économies financières.

Cybersécurité : les 5 atouts de l’IA  


Remarque : cet article de blog a été rédigé par un contributeur invité dans le but d'offrir une plus grande variété de contenu à nos lecteurs. Les opinions exprimées dans cet article sont uniquement celles du contributeur et ne reflètent pas nécessairement celles de GlobalSign.

Share this Post

Blogs récents