Panorama et perspectives pour les solutions de détection de contenus artificiels [1/2]

Rédigé par Alexis Léautier

 - 

27 octobre 2023


L’effervescence récente sur les systèmes d’intelligence artificielle générative s’est accompagnée du constat que ces outils pouvaient conduire à de nouveaux risques en termes de propriété intellectuelle, de protection des données, d’atteintes à la réputation, ou de tromperie de différents types. Dans cet article, nous analysons les différentes solutions proposées pour reconnaitre les contenus artificiels et envisageons des pistes pour l’avenir de ces techniques.

Sommaire :

- Panorama et perspectives pour les solutions de détection de contenus artificiels [1/2]

- Le tatouage numérique, une mesure de transparence salutaire ? [2/2]

Le tatouage numérique

L’ajout d’un filigrane, watermark, ou tatouage numérique est à première vue une technique bien connue lorsqu’elle fait référence à l’ajout d’une marque ou d’un texte sur un document, comme dans l’exemple de l’image qui illustre cet article. Pourtant cette solution peut en réalité faire référence à des techniques différentes en pratique selon l’objectif du tatouage et l’objet à tatouer. Il peut s’agir d’un simple calque surimposé sur une image comme dans l’illustration de cet article ou d’un tatouage imperceptible issu d'un traitement plus perfectionné. On pourra ainsi tatouer des documents, des bases de données, des modèles d’IA ou même les productions de ces modèles, dans l’objectif de pourvoir identifier leur provenance, mais aussi d’identifier que ces objets ont été utilisés par, ou proviennent d’une IA générative. Des initiatives provenant d’acteurs privés commencent d’ailleurs à voir le jour, comme le dispositif de tatouage et de détection de contenu artificiel SynthID de Google, ou encore le tatouage des productions de Bing par Microsoft. L’ensemble de ces techniques a fait l’objet d’un article dédié qui détaille leur fonctionnement, ainsi que leurs avantages et inconvénients.

Dans le cas de la détection de contenus artificiels, ces méthodes sont relativement efficaces pour les documents contenant une grande quantité d’information, comme les vidéos, les images ou les enregistrements sonores. En revanche, elles sont beaucoup moins robustes lorsqu’il s’agit de détecter du texte, en particulier si celui-ci est court.

Les méthodes de détection ex post

Le tatouage numérique est une solution permettant de détecter du texte généré artificiellement, mais il possède des limites techniques non négligeables et demande la coopération du concepteur de l’IA générative. Des alternatives existent néanmoins. En ce qui concerne la détection d’images et de vidéos artificielles, certaines techniques décrites notamment dans Verdoliva et al., 2020, semblent prometteuses. Parmi les techniques recensées, certaines reposent sur la détection de résidus issus de la manipulation ou de la génération d’une image, sur l’analyse de l’ensemble de l’image résultant à une classification similaire à celle rencontrée dans les réseaux antagonistes (GAN), ou encore sur l’analyse des traits du visage dans le cas des hypertrucages (deepfakes). Ces méthodes reposent autant sur des systèmes experts que sur des techniques d’intelligence artificielle par apprentissage. En ce qui concerne la détection de texte artificiel néanmoins, le constat est plus négatif.

Pegoraro et al., 2023 réalisent une étude des méthodes existantes permettant de détecter du texte artificiel, pour lequel aucune mesure n’aurait été prise lors de sa génération. L’étude évalue une vingtaine d’outils de détection parmi lesquels figurent les outils développés par l’entreprise OpenAI elle-même et par des tiers tel que l’outil ZeroGPT. L’étude aboutit à deux conclusions principales :

  • les méthodes existantes ne parviennent pas à détecter les contenus artificiels de manière robuste : le rappel (ou recall) mesuré approche 50% au maximum, ce qui signifie que les outils se trompent une fois sur deux sur du texte artificiel,
  • les méthodes évaluées ne sont pas généralisables à tous les LLM : puisqu’ils reposent sur un entraînement spécifique sur les sorties d’un LLM spécifique, ils ne parviennent pas à détecter les productions d’autres modèles de langages.

L’étude fait par ailleurs l’hypothèse qu’aucune modification n’a été apportée au texte généré, ce qui rend la tâche plus facile, mais semble peu réaliste dans un contexte où une personne souhaiterait utiliser du texte artificiel de manière malicieuse. De plus, ces outils possèdent d’autres défauts. En particulier, un défaut récemment observé est la discrimination des personnes écrivant dans une langue autre que leur langue maternelle, le texte qu’elles auraient généré étant plus fréquemment identifié comme artificiel d’après un article de The Guardian.

Les recommandations des institutions internationales pour la détection de contenus artificiels

Bien que le vide juridique autour de l’IA générative n’existe pas comme précisé dans l’article « Quelles régulations pour la conception des IA génératives ? », la France ne prévoit pas encore de dispositions particulières pour cette catégorie de systèmes. Similairement, à l’international, si la plupart des principes et recommandations sur l’intelligence artificielle produites par les forums font bien état de la nécessité de garantir la transparence des systèmes d’IA, ces textes restent technologiquement neutres et ne recommandent pas de technologie particulière répondant à cette finalité.

La recommandation de l’OCDE sur l’IA demande ainsi aux acteurs de l’IA de s’engager à assurer la transparence et la divulgation responsable des informations liées aux systèmes d’IA, et notamment d’informer les parties prenantes de leurs interactions avec les systèmes d’IA (que l’on peut interpréter comme à destination des usages en tant que chatbot, comme proposé également par le CNPEN dans son avis sur le sujet), mais sans rien préciser sur la manière de mettre en œuvre pratiquement cette recommandation.
La recommandation de l’Unesco sur l’éthique de l’IA exige également des acteurs de l’IA qu’ils informent les utilisateurs lorsqu’un produit ou un service est fourni directement ou par le biais de système d’IA.

Ces recommandations adoptées respectivement en 2019 et 2021 ne semblent pas prendre la mesure des défis posés par l’IA générative en termes de manipulation de contenus, ces systèmes n’ayant été rendus disponibles auprès du public et intégrés dans de nombreuses applications que récemment. La définition de l’IA proposée par l’OCDE n’inclut ainsi pas les IA génératives (la définition est actuellement en cours de révision). La Convention sur l’intelligence artificielle du Conseil de l’Europe, en cours de négociation, tient compte des IA génératives, mais son article sur la transparence des systèmes d’IA ne préconise pas de technologie en particulier.

Les ministres en charge du numérique du G7 tentent actuellement d’élaborer un code de conduite à destination des développeurs de systèmes d’IA avancés, dans le cadre du processus d’Hiroshima sur l’IA générative. Un des principes directeurs qui intégrera normalement ce futur code de conduite est le développement et le déploiement de mécanismes comme le tatouage numérique et autres techniques permettant à l’utilisateur final d’identifier les contenus générés par des systèmes d’IA.  

En juillet dernier, la Maison Blanche a obtenu de quelques grandes entreprises cheffes de file en matière d’intelligence artificielle – Amazon, Anthropic, Google, Inflection, Meta, Microsoft, et OpenAI – une série d’engagements volontaires destinés à assurer le développement de systèmes d’intelligence artificielle sûrs et transparents. Parmi ces engagements, ces entreprises devront développer des mécanismes techniques, comme le tatouage numérique, permettant aux utilisateurs finaux de savoir lorsqu’un contenu est produit par une IA générative.

Il est également intéressant de noter que les mesures provisoires pour la gestion des services d’intelligence artificielle générative récemment adoptées par la Chine exigent l’étiquetage des images, vidéos et autres contenus générés par l’IA, conformément à une réglementation entrée en vigueur début 2023 encadrant les hypertrucages, ou deepfakes/deep synthesis (dispositions administratives sur les hypertrucages dans les services d’information sur Internet, approuvé le 25 novembre 2022). En effet, la Chine est le premier pays à avoir juridiquement encadré les hypertrucages définis comme des technologies qui utilisent des algorithmes génératifs, telles que l’apprentissage profond et la réalité virtuelle, pour créer du texte, des images, de l’audio, de la vidéo, des scènes virtuelles ou d’autres informations. Les fournisseurs de service d’hypertrucage doivent ainsi utiliser des mesures techniques efficaces de marquage qui n’affectent pas l’utilisation des contenus générés par les utilisateurs du service. Les services suivants doivent ainsi faire l’objet d’un étiquetage visible par le fournisseur – car susceptibles de provoquer une confusion ou un malentendu du public :  

  • Dialogue/écriture intelligente, et autres services qui simulent des personnes physiques pour générer ou modifier du texte ;
  • Services d’édition qui génèrent de la parole telle que des voix humaines synthétisées, des voix imitées ou qui modifient de manière significative les caractéristiques de l’identité personnelle ;
  • Services d’édition tels que la génération, le remplacement, ou la manipulation de visages, la manipulation de postures et autres générations d’images et de vidéos de personne ou des changement importants dans les caractéristiques de l’identité personnelle ;
  • Services de génération ou d’édition de scènes de simulation immersive ;
  • Autres services ayant pour fonction de générer ou de modifier de manière significative le contenu de l’information.

Pour tous les autres services, le fournisseur doit accompagner son service d’une fonction permettant d’étiqueter de manière visible le contenu généré et inviter les utilisateurs du service à utiliser cette fonction. Il est ainsi interdit à toute organisation ou individu d’utiliser des moyens techniques pour supprimer ces étiquetages.

Quel avenir pour le tatouage numérique ?

Devant ce panorama, il semble que le tatouage numérique soit la solution la plus robuste pour détecter les contenus artificiels. Certains risques liés à l’utilisation du tatouage numérique persistent pourtant, bien qu’ils puissent être parfois appréhendés par des mesures spécifiques pour des cas d’usages bien identifiés. Pour les autres, le tatouage numérique pourrait encore manquer de maturité. Voici quelques pistes de réflexion sur l’avenir de cette technique.

La protection des données personnelles lorsqu’elles peuvent être utilisées pour l’entraînement de modèle d’IA

Cette protection semble possible dans la mesure où un tatouage pourrait leur être apposé. Cette pratique, que les hébergeurs (tels que les réseaux sociaux ou les fournisseurs de bases de données) semblent le plus à même de mettre en œuvre concrètement, permettrait d’assurer une traçabilité des données personnelles des utilisateurs et d’éviter qu’elles ne soient collectées par moissonnage puis réutilisées pour l’entraînement de modèles sans qu’il soit possible de prouver cette utilisation a posteriori. Elle pourrait compléter des mesures juridiques (licences, conditions d’utilisation) et d’autres mesures techniques (comme les fichiers de configuration indiquant aux robots des IA d’utiliser ou non certaines données).

La transparence des contenus artificiels

En réalisant un tatouage des contenus artificiels, les fournisseurs d’IA génératives assureraient que ces contenus ne pourront être utilisés dans un contexte trompeur. Les hébergeurs et réutilisateurs des modèles pourraient à leur tour mettre en œuvre les mesures nécessaires pour garantir que le tatouage soit présent et intègre dans les contenus générés et porté à la connaissance des utilisateurs finaux, notamment par des procédés permettant de le rendre visible lorsqu’il ne l’est pas et par des mesures de vulgarisation sur les techniques utilisées.  Le tatouage serait toutefois une mesure inefficace à ce jour en ce qui concerne le texte artificiel.

L’atteinte à la réputation des personnes portée par du contenu artificiel

Le risque pour des IA génératives de produire du contenu inexact à propos de personnes est aujourd’hui avéré, qu’il s’agisse d’une erreur, couramment désignée comme des « hallucinations », ou d’une inexactitude volontaire, comme dans le cadre des hypertrucages, ou deepfakes, par exemple à contenu pornographique ou à visée politique. Le tatouage numérique permettrait dans ce contexte de prouver le caractère artificiel d’un contenu, et offrirait ainsi un recours aux personnes. Toutefois, ici encore, les méthodes permettant de tatouer les textes artificiels pourraient ne pas être suffisamment matures.

L’harmonisation des pratiques

Peu d’initiatives de normalisation des tatouages numériques existent aujourd’hui. Afin d’harmoniser les pratiques et de les généraliser, un recensement des meilleures pratiques semble crucial. Dans cet objectif, l’élaboration de standards sur les techniques citées plus haut apparaîtrait particulièrement bénéfique. L’uniformisation du format des contenus générés artificiellement permise par ces standards pourrait faciliter la lecture des tatouages numériques et promouvoir la mise en œuvre d’outils d’interprétation harmonisés également, notamment par les éditeurs de sites web. Le contrôle sur la fonction de détection du tatouage pourrait également revenir à une entité de confiance qui en aurait la responsabilité afin d’éviter que celle-ci soit divulguée et utilisée pour altérer les tatouages. Cette tendance est encore inexistante, mais elle pourrait être considérée par les fournisseurs d’IA génératives en lien avec les éditeurs de sites web comme une solution leur permettant de se conformer à la régulation de ces contenus.



Article rédigé par Alexis Léautier , Ingénieur Expert