Sommet sur l’Intelligence Artificielle : Vers une Nouvelle Narration
Le recent sommet consacré à l’intelligence artificielle, organisé par l’Elysée début février, a pour objectif de renouveler le discours public concernant l’IA. Les organisateurs entendent mettre en avant les bénéfices que cette technologie pourrait apporter à la société, notamment dans le domaine de la protection des démocraties. Une des tables rondes discutait de la manière dont il est possible de tirer parti de l’IA pour renforcer la sécurité des données et l’intégrité de l’information. Ce débat rappelle une tendance actuelle visant à maximiser l’utilisation de l’IA dans la détection d’autres IA.
Les Détecteurs d’Images IA : Fonctionnement et Limites
Parmi les outils développés pour repérer les images générées par l’intelligence artificielle, figure Winston AI, une entreprise québécoise. Ce logiciel affiche un taux de fiabilité impressionnant de 99,98 % sur son site, mais cette affirmation mérite d’être nuancée. En effet, ce pourcentage concerne principalement la détection de textes issus d’IA, ce qui pose la question de l’exactitude de la détection pour les images.
Des tests menés sans modifications sur des images créées par différentes IA telles que Bing, Midjourney et ChatGPT ont montré que Winston AI réussissait à identifier correctement ces images d’origine artificielle. Un exemple marquant est une image d’un faux Oscar attribué à Robert Redford, qui a circulé sur les réseaux sociaux, et qui a été identifiée comme étant générée par IA à 100 %.
Analyse des Résultats de Détection
Les tests effectués par les chercheurs révèlent que Winston AI utilise au moins deux métriques pour son évaluation : l’une pour indiquer la probabilité qu’une image soit générée par une IA, et l’autre pour évaluer la probabilité qu’elle soit réalisée par un humain. Les détecteurs d’images tirent profit de diverses techniques, comme la recherche d’anomalies dans la structure des pixels, l’évaluation de la reproductibilité d’une image, ou encore le repérage de marques spécifiques posées par certains créateurs pour certifier l’authenticité de leur travail.
Cependant, une limite essentielle demeure : la qualité de l’image d’origine est cruciale. Alexios Mantzarlis, expert en dommages numériques, souligne que plus une image est altérée par des modifications telles que la compression, le recadrage ou la conversion de format, moins elle a de chances d’être reconnue par ces outils de détection.
Tests de Manipulation : Une Remise en Question des Outils
En manipulant légèrement certaines images, comme en les compressant ou en leur appliquant des filtres colorés, les résultats de détection changent radicalement. Par exemple, après une conversion au format JPEG, une image représentant un homme en gilet orange est désormais détectée comme ayant été réalisée par un humain avec une probabilité de 99 %. Des manipulations passées sous silence, comme un léger recadrage, suffisent à induire en erreur le logiciel, le faisant penser que l’image a été exécutée par un humain.
Les tentatives de manipulation vont même jusqu’à tromper Winston AI lorsqu’il s’agit d’illustrations créées manuellement, où seulement quelques-unes des œuvres d’art sont identifiées correctement comme étant humaines. La technologie de détection semble donc avoir du mal à suivre le rythme des innovations dans la création d’images.
Les Défis des Bases de Données
Winston AI présente également des difficultés lorsqu’il s’agit d’identifier les images au sein de bases de données qui comportent des éléments générés par IA et d’autres qui sont d’origine humaine. Des tests sur la base de données Cifake, comprenant des images sous divers formats, ont révélé que Winston AI ne parvenait presque jamais à établir une distinction précise, n’identifiant correctement qu’une seule image sur dix comme générée par une IA.
Ce test met en évidence les limites de la technologie actuelle et soulève des questions sur la fiabilité globale des outils de détection. Winston AI a réagi en indiquant qu’il y avait des limitations techniques liées à la taille des images, ce qui a conduit à une promesse d’amélioration future.
Vers une Amélioration Continue
La détection d’images générées par IA semble donc être un domaine en évolution constante, avec des défis à relever. Les experts en sécurité numérique soulignent la nécessité de tester ces outils auprès de détecteurs qui reconnaissent la nature probabiliste de leurs résultats. Une transparence sur les méthodes et les raisons de confiance envers ces outils est essentielle pour évaluer leur efficacité.
Dans l’ensemble, la complexité croissante des modèles d’IA exige une réévaluation continue des techniques de détection. Cela marque un besoin impératif de réentraînement et d’adaptation constante des outils de détection face à l’évolution rapide des technologies d’IA. Les récents développements lors du sommet sur l’IA mettant en lumière ces questions sont un pas vers une élaboration plus sophistiquée des stratégies de sécurité et de protection des données dans un monde de plus en plus alimenté par l’intelligence artificielle.