Les images de maltraitance infantile ont été retirées de la source d'entraînement du générateur d'images IA, selon les chercheurs

Les chercheurs en intelligence artificielle ont déclaré vendredi avoir supprimé plus de 2 000 liens Web vers des images suspectées de maltraitance sexuelle infantile d'un ensemble de données utilisé pour former des outils populaires de génération d'images IA.

Le jeu de données de recherche LAION est un vaste index d'images en ligne et de légendes qui a été une source pour les principaux créateurs d'images IA tels que Stable Diffusion et Midjourney.

Mais un rapport de l'année dernière par le Stanford Internet Observatory a révélé qu'il contenait des liens vers des images à caractère sexuel d'enfants, contribuant à la facilité avec laquelle certains outils IA ont pu produire des deepfakes photoréalistes représentant des enfants.

Le rapport de décembre dernier a incité LAION, qui signifie le réseau ouvert d'intelligence artificielle à grande échelle, à supprimer immédiatement son jeu de données. Huit mois plus tard, LAION a déclaré dans un article de blog qu'il avait travaillé avec le groupe de surveillance de l'Université Stanford et des organisations de lutte contre les abus au Canada et au Royaume-Uni pour résoudre le problème et publier un jeu de données nettoyé pour la recherche future en IA.

Le chercheur de Stanford David Thiel, auteur du rapport de décembre, a félicité LAION pour les améliorations significatives, mais a déclaré que la prochaine étape est de retirer de la distribution les "modèles contaminés" pouvant toujours produire des images de maltraitance infantile.

Une des outils basés sur LAION que Stanford a identifié comme le "modèle le plus populaire pour générer des images explicites" - une version plus ancienne et légèrement filtrée de Stable Diffusion - est resté facilement accessible jusqu'à jeudi, lorsque l'entreprise basée à New York Runway ML l'a retiré de le dépôt de modèles IA Hugging Face. Runway a déclaré vendredi dans un communiqué qu'il s'agissait d'une "dépréciation planifiée des modèles de recherche et du code qui n'ont pas été activement entretenus."

La version nettoyée du jeu de données LAION intervient alors que les gouvernements du monde entier examinent de plus près comment certains outils technologiques sont utilisés pour créer ou distribuer des images illégales d'enfants.

Le procureur de la ville de San Francisco a déposé en début de ce mois une plainte visant à fermer un groupe de sites Web qui permettent la création de nus générés par IA de femmes et de filles. La prétendue distribution d'images de maltraitance sexuelle d'enfants sur l'application de messagerie Telegram fait partie de ce qui a conduit les autorités françaises à engager des poursuites mercredi contre le fondateur et PDG de la plate-forme, Pavel Durov.

L'arrestation de Durov "annonce un très grand changement dans toute l'industrie technologique selon lequel les fondateurs de ces plateformes peuvent être tenus personnellement responsables", a déclaré David Evan Harris, chercheur à l'Université de Californie, Berkeley, qui a récemment contacté Runway pour demander pourquoi le générateur d'images IA problématique était toujours accessible au public. Il a été retiré quelques jours plus tard.