Une organisation britannique découvre des milliers d'images d'abus sexuels sur des enfants créées par l'IA
Crédits images : Curto Actualités/BingAI

Une enquête révèle que des modèles d’imagerie IA formés à la maltraitance des enfants

Cachées à la base des générateurs d'images populaires d'intelligence artificielle (IA) se trouvent des milliers d'images d'abus sexuels sur des enfants, a révélé une nouvelle étude publiée mercredi (20).

L'Observatoire Internet de Stanford a trouvé plus de 3.200 XNUMX images d'abus sexuels présumés sur des enfants dans la base de données géante d'IA LAION., un index d'images et de légendes en ligne qui a été utilisé pour former les principaux générateurs d'images d'intelligence artificielle tels que Diffusion stable

PUBLICITÉ

Le groupe de surveillance basé à l'Université de Stanford a travaillé avec le Centre canadien de protection de l'enfance et d'autres institutions anti-abus pour identifier le matériel illégal et signaler les liens originaux des photos aux autorités. Il a été confirmé que plus de 1.000 XNUMX images suspectes étaient du matériel pédopornographique.

"Nous avons constaté que la possession d'un ensemble de données LAION-5B peuplé, même à la fin de 2023, implique la possession de milliers d'images illégales." les chercheurs ont écrit.

La réponse a été immédiate. A la veille de la publication du rapport mercredi, LAION a annoncé qu'elle supprimait lesariafaites attention à vos ensembles de données. LAION, qui signifie Large-Scale Artificial Intelligence Open Network à but non lucratif, a déclaré dans un communiqué qu'il « applique une politique de tolérance zéro à l'égard des contenus illégaux et, par mesure de prudence, nous avons supprimé les ensembles de données LAION pour garantir ils sont en sécurité avant de les republier.

PUBLICITÉ

Bien que les images ne représentent qu’une fraction de l’indice LAION d’environ 5,8 milliards d’images, le groupe de Stanford affirme qu’elles influencent probablement la capacité des outils d’IA à générer des résultats préjudiciables et renforcent les abus passés contre de vraies victimes qui apparaissent plusieurs fois.

Stability AI a déclaré mercredi qu'elle n'héberge que des versions filtrées de Stable Diffusion et que "depuis qu'elle a assumé le développement exclusif de Stable Diffusion, Stability AI a pris des mesures proactives pour atténuer le risque d'utilisation abusive".

Lire aussi:

Faire défiler vers le haut