L'Observatoire Internet de Stanford a trouvé plus de 3.200 XNUMX images d'abus sexuels présumés sur des enfants dans la base de données géante d'IA LAION., un index d'images et de légendes en ligne qui a été utilisé pour former les principaux générateurs d'images d'intelligence artificielle tels que Diffusion stable.
PUBLICITÉ
Le groupe de surveillance basé à l'Université de Stanford a travaillé avec le Centre canadien de protection de l'enfance et d'autres institutions anti-abus pour identifier le matériel illégal et signaler les liens originaux des photos aux autorités. Il a été confirmé que plus de 1.000 XNUMX images suspectes étaient du matériel pédopornographique.
"Nous avons constaté que la possession d'un ensemble de données LAION-5B peuplé, même à la fin de 2023, implique la possession de milliers d'images illégales." les chercheurs ont écrit.
La réponse a été immédiate. A la veille de la publication du rapport mercredi, LAION a annoncé qu'elle supprimait lesariafaites attention à vos ensembles de données. LAION, qui signifie Large-Scale Artificial Intelligence Open Network à but non lucratif, a déclaré dans un communiqué qu'il « applique une politique de tolérance zéro à l'égard des contenus illégaux et, par mesure de prudence, nous avons supprimé les ensembles de données LAION pour garantir ils sont en sécurité avant de les republier.
PUBLICITÉ
Des générateurs d’images d’IA formés sur des images d’abus sexuels sur des enfants, selon une étude https://t.co/1i3x765voP
– Gardien Tech (@guardiantech) 20 décembre 2023
Bien que les images ne représentent qu’une fraction de l’indice LAION d’environ 5,8 milliards d’images, le groupe de Stanford affirme qu’elles influencent probablement la capacité des outils d’IA à générer des résultats préjudiciables et renforcent les abus passés contre de vraies victimes qui apparaissent plusieurs fois.
Stability AI a déclaré mercredi qu'elle n'héberge que des versions filtrées de Stable Diffusion et que "depuis qu'elle a assumé le développement exclusif de Stable Diffusion, Stability AI a pris des mesures proactives pour atténuer le risque d'utilisation abusive".
Lire aussi: