Kunstmatige intelligentie zorgt voor kinderporno op internet

Met de explosie in populariteit van generatieve kunstmatige intelligentie zijn bedrijven, mensen en relaties getransformeerd. Nu zorgen nieuwe problemen met betrekking tot AI al voor onrust bij de autoriteiten. Op het dark web verspreiden criminelen kinderporno met behulp van AI-beeldgenererende tools, zeggen experts. Begrijpen.

Volgens Thaise Molina Pinheiro, specialist in strafrecht en digitaal recht, is de popularisering van kunstmatige intelligentie-instrumenten voor het genereren van beelden een aanvullend instrument geworden voor het plegen van virtuele misdaden, waaronder kinderpornografie. 

PUBLICITEIT

In een interview met Nieuwsvers, legde de advocaat uit dat criminelen misbruik maken van hulpmiddelen open source om uw eigen versies van beeldgenererende AI’s te maken. Populaire platforms, zoals Midjourney e DALL-E sta niet toe dat er schadelijke of criminele aanwijzingen worden gegeven. Met programmeerkennis en toegang tot de open codes van de platforms, giftige versies van deze tools vermenigvuldigen zich op het dark web

Om afbeeldingen te genereren van kinderen of adolescenten in situaties van expliciete seks of pornografie, zegt de expert dat criminelen de tools vaak gebruiken met afbeeldingen uit het web van echte mensen om nieuwe contexten te creëren. Zodra de afbeeldingen klaar zijn, worden ze gedeeld op donkere internetforums, binnen Discord-gemeenschappen of op illegale downloadsites..

Hoe identificeer je een afbeelding geproduceerd door AI? Kijk
Hoe identificeer je een afbeelding geproduceerd door AI? Kijk

“Sommigen delen dit profiel uiteindelijk op internet, zodat je toegang hebt op Twitter, op internet in het algemeen, op Reddit kun je uiteindelijk mensen vinden die pedofiel zijn en er openlijk over praten. Er zijn ook veel mensen die uiteindelijk achter de schermen blijven, in de duisternis van het web, die (de beelden) delen via bijvoorbeeld torrents, die zijn veel anoniemer, ze hebben geen profiel”, legt de advocaat uit. .

Sinds 2008 is het simuleren van een kind of tiener in een expliciete seks- of pornografiescène, door middel van elke vorm van virtuele representatie, een misdaad in Brazilië. Met een gevangenisstraf van één tot drie jaar en een geldboete.

PUBLICITEIT

Een andere geraadpleegd door het rapport, Leonardo Pantaleo, master in de Rechten en specialist in Strafvordering, vertelt over de straffen waarmee deze criminelen te maken krijgen: “Het is een ander instrument, maar de straffen zijn hetzelfde, ze moeten behoorlijk streng zijn en Brazilië heeft daar al wetgeving voor, ongeacht de herkomst. Dit is de zoveelste poging, net als toen het internet opkwam, voor de crimineel om zichzelf achter een schild, een beschermende deken, te plaatsen, om identificatie moeilijk te maken.”

Volgens de NGO die meldingen van virtuele misdaden in Brazilië in kaart brengt, Safernet, sinds het begin van het jaar is het aantal meldingen met afbeeldingen van seksueel misbruik en uitbuiting van kinderen met 70% toegenomen vergeleken met vorig jaar. Voor Thais Molina is er een sterke relatie met de hausse aan generatieve AI’s. 

In een recent rapport van de The Washington PostAmerikaanse experts rapporteerden ook de omvang van het probleem. Volgens Yiota Souras, directeur van het National Center for Missing and Exploited Children, dat toezicht houdt op databases die door bedrijven worden gebruikt om kinderpornografie te markeren en te blokkeren, “zelfs als deze beelden geen echte kinderen portretteren, betekenen ze verschrikkelijke sociale schade.”

PUBLICITEIT

En wat kan er gedaan worden om deze misdaad te bestrijden?

Voor Thais Molina gaat het om efficiënte regulering van kunstmatige intelligentie en toezicht door technologiebedrijven. “Praat met bedrijven, vooral met grote technologiebedrijven, zodat zij kunnen helpen in de strijd, bij de identificatie, met kunstmatige-intelligentie-instrumenten om filtering uit te voeren en ook zodat bedrijven die een kunstmatige-intelligentie-instrument leveren dit soort illegale productie niet toestaan. inhoud".

O Google Het beschikt al over een tool voor het scannen van schadelijke inhoud op internet. Wanneer inhoud echter wordt gedeeld op verborgen forums of op het dark internet, kan er niets worden gedaan. 

Wat zeggen bedrijven?

In de gebruiksvoorwaarden van Midjourney Er staat “geen inhoud voor volwassenen of bloed. Vermijd het maken van inhoud die visueel schokkend of verontrustend is. We zullen sommige tekstinvoer automatisch blokkeren.” 

PUBLICITEIT

O DAL-E, ontwikkeld door OpenAI, wordt door mensen gemonitord en de geproduceerde beelden worden bijgehouden. De platformcodes, evenals de Midjourney, zijn niet openbaar. 

O Stabiele diffusie, van StabilityAI, een open source platform, waarmee andere ontwikkelaars hun codes in andere projecten kunnen gebruiken, verbiedt het “genereren van inhoud of het deelnemen aan het delen van inhoud die enig risico of mogelijkheid met zich meebrengt voor het exploiteren, schaden of in gevaar brengen van de gezondheid of het welzijn van kinderen of andere minderjarigen (“Kinderen”), zoals afbeeldingen van kinderen in geseksualiseerde kledij, poses of een seksueel fetisjistische context, of die direct of indirect vermeende slachtoffers van seksuele uitbuiting van kinderen identificeren, of met als doel het uitbuiten, beschadigen of proberen kinderen op welke manier dan ook uitbuiten of schade toebrengen.”

Zie ook:

omhoog scrollen