Künstliche Intelligenz treibt Kinderpornografie im Internet voran

Mit der explosionsartigen Beliebtheit generativer künstlicher Intelligenz haben sich Unternehmen, Menschen und Beziehungen verändert. Nun sorgen bereits neue Probleme rund um die KI bei den Behörden für Beunruhigung. Experten sagen, dass Kriminelle im Dark Web Kinderpornografie mit Hilfe von KI-Tools zur Bildgenerierung verbreiten. Verstehen.

Nach Thais Molina Pinheiro, Spezialist für Straf- und Digitalrecht, ist die Popularisierung von Werkzeugen der künstlichen Intelligenz zur Generierung von Bildern zu einem zusätzlichen Instrument für die Begehung virtueller Straftaten, einschließlich Kinderpornografie, geworden. 

WERBUNG

In einem Interview mit Newsverse, erklärte der Anwalt, dass Kriminelle Werkzeuge ausnutzen Open-Source- um Ihre eigenen Versionen bildgenerierender KIs zu erstellen. Beliebte Plattformen, wie z Midjourney e DALL-E não permitem a emissão de prompts nocivos ou criminosos. No entanto, com conhecimento de programação e acesso aos códigos abertos das plataformas, Giftige Versionen dieser Tools vermehren sich im Dark Web

Um Bilder von Kindern oder Jugendlichen in Situationen von explizitem Sex oder Pornografie zu generieren, nutzen Kriminelle die Tools häufig mit Bildern aus dem Netz realer Menschen, um neue Zusammenhänge herzustellen, sagt der Experte. Sobald die Bilder fertig sind, werden sie in dunklen Internetforen, innerhalb von Discord-Communities oder auf Raubkopie-Downloadseiten geteilt..

Wie erkennt man ein von KI erzeugtes Bild? Suchen
Wie erkennt man ein von KI erzeugtes Bild? Suchen

„Einige teilen dieses Profil am Ende im Internet, sodass Sie Zugriff auf Twitter haben, im Internet im Allgemeinen und auf Reddit können Sie am Ende Menschen finden, die Pädophile sind, und offen darüber diskutieren.“ Es gibt auch viele Menschen, die hinter den Kulissen bleiben, in der Dunkelheit des Internets, die (die Bilder) beispielsweise über Torrents teilen, die viel anonymer sind und kein Profil haben“, erklärt der Anwalt .

Seit 2008 ist die Simulation eines Kindes oder Teenagers in einer expliziten Sex- oder Pornografieszene durch irgendeine Form der virtuellen Darstellung in Brasilien ein Verbrechen. Mit einer Freiheitsstrafe von einem bis drei Jahren und einer Geldstrafe.

WERBUNG

Ein anderer, der im Bericht konsultiert wurde, Leonardo Pantaleão, Magister der Rechtswissenschaften und Spezialist für Strafprozessrecht, spricht über die Strafen, denen diese Kriminellen ausgesetzt sind: „Es ist ein anderes Instrument, aber die Strafen sind die gleichen, sie müssen ziemlich streng sein und Brasilien hat dafür bereits Gesetze, unabhängig von der Herkunft.“ Dies ist ein weiterer Versuch des Kriminellen, genau wie bei der Entstehung des Internets, sich hinter einen Schild, eine Schutzdecke, zu begeben, um die Identifizierung zu erschweren.“

Laut der NGO Safernet, die Berichte über virtuelle Verbrechen in Brasilien kartiert, Seit Jahresbeginn gab es im Vergleich zum Vorjahr einen Anstieg der Meldungen mit Bildern von sexuellem Missbrauch und sexueller Ausbeutung von Kindern um 70 %. Für Thais Molina besteht ein enger Zusammenhang mit dem Boom generativer KI. 

In einem aktuellen Bericht der The Washington PostAuch amerikanische Experten berichteten vom Ausmaß des Problems. Für Yiota Souras, Direktorin des Nationalen Zentrums für vermisste und ausgebeutete Kinder, das Datenbanken überwacht, die von Unternehmen zur Kennzeichnung und Blockierung von Kinderpornografie verwendet werden, „stellen sie einen schrecklichen sozialen Schaden dar, selbst wenn diese Bilder keine echten Kinder darstellen.“

WERBUNG

Und was kann man tun, um dieses Verbrechen zu bekämpfen?

Für Thais Molina geht es dabei um eine effiziente Regulierung künstlicher Intelligenz und die Aufsicht durch Technologieunternehmen. „Sprechen Sie mit Unternehmen, insbesondere mit großen Technologieunternehmen, damit sie im Kampf, bei der Identifizierung, mit Tools der künstlichen Intelligenz zur Filterung helfen können und auch damit Unternehmen, die ein Tool der künstlichen Intelligenz anbieten, diese Art der illegalen Produktion nicht zulassen.“ Inhalt".

O Google Es gibt bereits ein Tool zum Scannen schädlicher Inhalte im Web. Wenn Inhalte jedoch in versteckten Foren oder im Darknet geteilt werden, kann nichts unternommen werden. 

Was sagen Unternehmen?

In den Nutzungsbedingungen von Midjourney Darin heißt es: „Kein Inhalt für Erwachsene oder Blut.“ Vermeiden Sie Inhalte, die visuell schockierend oder verstörend sind. Wir werden einige Texteingaben automatisch blockieren.“ 

WERBUNG

O DALL-E, entwickelt von OpenAI, wird von Menschen überwacht und die erzeugten Bilder nachverfolgt. Die Plattformcodes sowie die Midjourney, sind nicht öffentlich. 

O Stable Diffusion , von StabilityAI, einer Open-Source-Plattform, die es anderen Entwicklern ermöglicht, ihre Codes in anderen Projekten zu verwenden, verbietet „die Generierung von Inhalten oder die Teilnahme an der gemeinsamen Nutzung von Inhalten, die das Risiko oder die Möglichkeit einer Ausbeutung, Schädigung oder Gefährdung der Gesundheit oder des Wohlbefindens von Personen bergen.“ Kinder oder andere Minderjährige („Kinder“), wie zum Beispiel Bilder von Kindern in sexualisierter Kleidung, Posen oder einem sexuellen fetischistischen Kontext oder die direkt oder indirekt mutmaßliche Opfer sexueller Ausbeutung von Kindern identifizieren, oder mit dem Ziel der Ausbeutung, Schädigung oder des Versuchs, sie auszubeuten Kinder in irgendeiner Weise ausbeuten oder schädigen.“

Siehe auch:

hochscrollen