Künstliche Intelligenz (KI) wird zunehmend missbraucht, um Kinderpornografie zu erstellen. Über die Social-Media-Plattform Instagram werden laut des SWR-Investigativformats Vollbild tausende Bilder von Kindern und Jugendlichen verbreitet.

KI-generierte Bilder kaum von echten zu unterscheiden

Manche Abbildungen sind künstlich generiert, andere basieren auf echten Kinderbildern oder gar echtem Kindesmissbrauch. Viele Kinder und Jugendliche werden in knapper Unterwäsche, Badebekleidung oder sexualisierten Posen dargestellt. Das zeigen Recherchen des SWR-Investigativformats Vollbild. Expertinnen und Experten warnen vor der Gefahr der KI-generierten Missbrauchsabbildungen: Sie erschwerten die Ermittlungsarbeiten und könnten bei pädophilen Menschen die Bereitschaft erhöhen, reale Übergriffe zu begehen.

Die meisten Abbildungen von KI-generiertem Kindesmissbrauch fand die Organisation “Internet Watch Foundation”, eine internationale Meldestelle für sexuellen Kindesmissbrauch mit Sitz in Großbritannien, bislang im Dark Web. Mit steigender Anzahl erhöht sich laut Sexton aber das Risiko, dass immer mehr davon im Open Web landen.

“”Das ist nichts, was vielleicht in der Zukunft passieren könnte, sondern etwas, das bereits jetzt passiert.” (Dan Sexton, IWF)

Hergestellt werden die künstlichen kinder- und jugendpornografischen Abbildungen Vollbild-Recherchen zufolge vor allem mit einer Version des KI-Programms Stable Diffusion. Die Software-Version umfasst keine Sicherheitsmechanismen, die beispielsweise die Erstellung von Nacktbildern verhindern.

Behörden kommen an ihre Grenzen

Das BKA erfasst Fälle von KI-generierter Pornografie nicht gesondert, stuft die Gefahr bei Kinder- und Jugendpornografie insgesamt aber als hoch ein. Im Jahr 2022 seien die Fallzahlen um 7,4 Prozent bei Kinderpornografie sowie um 32,1 Prozent bei Jugendpornografie gestiegen. Hinzu komme, dass alltägliche, echte Fotos als Grundlage für KI-generierte Pornografie dienen könnten. Die künstlichen Abbildungen sind laut BKA schon jetzt kaum von echten zu unterscheiden.

Die Entwicklung könnte laut Oberstaatsanwalt Markus Hartmann, der die Zentral- und Ansprechstelle Cybercrime (ZAC) in Nordrhein-Westfalen leitet, dazu führen, dass auch Ermittlungsbehörden KI-generierte Bilder fälschlicherweise als neuen tatsächlichen Missbrauch bewerten und dadurch ressourcentechnisch an ihre Grenzen kommen.

Plattformen vermehrt in die Pflicht nehmen

Neben echten sind auch mittels KI generierte kinder- und jugendpornografische Darstellungen strafbar. Würden rechtswidrige Inhalte über Online-Plattformen wie Instagram verbreitet, greife der Digital Services Act. Das EU-Gesetz verpflichtet Plattformen, Meldeverfahren einzurichten und gegen die missbräuchliche Verwendung ihrer Dienste vorzugehen, so eine Sprecherin des Bundesjustizministeriums.

Vollbild-Recherchen zeigen, dass etwa Instagram der Pflicht, rechtswidrige Inhalte zu entfernen, unzureichend nachkommen. Die Redaktion meldete im Zuge der Recherche mehrere Dutzend Instagram-Accounts, deren Besitzer damit werben, echte Kinder- und Jugendpornografie zu verkaufen. Nur ein Drittel der Accounts wurden von Instagram innerhalb von 48 Stunden gelöscht.

Safersurfing spricht sich immer wieder dafür aus, sowohl Internetprovider als auch Plattformen vermehrt in die Verantwortung zu nehmen. Kinder und Jugendliche – sowie deren Eltern – dürfen hier nicht alleine gelassen werden. Mehr zum Thema findest du auf unserer Website!

Bildquelle: ©SWR

Auf Social Media teilen