SpOn 24.03.2026
15:25 Uhr

Internet Watch Foundation: Im Netz kursieren immer mehr KI-Videos von Kindesmissbrauch


Im Internet finden sich laut einer Erhebung zunehmend KI-generierte Missbrauchsdarstellungen. Der Fortschritt der Technik erleichtert es Pädokriminellen, sogenannte Kinderpornografie zu erstellen.

Internet Watch Foundation: Im Netz kursieren immer mehr KI-Videos von Kindesmissbrauch

Die Zahl KI-generierter Bilder von sexuellem Kindesmissbrauch hat 2025 ein Rekordhoch erreicht. Das zeigen neue Zahlen der britischen Stiftung Internet Watch Foundation (IWF)  aus der zweiten Jahreshälfte. Bereits Mitte des vergangenen Jahres berichtete die gemeinnützige Organisation über einen starken Anstieg im Zeitraum zwischen dem 1. Januar bis zum 30. Juni 2025. Nun legt die IWF, die Kindesmissbrauchsvideos im Netz nachgeht und sie entfernen lässt, Zahlen für das gesamte Jahr vor.

»Seit ich im August 2025 zur Internet Watch Foundation (IWF) gekommen bin, bin ich erschüttert über das Ausmaß des Leids, dem Kinder täglich ausgesetzt sind«, schreibt IWF-CEO Kerry Smith. »Nirgendwo wird dies deutlicher als beim rasanten Anstieg und der rasanten Entwicklung von durch KI generiertem Material über sexuellen Kindesmissbrauch.«

Demnach haben die IWF-Analysten noch nie so viele KI-Bilder und -Videos mit realistisch wirkendem sexuellem Kindesmissbrauch identifiziert wie 2025. Das seien insgesamt mehr als 8000 kriminelle KI-Inhalte und ein Anstieg von 14 Prozent gegenüber dem Vorjahr. Die Bilder und Videos würden sowohl in dunklen Ecken des Internets als auch auf bekannten Plattformen auftauchen. Zwar machten solche Inhalte nach wie vor nur einen relativ geringen Anteil der Gesamtmeldungen von sogenannter Kinderpornografie aus, die an die Organisation gehen. Doch die Zahl der Meldungen steige stetig an, heißt es in einem am Dienstag veröffentlichten Bericht .

KI-generierte Aufnahmen von sexualisierter Gewalt gegen Kinder würden laut dem Bericht das pädokriminelle Interesse an Kindern schüren, extreme Gewalt normalisieren und das Risiko von Kontaktstraftaten erhöhen. Vorwiegend seien demnach Mädchen betroffen. In den von der IWF analysierten KI-Inhalten seien demnach zu 97 Prozent Mädchen zu sehen. Wie KI-Konten TikTok mit Fakebildern von kindlich aussehenden Frauen geflutet haben, lesen Sie hier.

Welche Rolle KI-Programme spielen

In dem Bericht mit dem Titel »Leiden ohne Grenzen: KI-Material über sexuellen Kindesmissbrauch aus der Sicht unserer Analysten« schildern die IWF-Analysten auch Online-Unterhaltungen zwischen Pädokriminellen, in denen sie sich anstacheln, immer lebensechtere und extremere Szenen von sexuellem Kindesmissbrauch mithilfe von KI zu generieren.

Demnach würden sich die Täter etwa darüber austauschen, mithilfe von versteckten Kameras an Aufnahmen echter Kinder zu kommen, die sie dann dank künstlicher Intelligenz in Inhalte mit sexuellem Missbrauch umwandeln können. Der schnelle Fortschritt der KI-Tools führe dazu, dass immer weniger technisches Fachwissen für das Generieren solcher Inhalte erforderlich ist, was die Anwendung vereinfacht und niedrigschwellig macht.

Zudem können KI-Modelle mit Missbrauchsbildern trainiert werden, wodurch Überlebende von sexuellem Kindesmissbrauch erneut zu Opfern gemacht werden. Das Thema beschäftigt Experten und Betroffenenorganisationen schon seit Jahren. »Generative KI dürfte für Täter reizvoll sein, weil ihnen diese Technik eine große Kontrolle über die Menschen verleiht, deren Bilder sie manipulieren können«, sagt etwa Ingo Fock bereits 2023 dem SPIEGEL. Fock unterstützt mit seiner Organisation »Gegen Missbrauch e. V.« Opfer von sexualisierter Gewalt gegen Kinder.

Fock, der selbst im Kindesalter missbraucht wurde, warnte im Zuge einer SPIEGEL-Recherche 2023 davor, dass schon die kriminellen Plattformen, auf denen Aufnahmen von Kindesmissbrauch zirkulieren, für Betroffene zusätzlich problematisch sein können. Das sei unabhängig davon, ob Aufnahmen echt sind oder KI-generiert erzeugt wurden. »Wenn Sie wissen, dass Ihre Fotos oder Videos immer wieder im Netz kursieren, dann ist das eine nie endende Belastung«, so Fock.

Oberstaatsanwalt Markus Hartmann gab sich schon damals gegenüber dem SPIEGEL besorgt, dass künstliche Intelligenz zu einer »weiteren Radikalisierung und Enthemmung« führen könne. »Wenn man mit künstlicher Intelligenz individualisiertes Material generieren kann, dann könnte das eine ohnehin schon laufende Eskalation befeuern, dass Pädokriminelle immer spezifischeres und neues Material konsumieren wollen.«

Hartmann leitet die Zentral- und Ansprechstelle Cybercrime bei der Generalstaatsanwaltschaft Köln (ZAC NRW), die in den vergangenen Jahren große Missbrauchsnetzwerke im Netz, wie etwa im Fall Bergisch-Gladbach, zerschlagen hat. Mehr zu dem Problem KI-generierter Missbrauchsaufnahmen lesen Sie hier.

kim/hpp