Expertinnen und Experten warnen vor der Gefahr der KI-generierten Missbrauchsabbildungen: Sie erschwerten die Ermittlungsarbeiten und könnten bei pädophilen Menschen die Bereitschaft erhöhen, reale Übergriffe zu begehen.
Direkt eine sehr einseitige und tendenziöse Darstellung. Es bleibt unerwähnt, dass es auch Expert:innen gibt, die das anders sehen. Genauso unerwähnt bleibt die Hypothese, dass fiktive Kinderpornografie auch reale Übergriffe eher verhindern könnte, die nach aktuellem Stand sogar eher mehr empirische Evidenz besitzt als die Gegenthese.
Auf diese Art wird ein scheinbarer Konsens in der Fachwelt suggeriert, der so einfach nicht existiert, indem verschwiegen wird, dass es eine Gegenseite überhaupt gibt.
Über die problematische Absurdität, fiktive Darstellungen als „Missbrauchsabbildungen“ zu bezeichnen, hatte ich mich
an anderer Stelle schonmal ausführlich ausgelassen.
Die meisten Abbildungen von KI-generiertem Kindesmissbrauch fand die Organisation bislang im Dark Web. Mit steigender Anzahl erhöht sich laut Sexton aber das Risiko, dass immer mehr davon im Open Web landen. "Das ist nichts, was vielleicht in der Zukunft passieren könnte, sondern etwas, das bereits jetzt passiert."
Das ist nicht nur eine Sache der Gegenwart, sondern eine Sache der Vergangenheit. Und zwar dank der Polizei.
Seit dem 13.03.2020 ist es Ermittlungsbehörden laut
§184b StGB Absatz 6 erlaubt, fiktive Kinderpornografie zu generieren und zu verbreiten. Und das explizit auch bei „wirklichkeitsnahen“ Abbildungen, bei denen schon der Besitz sonst verboten ist.
Begründet wurde dies damals damit, dass KI-generierte Bilder ja keine realen Kinder involvieren würde, und daher der Einsatz solcher Bilder, um illegale Foren zu infiltrieren kein Problem sei. Dabei sollte klar sein, dass auch Bilder, die von Ermittlungsbehörden in Dark Web - Foren verbreitet werden schon das Potenzial hatten, auch im Clearnet zu landen und dabei, wenn man der Argumentation der Kritiker folgt, „Pädophile zu Missbrauch anzustacheln“.
Drei Jahre später ist die Technologie für die Allgemeinbevölkerung verfügbar, Menschen können sich ihre eigenen KI-Bilder auf ihren PC generieren, und plötzlich ist das, was vorher total unproblematisch abgesegnet wurde ein Riesenproblem? Welches Rechtsgut wird verletzt, wenn sich ein pädophiler Mensch für den Privatgebrauch ein unrealistisches kinderpornografisches Bild generiert, das nicht verletzt wird, wenn Ermittler:innen fotorealistische Darstellungen generieren und aktiv in illegalen Foren verbreiten?
Meiner persönlichen Einschätzung nach ist dies ein weiterer Indiz dafür, dass es schon lange nicht mehr darum geht, Schaden von Kindern abzuwehren, sondern vor allem um moralische Empörung, „Virtue Signaling“ und darum, möglichst viele Pädophile zu verfolgen und wegzusperren (wir erinnern uns: laut der Stigma-Studien von Sarah Jahnke möchte fast jeder zweite Pädophile wegsperren, auch dann, wenn sie nichts Verwerfliches getan haben). Wie sonst ist zu erklären, dass die
exakt gleiche Handlung begrüßt wird, wenn sie zur Strafverfolgung (vermeintlich) pädophiler Menschen beitragen kann, und verteufelt wird, wenn sie von pädophilen Menschen selber als Ausdruck ihrer Sexualität begangen wird?
Hinzu komme, dass alltägliche, echte Fotos als Grundlage für KI-generierte Pornografie dienen könnten. Die künstlichen Abbildungen sind laut BKA schon jetzt kaum von echten zu unterscheiden.
Die Sache ist, KI-generierte Inhalte bewegen sich auf einem moralischen Spektrum, das von „ethisch unbedenklich“ bis hin zu „im Grunde genauso schlimm wie reale Missbrauchsabbildungen“ geht.
Auf der einen Seite stehen Modelle, die mit realen Missbrauchsabbildungen trainiert wurden um Missbrauchsserien „fortzusetzen“, Bilder die real existierenden Kindern nachempfunden wurden, Deepfakes die womöglich auch für Cyber-Grooming und Erpressung verwendet werden u.ä.
Es gibt aber auch die andere Seite, nämlich KIs, die zum Beispiel mit Zeichnungen und anderen fiktiven Darstellungen trainiert wurden und Bilder generieren, die explizit keinen real existierenden Kindern nachempfunden sind. Hier gibt es meiner Ansicht nach nichts einzuwenden. Derzeit erforscht werden „Wasserzeichen“-Technologien, die es ermöglichen könnten, KI-generierte Inhalte eindeutig zu kennzeichnen und möglicherweise gleich zu verifizieren, dass diese mit einem ethischen Modell generiert wurden.
Was mich ärgert ist, dass dies in der aktuellen Debatte total zusammengeworfen wird und etwa mit dem Hinweis auf Deepfakes sämtliche KI-generierten Inhalte verteufelt werden. Dies lässt die Chancen dieser Technologie völlig außer Acht. Für Menschen, die sich Missbrauchsabbildungen aus einem sexuellen Interesse heraus anschauen, könnten KI-generierte Bilder nicht nur ein gleichwertiger, sondern womöglich auch ein
besserer Ersatz sein. In dem
IWF-Bericht, der die aktuelle Debatte weitestgehend überhaupt ausgelöst hat, werden etwa einige Beiträge aus illegalen Darknet-Foren zitiert:
“the future of CP is already here... and not offending anyone...”
All of these were created without any real world child porn whatsoever.”
“[AI CSAM] makes CSAM unthinkable. Anyone who might before have justified needing CSAM in order to quell some irresistible urge will have no more excuses.”
Teils wird sogar in illegalen CSAM-Foren damit geworben, dass bei einem Bild kein reales Kind involviert war.
“All images are A.I. generated and none existed before I entered the very specific text prompts I entered to create it”
Disclaimer: none of the boys I'll post in this thread are real, they are all generated by an AI”
Während gleichzeitig diejenigen, denen es um den Tabu-Aspekt geht oder die „Perversität“ des Ganzen geht mit Entwicklungen äußerst unzufrieden zu sein scheinen:
“They will be saved by people and dilute the stock of real pictures. Do this for five years and fakes is all we will have left! AND THEY WILL STILL LOCK YOU UP FOR THEM.”
“By default AIs weren't teach that reality is sick & dirty, because people want beautiful and perfect pictures so they instruct them that way. But when it comes to the sexy, something is missing: sick & dirty is part of it! That's why I'm not satisfied and try to find ways to get more realistic rendering.”
Das sind natürlich nur Stichproben, aber es zeigt, dass es zumindest auch aktive Konsument:innen illegaler Inhalte gibt, die eigentlich lieber auf ethisch vertretbare Inhalte zurückgreifen würden, die keine realen Kinder involvieren. Könnte dies nicht eine Chance sein, einen Teil der Täter:innen auf andere Inhalte „umzuleiten“, die nicht schädlich sind? Und vielleicht auch, wie es der eine Beitrag befürchtet, illegale Foren mit künstlich generierten Material zu fluten, bis die realen Inhalte nur noch einen verschwindend geringen Anteil ausmachen?
Die IWF stellt sich diese Frage noch nicht einmal und porträtiert Menschen, die aus ethischen Gründen fiktive Inhalte konsumieren als besonders moralisch verdorben. Moralische Empörung auf Kosten eines realistischen und wirksamen Kinderschutzes, indem neue Wege noch nicht einmal in Betracht gezogen werden, weil sie als unsagbar gelten?
Zurück zum Text:
KI-Kinderpornografie kann Täter triggern
Aber auch für Menschen mit pädophiler Störung sei das Angebot von künstlich generierter Kinderpornografie eine Gefahr, sagt Professor Klaus Michael Beier, Direktor des Instituts für Sexualwissenschaften und Sexualmedizin an der Charité in Berlin. Er leitet außerdem den Berliner Standort von "Kein Täter werden", ein Hilfsangebot für pädophile Menschen.
Das Problem: Wie echte Kinderpornografie führten auch KI-generierte Bilder zu einer Wahrnehmungsverzerrung, sagt Beier. Sie täuschten pädophilen Menschen vor, dass sexuelle Kontakte zwischen Kindern und Erwachsenen möglich seien und diese von Kindern sogar begehrt würden.
Oh man.
Zunächst einmal wird nicht zwischen „Tätern“ (warum wird hier eigentlich nicht gegendert?), Menschen mit pädophiler Störung und pädophilen Menschen differenziert, was für ein „Qualitätsmedium“ wie die Tagesschau schon mal ein Armutszeugnis ist.
Zu Beiers Aussagen kann man eigentlich nur wiederholen, dass es überhaupt keine empirische Evidenz dafür gibt. Wie Gast schon gesagt hat, das steht auf einer Stufe mit der „Killerspiele führen zu Amokläufen“ - Hysterie. Gleichzeitig ist er
völlig blind für die möglichen psychischen Auswirkungen einer Kriminalisierung für pädophile Menschen (von den grundrechtlichen Aspekten mal ganz Abgesehen: freie Entfaltung der Persönlichkeit, sexuelle Selbstbestimmung usw), was als Oberhaupt einer Therapieeinrichtung für Pädophile ziemlich alarmierend ist.
Mögliche Gesetzeslücke in Deutschland?
Achtung: für alle Menschen, die legale fiktive Inhalte benutzen ist die Situation aktuell sehr gefährlich. Das BMJ hat gerade einen Vorschlag für eine Gesetzesänderung im Bereich Kinderpornografie vorgelegt. Es ist durchaus realistisch, dass die aktuelle Debatte dazu führt, dass ein Verbot fiktiver Inhalte in den Entwurf ergänzt wird. Exakt das Gleiche ist bei der Kriminalisierung von kindlichen Liebespuppen passiert. Nicht, dass wir viel dagegen tun können außer ein Auge auf die Situation zu haben.
Fazit: bei dem Teaser-Text graut es mir davor, was wir ab Montag in der Mediathek sehen können.