Werbung

...
...

KI-Pornos von Giorgia Meloni – das sollte ein Skandal sein

Zwei Männer haben 2020 mithilfe von KI einen Porno von Giorgia Meloni erstellt und im Internet veröffentlicht – doch wo bleibt der Skandal? Opfer sexueller Gewalt scheinen egal zu sein, wenn sie als rechts gelten.

Werbung

Am vergangenen Dienstag musste die italienische Ministerpräsidentin Giorgia Meloni als Zeugin in einem Gerichtsprozess in der sardinischen Stadt Sassari aussagen. Denn vor vier Jahren wurde ein Porno von ihr ins Internet gestellt. Er blieb über Monate auf verschiedenen großen Porno-Webseiten online, wurde von Millionen Menschen angeklickt. Als Mitarbeiter Melonis, die damals noch Parteisekretärin der Fratelli d’Italia war, sie auf das Video aufmerksam machen, erstattet sie Anzeige wegen Verleumdung. 

Bei dem Video von Meloni handelte es sich um ein Deepfake. Ihr Gesicht wurde mithilfe von einem KI-Programm auf das Gesicht einer Pornodarstellerin gesetzt. Die Täter konnten über ihre Usernamen und Telefonnummern schnell ausfindig gemacht werden, sie sind geständig. Verantworten müssen sich in zwei getrennten Verfahren der 40-jährige Alessio S. und der 73-jährige Roberto S. – Vater und Sohn, eine sehr freudsche Art der Familienbindung. Der Sohn hatte das Video erstellt und dann über den Computer seines Vaters ins Internet gestellt. 

Der Vater ist bereits zu einer Bewährungsstrafe und vier Monaten gemeinnütziger Arbeit in einem Blindenverein verurteilt worden, wie die L’Unione Sarda berichtete. Meloni verlangt nun 100.000 Euro Entschädigung von dem Sohn. Das Geld will sie komplett einem Fond des Innenministeriums für Opfer männlicher Gewalt zur Verfügung stellen. 

„Der Schadenersatzantrag ist als Botschaft an alle Frauen gedacht, die Opfer dieser Formen sexueller Gewalt geworden sind. Sie sollten sich nicht scheuen, Anzeige zu erstatten. Der Betrag soll dem Schutz der weiblichen Opfer zugutekommen, die oft unwissentlich Ziel dieser Art von Verbrechen werden“, gab die Anwältin Maria Giulia Marongiu für ihre Mandantin Meloni gegenüber der Presse bekannt. 

Click here to display content from Twitter.
Erfahre mehr in der Datenschutzerklärung von Twitter.

Künstliche Intelligenz und ihre Risiken sind ein sehr beliebtes Thema in den deutschen Medien. Zuletzt wurde breitflächig darüber berichtet, dass Videos zu Bidens kognitivem Abbau KI-generiert oder bearbeitet sein sollen, wie auch die Pressesprecherin des Weißen Hauses behauptete. Ein Vorwurf, um den es nebenbei bemerkt seit dem Präsidentschaftsduell sehr ruhig geworden ist. 

Da ist es doch verwunderlich, dass in dieser Diskussion der große Prozess um Meloni, der perfekt ins Thema passt, nicht aufgegriffen wird. Das man auch sonst nur am Rande darüber berichtet – stets nüchtern und ohne die sonst typische Empörung, teils auch mit verächtlichem Unterton. Abgebrüht beginnt die BILD ihren Bericht zu dem Fall mit der Zeile: „Mamma Mia! Dieser Porno-Prozess elektrisiert Italien!“ 

Dabei entgeht eine Chance, den Blick der Öffentlichkeit auf eine gefährliche Praktik zu lenken – die schon seit Jahren weiter verbreitet ist, als man denkt. Das Ziel dieser Videos ist nicht einfach, Meloni politisch zu ruinieren. Es ist sehr wahrscheinlich, dass die meisten Menschen nicht davon ausgegangen sind, dass sie tatsächlich bei dem Dreh eines Pornos beteiligt war. Es geht um Erniedrigung und Demütigung. Es ist sexuelle Gewalt. Aber die interessiert niemanden, wenn das Opfer die falsche politische Einstellung hat. Die hat es ja dann schon fast wieder verdient.

Studie: KI-Pornos größere Gefahr als Fake News 

Konfrontiert mit den Gefahren von Künstlicher Intelligenz, Deep Fakes und Cyberkriminalität haben Politik und Medien immer nur ein Schlagwort im Fokus: Fake News. Die Gefahr aus der Rechten, die Gefahr aus Russland und China. Wahlen sollen durch Deepfake-Reden beeinflusst werden, warnt man. Doch bereits 2019 brachte die Studie „The State of Deepfakes“ zum Vorschein, dass Fake News nicht annähernd der häufigste Anwendungszweck von KI-Programmen ist. 

„Deepfake-Pornografie ist die mit Abstand am weitesten verbreitete Art von Deepfake, die derzeit erstellt und verbreitet wird“, heißt es in der Studie – die Videos machten dabei ganze 96 Prozent der KI-Videos im Internet aus. Die Täter waren überwiegend Männer, die Opfer zu 100 Prozent Frauen und Mädchen. „Deepfake-Technologie wird als Waffe gegen Frauen eingesetzt, indem ihre Gesichter in Pornos eingefügt werden. Das ist erschreckend, peinlich, erniedrigend und bringt sie zum Schweigen. Deepfake-Sexvideos vermitteln den Menschen, dass ihr Körper nicht ihnen gehört, und können es ihnen erschweren, online zu bleiben, einen Job zu bekommen oder zu behalten und sich sicher zu fühlen“, wird die Rechtsprofessorin Danielle Citron in der Studie zitiert. 

Es ist schlimm genug, wenn es Politikerinnen oder Schauspielerinnen und Sängerinnen trifft. Doch diese Frauen haben zumindest den Vorteil, dass die wenigsten wirklich eine Echtheit der Videos annehmen werden. Anders sieht das bei Privatpersonen aus. Wie aus einer Recherche von Vice hervorgeht, war die KI-Technologie bereits Anfang 2018 schon weit genug, um Gesichter so nahtlos auf den Körper von Pornodarstellerinnen zu setzen, dass sie kaum als Fälschung zu erkennen sind. 

Kostenlose Apps mit benutzerfreundlichen Oberflächen und Schritt-für-Schritt-Anleitungen geisterten zuhauf im Internet, auf Reddit gründeten sich Communitys, die sich gegenseitig beim Anfertigen dieser Videos unterstützten und berieten. Alles, was man brauchte, war eine Sammlung von Fotos der Person, die man fertigmachen will, aus unterschiedlichen Winkeln. Aus diesem Grund ist es leichter solche Videos mit berühmten Menschen anzufertigen, doch zu Zeiten von Selfies und Social Media ist das auch bei Privatpersonen kein Problem mehr. Und mit dem Fortschritt von KI sind die Anforderungen längst weiter gesunken.

Ein großer Teil der KI-Pornos werden mit Fotos von Frauen und Mädchen angefertigt, die die Täter in ihrem Umfeld kennen – Ex-Freundinnen, Freundinnen, Nachbarn, Klassenkameraden, die Chefin. Die Gründe sind unterschiedlich – ob zur eigenen Befriedigung oder gezielt, um der Frau zu schaden, wie durch Erpressung. „Revenge-Porn“, eine Praktik, bei der Männer nach einer Trennung intime Fotos ihrer Ex-Freundin veröffentlichen, um sich an ihr zu rächen, konnten Frauen einst entkommen, indem sie auch Männern, denen sie vertrauten, keine entsprechenden Fotos mehr schickten. Inzwischen ist man überhaupt nicht mehr sicher. 

Das Erstellen ist leicht und zugänglich genug, das Verbreiten ist noch leichter. Kriminelle Pornografie wie Vergewaltigungsvideos und Kinderpornografie werden immer als etwas gehandelt, das es nur im Darknet gibt. Doch aufgrund niedriger Regulierung werden solche Inhalte immer wieder auch auf freizugänglichen „Mainstream-Seiten“ verbreitet. 

Click here to display content from Twitter.
Erfahre mehr in der Datenschutzerklärung von Twitter.

Während man auf Plattformen wie X bereits eine Anzeige kassieren kann, weil man möglicherweise einen Politiker beleidigt hat, ist es kein gesellschaftliches Thema, große Plattformanbieter wie etwa Pornhub – mit weltweit bis zu 130 Millionen Nutzern pro Tag – weiter in die Pflicht zu nehmen. Wobei die Verbreitung von Vergewaltigungen, die Förderung von Menschenhandel und nicht einvernehmlichen KI-Videos als weitaus schwerwiegender anzusehen sein sollten, als ein Kommentar auf X. 

Regelmäßig sieht sich etwa die größte Porno-Webseite im Internet „Pornhub“ Vorwürfen ausgesetzt, nicht ausreichend zu überprüfen, wie alt die Darsteller in ihren Videos sind und ob sie willentlich an den sexuellen Handlungen teilgenommen haben. Mehrfach standen die Verantwortlichen von Mindgeek, außerdem schon wegen Sammelklagen durch Frauen vor Gericht, deren Vergewaltigungen auf der Seite hochgeladen wurden – und teilweise bis heute nicht gelöscht sind. MindGeek ist die Firma, der Pornhub und hunderte weitere große Sex-Webseiten gehören. 

In Großbritannien nahm ein Fall von KI-Pornografie bereits ein tragisches Ende. Die 14-jährige Mia Janin nahm sich 2021 das Leben. Das Mädchen war zuvor von Jungen aus ihrer Schule immer wieder schikaniert worden – unter anderem, indem sie KI-Pornos mit ihrem Gesicht erstellten. KI-Pornografie ist ein großes Problem, eines, das tatsächlich jeden von uns mit nur wenigen Klicks betreffen könnte. Und wenn es das tut, kann es Leben zerstören. Aber Hauptsache der ganze Wirbel „elektrisiert Italien“. 

Werbung