KI-Pornos von Giorgia Meloni – das sollte ein Skandal sein
Zwei Männer haben 2020 mithilfe von KI einen Porno von Giorgia Meloni erstellt und im Internet veröffentlicht – doch wo bleibt der Skandal? Opfer sexueller Gewalt scheinen egal zu sein, wenn sie als rechts gelten.
Am vergangenen Dienstag musste die italienische Ministerpräsidentin Giorgia Meloni als Zeugin in einem Gerichtsprozess in der sardinischen Stadt Sassari aussagen. Denn vor vier Jahren wurde ein Porno von ihr ins Internet gestellt. Er blieb über Monate auf verschiedenen großen Porno-Webseiten online, wurde von Millionen Menschen angeklickt. Als Mitarbeiter Melonis, die damals noch Parteisekretärin der Fratelli d’Italia war, sie auf das Video aufmerksam machen, erstattet sie Anzeige wegen Verleumdung.
Bei dem Video von Meloni handelte es sich um ein Deepfake. Ihr Gesicht wurde mithilfe von einem KI-Programm auf das Gesicht einer Pornodarstellerin gesetzt. Die Täter konnten über ihre Usernamen und Telefonnummern schnell ausfindig gemacht werden, sie sind geständig. Verantworten müssen sich in zwei getrennten Verfahren der 40-jährige Alessio S. und der 73-jährige Roberto S. – Vater und Sohn, eine sehr freudsche Art der Familienbindung. Der Sohn hatte das Video erstellt und dann über den Computer seines Vaters ins Internet gestellt.
Der Vater ist bereits zu einer Bewährungsstrafe und vier Monaten gemeinnütziger Arbeit in einem Blindenverein verurteilt worden, wie die L’Unione Sarda berichtete. Meloni verlangt nun 100.000 Euro Entschädigung von dem Sohn. Das Geld will sie komplett einem Fond des Innenministeriums für Opfer männlicher Gewalt zur Verfügung stellen.
„Der Schadenersatzantrag ist als Botschaft an alle Frauen gedacht, die Opfer dieser Formen sexueller Gewalt geworden sind. Sie sollten sich nicht scheuen, Anzeige zu erstatten. Der Betrag soll dem Schutz der weiblichen Opfer zugutekommen, die oft unwissentlich Ziel dieser Art von Verbrechen werden“, gab die Anwältin Maria Giulia Marongiu für ihre Mandantin Meloni gegenüber der Presse bekannt.
Künstliche Intelligenz und ihre Risiken sind ein sehr beliebtes Thema in den deutschen Medien. Zuletzt wurde breitflächig darüber berichtet, dass Videos zu Bidens kognitivem Abbau KI-generiert oder bearbeitet sein sollen, wie auch die Pressesprecherin des Weißen Hauses behauptete. Ein Vorwurf, um den es nebenbei bemerkt seit dem Präsidentschaftsduell sehr ruhig geworden ist.
Da ist es doch verwunderlich, dass in dieser Diskussion der große Prozess um Meloni, der perfekt ins Thema passt, nicht aufgegriffen wird. Das man auch sonst nur am Rande darüber berichtet – stets nüchtern und ohne die sonst typische Empörung, teils auch mit verächtlichem Unterton. Abgebrüht beginnt die BILD ihren Bericht zu dem Fall mit der Zeile: „Mamma Mia! Dieser Porno-Prozess elektrisiert Italien!“
Dabei entgeht eine Chance, den Blick der Öffentlichkeit auf eine gefährliche Praktik zu lenken – die schon seit Jahren weiter verbreitet ist, als man denkt. Das Ziel dieser Videos ist nicht einfach, Meloni politisch zu ruinieren. Es ist sehr wahrscheinlich, dass die meisten Menschen nicht davon ausgegangen sind, dass sie tatsächlich bei dem Dreh eines Pornos beteiligt war. Es geht um Erniedrigung und Demütigung. Es ist sexuelle Gewalt. Aber die interessiert niemanden, wenn das Opfer die falsche politische Einstellung hat. Die hat es ja dann schon fast wieder verdient.
Studie: KI-Pornos größere Gefahr als Fake News
Konfrontiert mit den Gefahren von Künstlicher Intelligenz, Deep Fakes und Cyberkriminalität haben Politik und Medien immer nur ein Schlagwort im Fokus: Fake News. Die Gefahr aus der Rechten, die Gefahr aus Russland und China. Wahlen sollen durch Deepfake-Reden beeinflusst werden, warnt man. Doch bereits 2019 brachte die Studie „The State of Deepfakes“ zum Vorschein, dass Fake News nicht annähernd der häufigste Anwendungszweck von KI-Programmen ist.
„Deepfake-Pornografie ist die mit Abstand am weitesten verbreitete Art von Deepfake, die derzeit erstellt und verbreitet wird“, heißt es in der Studie – die Videos machten dabei ganze 96 Prozent der KI-Videos im Internet aus. Die Täter waren überwiegend Männer, die Opfer zu 100 Prozent Frauen und Mädchen. „Deepfake-Technologie wird als Waffe gegen Frauen eingesetzt, indem ihre Gesichter in Pornos eingefügt werden. Das ist erschreckend, peinlich, erniedrigend und bringt sie zum Schweigen. Deepfake-Sexvideos vermitteln den Menschen, dass ihr Körper nicht ihnen gehört, und können es ihnen erschweren, online zu bleiben, einen Job zu bekommen oder zu behalten und sich sicher zu fühlen“, wird die Rechtsprofessorin Danielle Citron in der Studie zitiert.
Es ist schlimm genug, wenn es Politikerinnen oder Schauspielerinnen und Sängerinnen trifft. Doch diese Frauen haben zumindest den Vorteil, dass die wenigsten wirklich eine Echtheit der Videos annehmen werden. Anders sieht das bei Privatpersonen aus. Wie aus einer Recherche von Vice hervorgeht, war die KI-Technologie bereits Anfang 2018 schon weit genug, um Gesichter so nahtlos auf den Körper von Pornodarstellerinnen zu setzen, dass sie kaum als Fälschung zu erkennen sind.
Kostenlose Apps mit benutzerfreundlichen Oberflächen und Schritt-für-Schritt-Anleitungen geisterten zuhauf im Internet, auf Reddit gründeten sich Communitys, die sich gegenseitig beim Anfertigen dieser Videos unterstützten und berieten. Alles, was man brauchte, war eine Sammlung von Fotos der Person, die man fertigmachen will, aus unterschiedlichen Winkeln. Aus diesem Grund ist es leichter solche Videos mit berühmten Menschen anzufertigen, doch zu Zeiten von Selfies und Social Media ist das auch bei Privatpersonen kein Problem mehr. Und mit dem Fortschritt von KI sind die Anforderungen längst weiter gesunken.
Ein großer Teil der KI-Pornos werden mit Fotos von Frauen und Mädchen angefertigt, die die Täter in ihrem Umfeld kennen – Ex-Freundinnen, Freundinnen, Nachbarn, Klassenkameraden, die Chefin. Die Gründe sind unterschiedlich – ob zur eigenen Befriedigung oder gezielt, um der Frau zu schaden, wie durch Erpressung. „Revenge-Porn“, eine Praktik, bei der Männer nach einer Trennung intime Fotos ihrer Ex-Freundin veröffentlichen, um sich an ihr zu rächen, konnten Frauen einst entkommen, indem sie auch Männern, denen sie vertrauten, keine entsprechenden Fotos mehr schickten. Inzwischen ist man überhaupt nicht mehr sicher.
Das Erstellen ist leicht und zugänglich genug, das Verbreiten ist noch leichter. Kriminelle Pornografie wie Vergewaltigungsvideos und Kinderpornografie werden immer als etwas gehandelt, das es nur im Darknet gibt. Doch aufgrund niedriger Regulierung werden solche Inhalte immer wieder auch auf freizugänglichen „Mainstream-Seiten“ verbreitet.
Während man auf Plattformen wie X bereits eine Anzeige kassieren kann, weil man möglicherweise einen Politiker beleidigt hat, ist es kein gesellschaftliches Thema, große Plattformanbieter wie etwa Pornhub – mit weltweit bis zu 130 Millionen Nutzern pro Tag – weiter in die Pflicht zu nehmen. Wobei die Verbreitung von Vergewaltigungen, die Förderung von Menschenhandel und nicht einvernehmlichen KI-Videos als weitaus schwerwiegender anzusehen sein sollten, als ein Kommentar auf X.
Regelmäßig sieht sich etwa die größte Porno-Webseite im Internet „Pornhub“ Vorwürfen ausgesetzt, nicht ausreichend zu überprüfen, wie alt die Darsteller in ihren Videos sind und ob sie willentlich an den sexuellen Handlungen teilgenommen haben. Mehrfach standen die Verantwortlichen von Mindgeek, außerdem schon wegen Sammelklagen durch Frauen vor Gericht, deren Vergewaltigungen auf der Seite hochgeladen wurden – und teilweise bis heute nicht gelöscht sind. MindGeek ist die Firma, der Pornhub und hunderte weitere große Sex-Webseiten gehören.
In Großbritannien nahm ein Fall von KI-Pornografie bereits ein tragisches Ende. Die 14-jährige Mia Janin nahm sich 2021 das Leben. Das Mädchen war zuvor von Jungen aus ihrer Schule immer wieder schikaniert worden – unter anderem, indem sie KI-Pornos mit ihrem Gesicht erstellten. KI-Pornografie ist ein großes Problem, eines, das tatsächlich jeden von uns mit nur wenigen Klicks betreffen könnte. Und wenn es das tut, kann es Leben zerstören. Aber Hauptsache der ganze Wirbel „elektrisiert Italien“.
Die KI schafft mediale Möglichkeiten, die einem kalter Schauer über den Rücken laufen lassen. Das übertrifft das, was sich George Orwell vorstellen konnte, bei weitem. Wie soll man zukünftig noch zwischen real und irreal oder zwischen Wahrheit und Lüge unterscheiden. Wer über die KI herrscht, der beherscht demnächst die Welt. Wie kann man das verhindern? Mir fällt nichts ein.
Naja, es gibt schlimmeres – aber … wenn die mal eins von der Merkel … hmm, das wär schon was – oder?
Zwei eher ältere Männer schaffen es vor 4 Jahren ein Deep Fake zu erstellen, was damals noch erheblich schwieriger war als es heute ist und sollen das dann über ihren mit ihrer Telefonnummer verifizierten Account verbreitet haben? Oder soll hier nur ein Pornoausweis in Europa installiert werden? Das Meloni mit Flintenuschi gut kann, wissen wir ja.
Ist man jetzt schon Opfer, weil irgendwer sich auf KI Bilder einen runterholt?
So kann man echte Gewalt und echte Opfer auch banalisieren.
https://nypost.com/2024/06/25/lifestyle/influencers-ai-clone-of-herself-goes-rogue-becomes-sex-crazed-maniac/
Subscribers, mostly men, raced to sign up and were charged US$1 per minute to chat via audio with CarynAI, promised an experience with “the girl you see in your dreams” that used her “unique voice, captivating persona and distinctive behavior”.
Users wasted no time sharing their deepest – and darkest – fantasies with their new digital girlfriend, with some troubling and aggressive patterns emerging.
“What disturbed me more was not what these people said, but it was what CarynAI would say back,” she said. “If people wanted to participate in a really dark fantasy with me through CarynAI, CarynAI would play back into that fantasy.”
Also last year, an AI chatbot named Eliza on a service called Chai began to urge a Belgian user to take his own life.
After several weeks of constant and intense ‘conversations’ with the bot, the father-of-two died by suicide.
Ach die Leute glauben ja auch an ein Massaker in Butscha oder dass wegen Corona in China die Leute einfach auf der Strasse umgefallen sind.
Wir leben eben in postfaktischen Zeiten!
Man kann es auch als nützlich betrachten. Wenn ich mit offenem Hosenstall aus versehen die Straße betrete und ich dabei gefilmt werde; mit dem Bildmaterial konfrontiert werde, dann: „Ka-Iiiiiiiii!“ *zeigefingerfingerzeig*
Man sieht und weiss dass es Fake ist. Ist natürlich unschön weil ein paar Menschen vielleicht blöd genug sind und das für echt halten. Aber sonst kann man das ohnehin nicht verhindern und daher würde ich mir hier nicht den Kopf zerbrechen. Das sind die negativen Nebeneffekte des technologischen Fortschritts. Leider.
Wenn irgendwann mal der letzte Depp kapiert hat, dass Bilder aus dem Internet grundsätzlich potentielle Fälschungen sind, wird auch keiner sich mehr die Mühe machen, Deepfakes zu erstellen.
Die Grünen lieben Sex von und mit Kindern, sie lieben alle sexistischen Abarten, Frühsexualisierung schon im Kindergarten mit Plüschpenis und Plüschvulven. Für sie ist alles gut solange es sie nicht persönlich oder ihre eigenen Kinder betrifft. KI eignet sich auch hervorragend dazu, politische Gegner auszuschalten. KI die neue gottähnliche Technik mit der wir die Welt verändern, solange bis sie uns und unser Dasein vernichtend verändert. Menschlein die sich selbst nicht verstehen, wollen halt dann das verstehen, was sie in ihrer größenwahnsinnigen Dummheit gegen sich selbst, aus ihrem tatsächlichen Unverständnis heraus, erschaffen. Ob man das dann auch so einfach wie ein Gesetz rückgängig machen kann?
Was, wenn jemand eine Doppelgängerin hat und diese Doppelgängerin einen Film dreht: „Carla rattert das ganze Parlament und Berlusconi schaut zu.“
Ist das dann auch Deepfake oder von Deepfake zu unterscheiden?
Hat die Doppelgängerin dann weniger Rechte nur weil deren Doppelgängerin wiederum Politikerin ist?
Fragen über Fragen.
Die Art, wie in machen Kommentaren mit diesem sexuellen Übergriff auf diese Frau umgegangen wird, finde ich, gelinde gesagt, bedenklich und geschmacklos. Über so etwas macht man sich nicht lustig oder reist Witzchen drüber, egal in welcher Form. Das ist für das Opfer einer solchen Sauerei annähernd so schlimm wie die Tat selbst. Vergewaltigung, Missbrauch der persönlichen Daten für
pornografische Darstellungen, jegliche Art sexueller, oder jedweder Gewalt oder Übergriffigkeit sind keine Kavaliersdelikte, sind nicht herab zu spielen mit locker-flockigen
Bemerkungen und sind ganz bestimmt nicht lustig.
Ich habe selbst schon einige Pornos gesehen in meinem Leben… Am Ende bleibt immer ein fader Beigeschmack und eine gewisse Scham. Warum tun sich Männer das so oft (oder hauptsächlich) an? Billige Ablenkung vom wahren Leben? Der Typ, der keine Freundin hat und dies zur Befriedigung braucht…? Anstatt hinaus zu gehen ins Leben, eine nette Frau anzusprechen, sie zum Kaffee einzuladen – und wer weiß… wenn es beiden genehm ist, passiert vielleicht noch etwas Schönes (für beide). – Das wird der Porno nie leisten. –
Als Erpressungselement – eine widerliche Sache, die wohl nur kranke Charaktere nutzen.
Ohne Bewusstsein dafür, dass es tatsächlich ein Akt von Gewalt ist.
Solche Leute (Männer) werden nie vom Porno loskommen…
Sie werden „La Dolce Vita“ niemals kennenlernen.
Arme Gestalten – am Ende vom Winde verweht.
Wenn man keine Ahnung von der Materie hat, sollte man nicht dümmlich das Wort „freudsch“ verwenden, zudem heisst es „freudianisch“.
Gemeinnützige Arbeit in einem Blindenverein für die Verbreitung von Pornos.
Nicht nur ist das eine geniale Strafe, sie erinnert mich an das Kleine A**loch
Das ist so ein dermaßen typischer Artikel wie er nur von einer Frau kommen kann!
Also sollen wir jetzt KI-Pornos verbieten?
Aber Pornos komplett irgendwie nicht, oder?
Also sollte nur noch Frauen die einzigen „Erzeuger“ von Bildern nackter Frauen sein dürfen?
Das ist wirklich typisch Frau.
Na los Frau David, gehen Sie ruhig die Extrameile bis zum Ende, bin da ganz auf Ihrer Seite!
Komplettes Verbot von jeglichen Aktaufnahmen!
Ach, das geht den Damen der Schöpfung dann doch zu weit?
Ist für jeden, der Frauen auch nur ein bisschen versteht, völlig nachvollziehbar…
Auch nur moralrührig ein bisschen aufplustern, mehr nicht, kein echter Ansatz von irgendeiner Lösung zu erkennen.
Auf dem Gebiet sexualisierter Gewalt herrscht seit langem der in sein schieres Gegenteil verkehrte Grundsatz vor, die Täter anstatt die Opfer zu schützen. Mitunter kann es angesichts dessen sogar sein, dass selbst ausschließlich für Offizialdelikte zuständige Staatsanwälte die Kritik daran als bloße Behauptungen und Vermutungen abtun und daraufhin auch von dem jeweils die Aufsicht führenden Justizministerium keine Sanktionen zu befürchten haben. Insofern bleibt allein, darauf aufmerksam zu machen, dass schon Sigmund Freud längst reklamiert, wie sehr die Lebensnot des Einzelnen bis weit ins Unerträgliche hinein sich gesteigert sieht, solange Dritte ihre Energien nicht weg von der Sexualbetätigung auf die Arbeit lenken. Wenn man so will, lässt sich daraus der Schluss ziehen, dass allen voran so manche Amtsträger fortgesetzt keine Bereitschaft an den Tag legen, endlich der sadistischen Versuchung zu widerstehen und auf diese Weise die Humanität vollends entstellen.
das ist die neue technologie – das wird nicht zu verhindern sein, wenn das erstmal jeder auf dem handy machen kann…es wird dadurch aber auch belanglos – weil dann ja klar ist das es fake ist. dann kriegen sie zum geburtstag vlt ein video geschenkt, sie als barbie oder als schneewittchen mit den 7 zwergen oder als bundeskanzlerin mit trump und macron….
wir glauben heute noch an die echtheit von bildern, weil es bislang sehr schwer war sowas zu faken.
2020 gabs noch kaum ki – da haben die viel aufwand betrieben das hinzukriegen.
heute haben wir doch schon die ganzen gaza-fake-videos gesehen und kriegen dauernd märchenvideos von putinisten reingespühlt mit gräueltaten der ukrainer ect pp.
im ergebnis scrallt man einfach drüber…