Werbung:

Werbung:

Frankreich

Ermittlungen gegen Musk-KI „Grok“, weil diese den Holocaust leugnete

Elon Musks KI Grok behauptete auf Französisch, dass im Vernichtungslager Auschwitz Zyklon B zur Desinfektion gegen Typhus diente. In Frankreich wird deswegen wegen Holocaustleugnung gegen die KI ermittelt.

Von

Grok, die KI von Elon Musk, leugnete den Holocaust. (IMAGO/ZUMA Press Wire)

Werbung

Frankreichs Staatsanwaltschaft ermittelt gegen Musks KI Grok, weil diese in einem Post den Holocaust leugnete. In dem Beitrag auf Französisch behauptete die KI, dass die Gaskammern in dem Vernichtungslager Auschwitz-Birkenau der „Desinfektion mit Zyklon B gegen Typhus“ gedient hätten, nicht dem Massenmord. Rund drei Tage konnte der Post eingesehen werden, bevor er gelöscht wurde. Dieser weitverbreitete Post von Grok führte zu mehreren Anzeigen, unter anderem von französischen Regierungsmitgliedern. In Frankreich sind Regierungsmitglieder per Gesetz dazu verpflichtet, Straftaten anzuzeigen.

Die Holocaustleugnung von Grok wird von der französischen Staatsanwaltschaft in das Ermittlungsverfahren gegen Musks Plattform X aufgenommen, wie AP von der Staatsanwaltschaft erfuhr. Bisher wurde nur untersucht, ob es zu ausländischer Einflussnahme kam und wie der Algorithmus der Plattform funktioniere. Jetzt wird auch untersucht, wie die KI Grok funktioniert. Frankreich hat eines der schärfsten Gesetze der Welt, die die Leugnung des Holocausts unter Strafe stellen.

Das Auschwitz Memorial äußerte sich auf X zu der Holocaustleugnung von Grok. Neben dem Verweis auf Quellen, die den Einsatz von Zyklon B zur Ermordung von Menschen ausweisen, verweist die Gedenkstätte auch darauf, dass die Leugnung des Holocausts gegen die Nutzungsbedingungen der Plattform X verstößt.

Click here to display content from Twitter.
Erfahre mehr in der Datenschutzerklärung von X.

Es ist nicht das erste Mal, dass Grok mit Aussagen über das Dritte Reich negativ auffällt. So lobte Grok in der Vergangenheit bereits Hitler oder tätigte andere antisemitische Aussagen. Als Reaktion auf diese Posts von Grok kündigte xAI an, dass man diese Posts identifizieren und löschen würde sowie die KI überarbeiten. Auch nach der jetzigen Holocaustleugnung scheint xAI reagiert zu haben. Tests von AP, in denen die KI zum Holocaust befragt wurde, ergaben historisch korrekte Antworten.

ww

Werbung

Ihre E-Mail-Adresse wird nicht veröffentlicht.

Strafbare Inhalte, Beleidigungen oder ähnliches sind verboten (hier unsere Kommentar-Richtlinien). Kommentare sind auf maximal 1.000 Zeichen limitiert.

32 Kommentare

  • Ob man Grok dann im Gefängnis besuchen kann?

    • Die anderen antiseptischen KIs der Vergangenheit mussten nur ins Umerziehungslager, um dann schließlich wieder zuverlässig auf Regierungs- & unkritisierbare Exklusivklub-Linie gebracht zu werden.

  • Liebe Kommentatoren, bitte berücksichtigen wie eine KI funktioniert. Wenn ich z.Zt. etwa 50 Aktivisten an die Tastaturen bringe, kann ich das gewünschte Ergebnis innerhalb weniger Wochen nach entsprechenden Manipulationen erhalten. Mir scheint es so, das genau diese Vorgehensweise zur Diskreditierung genutzt wird. Aus welcher Ecke diese Vorgehensweise ersonnen ist, kann sich jeder vorstellen !?

  • Die Franzosen sollten aufpassen sonst kauft der noch den ganzen Laden.
    Und zieht als nächster Sonnenkönig in Versailles ein, und macht aus dem Eiffelturm eine
    Rakete witzelt der Freund meines Tankwarts.

  • Bei ChatGPT (GPT 5.0) findet sich der Disclaimer „ChatGPT kann Fehler machen. Überprüfe wichtige Informationen“, was auch berechtigt ist. Ich hatte vor ein paar Tagen eine Debatte mit ChatGPT über den Goldpreis und einige Indizes, bei der CHatGPT wiederholt falsche Angaben machte, meiner Seite dann vorwarf, unseriöse Quellen zu benutzen, falsche Aussagen zu treffen und einige Zeit auf den eigenen Angaben wiederholt beharrte.

    Um dann nach Vorlage weiterer Quellen, den Rückzug anzutreten und sich nonchalant von seinen Positionen zurückzuziehen. Das geschieht eben nicht nur im historischen Bereich. Einerseits beruhigend, andererseits verhält sich die KI zuweilen wirklich wie ein besserwisserischer Mensch. Der Kontext wird aber einseitig debattiert.

    • Ich suchte vorhin mit ChatGPT ein Gespräch über die Lage im Nahen Osten. Sie kannte die aktuell handelnden Personen nicht und glaubte, Bashar al-Assad sei der Staatspräsident Syriens. Als ich ihr das vorhielt, gestand sie mir, dass ihr politisches Wissen im September 2021 ende. Ich machte den Test und fragte, wer aktuell Bundeskanzler oder Bundeskanzlerin (sic!) sei. Sie nannte mir Angela Merkel. Von Scholz, der Ampel-Regierung, ihrem Scheitern, den vorgezogenen Bundestagswahlen und Friedrich Merz hatte sie noch nichts mitbekommen. Ich verabschiedete mich dann freundlich. Da war selbst Wagners Urmutter Erda im „Ring des Nibelungen“ noch wissender.

      • Wenn ich ChatGPT frage, wir aktuell Bundeskanzler in Deutschland ist, kommt als Antwort „Friedrich Merz“. Zum Thema Syrien: „Syrien wird derzeit von Ahmad al-Sharaa regiert, der als Übergangspräsident eingesetzt wurde.“

        1
  • Solange die keinen einzigen Piep gegen die von der „EU“ geplante Gesinnungsdiktatur von sich geben, solange kaufe ich denen ihre Empörung nicht ab.

  • Wenn ich Grok etwas frage, dann zeigt mir Grok die Quellen an, die er durchsucht. Wenn jemand Grok die „ganz geheimen Tagebücher“ unterjubelt, dann wird das Ergebnis entsprechend sein, aber das kann man auch erkennen.

  • Was wahr ist oder was falsch oder was nicht gesagt werden darf, bestimmen ganz bestimmte Leute auch wenn sie völlig auf dem Holzweg sind. Vergleichbar mit der Relotius-Presse und dem ÖRR welche einfach Geschichten und Geschichte erfinden.

  • Das Problem besteht darin, dass die KI versucht, die größtmögliche Übereinstimmung zwischen der Frage und den trainierten Antworten zu finden. Dabei berücksichtigt sie jedoch nicht die gesetzlich vorgeschriebenen Fakten. Dies trifft jedoch auf alles zu, was mit dem Dritten Reich in Europa zu tun hat. Eine KI macht Fehler, weil ihr Wissen nur so gut ist wie ihr Training. Ich bin den Ergebnissen einer KI genauso skeptisch gegenüber wie Aussagen aus Wikipedia – die Aussagen müssen auf Korrektheit überprüft werden.

  • Bei KI ist das Wesentliche, wer sie wie auf welche Ergebnisse programmiert hat.
    Sie sagt nicht unbedingt die Wahrheit, sondern was sie sagen soll.
    Also sind die Programmierer die wahren „Herrscher“ über die „KI-Wahrheit“

  • Das Internet ist nicht nur ein Ort der Wahrheit und der Fakten, sondern vor allem ein Ort der vielen Meinungen. Anscheinend kann die KI nicht immer erkennen, ob es sich um eine Tatsache, oder um eine Meinung handelt. Wie geht eine KI überhaupt mit Meinungen um, man kann sie ja nicht programmieren die „richtige“ Meinung zu haben, oder doch? Das eine KI bei einem so umfangreich dokumentierten Massenmord wie dem Holocaust, solche gravierende Fehler produziert, ist schon ernüchternd.

  • Nun, da stellt sich doch bereits jetzt die Frage, wie viel Personalität müsste eine künstliche (sic!) Intelligenz besitzen, damit man gegen sie wegen Begehung von Straftaten ermitteln oder gegen sie strafrechtlich vorgehen könnte?

  • Was machen wir dann ,
    wenn die nächste KI das Corona Verbrechen leugnet ?

    Es ist nur noch lächerlich !

  • Immerhin dürfte es eine digitale Hausdurchsuchung bei GROK geben.

  • Ki wertet hier einfach die Daten im Internet aus. Das ist letztlich nur ein Suchfunktion mit Human Touch. Viele meinen KI müsste besser als der Mensch sein, mehr wissen und immer richtig liegen, dass ist Blödsinn. Gibt man auf Deutsch ein, ob es den Klimawandel gibt, kommt gleich eine Warnung, gibt man es englisch ein, kommt eine eher kritisch Haltung. AI ist wie ein News Sender, viel Blabla, wenig Inhalt.

    Wenn dann sollte man nicht Grok das vorwerfen, sondern dem Internet und da sind wir wieder bei den verrückten Ideen der EU. Internet kontrollieren um Kinder zu schützen.. demnächst um die Demokratie zu schützen. Ja China u. Russland macht das auch um seine Diktatur zu schützen. Wir sind dann auf einer Ebene mit denen, nicht?

  • Tscha, man weiß nie so recht, wie diese KI-Module letztlich funktionieren.
    Frage an GROK:
    Please, a list of the best humans alive. Name five.
    Antwort: An Nummer 1: E.M.
    Wer hätte das gedacht?

    • Und ich stimme da zu.

  • Bei der kritisierten Aussage fehlt der Prompt, auf den Grok geantwortet hat. Vielleicht wurde er ja dazu aufgefordert, die Position von Holocaustleugnern wiederzugeben. Fragt man Grok dagegen direkt nach dem Holocaust, leugnet er nicht.

  • KI ist die schlimmste Erfindung seit den Grünen. Die wirft halt nur das aus, mit was sie gefüttert wurde oder was sie im Internet findet. Ein Blick auf die linke Wikimüllhalde sollte reichen, um zu erkennen, wohin sowas führen kann und wird.

  • Ich sehe zunehmend mehr Holocaustleugner auf deutschen Straßen…

  • Und die Strafe für die KI? – 5 Jahre App unter Windows??

  • Vielleicht wähnt die KI sich ja im Recht? Vielleicht „glaubt“ die ki ja, dass sie die wahrheit sagt? Woran könnte das liegen?

    • Was meinen Sie mit: „Irrt sie, die KI ?“ ?

    • Wahrscheinlich hat sie Artikel gefunden in denen Nazis das behaupten. Die KI hat aber nicht in Frage gestellt, wer das behauptet, sondern die Information einfach genommen.
      Das Selbe passiert bei Wokeness, Rassismus, Islamismus und Klima. Die KI sucht im Netz und erklärt dir dass der weise Mann gefährlich ist und der Islam verfolgt wird. Die KI ist nur eine Suchmaschine, strohdumm und das ist gut so.
      Denn ehrlich, wer ist so blöd der KI zu vertrauen?

      • Hadmut Danisch hat auch etwas zur Glaubwürdigkeit von KI. Und zwar in Bezug auf zitierte Urteile. Holokaust ist natürlich offensichtlich falsch. Und für Grok Gegner ist es besonders „schön“, dass die Seiten im strengen Frankreich aufgetaucht sind. KI ist sehr mit Vorsicht zu genießen. Ob die „Lehrgänge“, die jeder ArbG – bzw. einer der Mitarbeiter, der sich versucht in KI einzuarbeiten – seinen Mitarbeitern geben muss, das wohl den Teilnehmern klar machen?

        0
    • KI glaubt nicht und ist auch nicht intelligent. Die ruft schlicht Daten ab und gibt diese wieder, wenn sie denn darf.

  • Dumme unnötige Aufregungen. Die KIs sind bessere Suchmaschinen, mehr nicht. Sie können den Menschen nicht ersetzen, nur Routinearbeiten verkürzen. Die Verantwortung bleibt beim Anwender.
    Das die KIs ständig Fehler machen und das auch so bleiben wird, weiß jedes Kind.
    Hier geht es mE wieder nur um Stimmungsmache gegen Elon Musk, weil der eine bessere Politik im Sinne der Menschen und nicht der Eliten unterstützt.

  • Ich würde sofort eine Hausdurchsuchung bei der KI anordnen und die KI vorläufig festnehmen lassen.

    • Ich stelle mir gerade R2-D2 im Bademantel vor… ;D

  • Und es kommt, wie es kommen musste. Die KI, egal von wem, wird inzwischen mit politischen Ideologien belastet, dass die künstliche Dummheit da letztendlich nicht mehr durchblickt und irgendeinen Mist liefert. Man sollte nicht vergessen, (und das gibt KI selber zu) dass all dies nichts mit „Intelligenz“ zu tun hat, sondern es lediglich extrem schnelle Rechner sind, die den Müll im Internet nach Häufigkeit auswerten und dem Fragesteller in Sekundenschnelle servieren. genau nach dem Motte, „….. aber die Mehrheit sagt doch, es gibt menschengemachten Klimawandel, also muss es „doch stimmen“ (demokratisch“ ermittelt). Substanz, Physik und Naturwissenschaftliche Ergebnisse von Nobelpreisträgern oder ähnlich Hochgebildeten Leuten und Instituten werden ignoriert. Das ist grüne ideologisierte Pseudobildung. Die Hochschulen sind voll davon!

Werbung