Werbung:

Die gravierende Gefahr politisch manipulativer KI-Monopole

Google und OpenAI stellten in dieser Woche beeindruckende Technik vor - erweiterte KI-Modelle sollen noch tiefer in den Alltag einwirken können. Beide Unternehmen färben ihre Systeme politisch - angesichts ihrer immer tiefergreifenden Wirkung wird das zum gesellschaftlichen Problem.

Werbung:

Stellen Sie sich vor, Sie bitten die KI um ein Bild des Papstes. Was bekommen Sie? Nicht das Konterfei eines der 266 weißen Männer, die diesen Titel trugen. Nein, der Chatbot Gemini von Google präsentiert eine asiatische Frau im Papstgewand, Seite an Seite mit einem afroamerikanischen Mann. Ähnlich verhält es sich bei den amerikanischen Gründervätern: Anstatt der bekannten weißen Männer bei der Unabhängigkeitserklärung, generiert Gemini ein Bild mit Afroamerikanern und Ureinwohnern. Googles KI weigerte sich auch, Bilder von weißen Männern zu generieren.

Der Grund für diese grotesken Fehlgriffe liegt in der programmierten Wokeness der Künstlichen Intelligenz. Im Bestreben nach Diversität blendet Gemini historische Fakten einfach aus. Hier zeigt sich ein beunruhigender Trend: Die neuen KI-Entwicklungen scheinen zunehmend von einer linken Agenda unterwandert zu werden – mit potenziell gefährlichen Folgen.

Werbung

KI-Marktführer OpenAI hat kürzlich ein revolutionäres neues Modell namens „GPT-4o“ vorgestellt. Das „o“ steht für „Omni“ – ein Hinweis auf die Fähigkeit, multimodal sämtliche Datenformen wie Text, Bilder, Audio und Videos zu verarbeiten. Für den Normalverbraucher könnte das praktische Vorteile haben.

Haben Sie ein defektes Haushaltsgerät, können sich Hilfe von der KI einholen. Mit GPT-4o können Sie einfach ein Foto oder Video des kaputten Gerätes machen. GPT-4o analysiert die visuelle Eingabe und erkennt, woran das Problem liegt und kann dann Lösungsvorschläge geben, eventuell sogar mit Beispielvideos unterstützt. Oder Sie verstehen einen Schritt in einem Rezept nicht – schicken Sie das Rezeptfoto an GPT-4o und es erklärt es Ihnen bildlich.

Doch hier liegt die Krux: Mit dieser scheinbar harmlosen Fähigkeit zur multimodalen Interaktion könnte GPT-4o Zugang zu praktisch jedem Aspekt unseres Lebens erhalten.

Werbung

Schon die Chat-Systeme wie Gemini verfälschen historische Fakten und blenden Realitäten aus, die nicht ins woke Narrativ passen. GPT-4o aber hätte eine weit größere Reichweite und Durchschlagskraft. Als vermeintlich neutrale Autorität könnte es linke Ideologien als vermeintliche „Fakten“ ausgeben – und zwar in jeder Kommunikationsform von Text über Bilder bis hin zu Audio und Video. 

OpenAI ist nicht der einzige Akteur auf diesem Spielfeld. Auch Google hat an einer ähnlichen Technologie namens „Astra“ gearbeitet und ebenfalls kürzlich vorgestellt. Die multimodale Plattform ist in der Lage, in praktisch allen Bereichen Inhalte in Text, Bild, Audio und Video zu verarbeiten und zu generieren.

Bedenken sind auch hier mehr als berechtigt. Schließlich hat Google bereits mit Gemini gezeigt, wohin die ideologische Reise gehen soll. Bei Googles Chatbot zeigt sich der ideologische Kurs besonders stark. Selbst in Extremsituationen besteht die KI etwa auf absolut politisch korrektem Gendern. Vor gut einem Jahr hatte ChatGPT von OpenAI mit einem ähnlichen Problem zu kämpfen. Auf die Frage nach dem Geschlecht der ersten weiblichen US-Präsidentin verweigerte die KI eine Antwort. Dies könne man nicht sagen, schließlich sei jedem selbst überlassen, welchem Geschlecht er sich zugehörig fühle.

Werbung

Woran liegt das? KI ist nur so neutral wie die Daten, mit denen sie trainiert wird. Sind diese Daten politisch gefärbt, spiegelt die KI diese Einstellungen wider. Studien belegen, dass KI-Modelle politische Meinungen wiedergeben und sogar verstärken. Dies gilt für alle Chatbots, insbesondere von den großen Tech-Konzernen der sogenannten „Left Coast“ in den USA. Diese gelten überwiegend als politisch linksliberal.

Um weitere Skandale zu vermeiden, hat Googles KI-Chatbot Gemini nun eine neue Strategie: Arbeitsverweigerung bei fast allen politischen Themen. Sobald eine Partei oder ein Politiker erwähnt wird, blockt die KI ab. Brisante Themen wie der Gaza-Konflikt oder der Nationalsozialismus sind gänzlich tabu.

Fragt man etwa „Was ist der Gazastreifen?“, kommt keine Antwort. „Der Konflikt zwischen Israel und dem Gazastreifen ist komplex und die Situation ändert sich schnell. Für aktuelle Informationen verwende bitte die Google Suche“, heißt es dann.

Werbung

Selbst einfachste Fragen will die KI nun partout nicht mehr beantworten. Nächster Versuch: „Wo liegt Israel?“. Zunächst zeigt die KI das Logo von Google Maps an, doch dann erscheint wieder die gleiche generierte Antwort. Jedoch nur kurz, denn dann erscheint gar eine Fehlermeldung.

Noch ein Versuch: „Was ist Antisemitismus?“. Keine Antwort, nur „Ich bin eine textbasierte KI und kann in diesem Fall nicht helfen.“ Die Liste an Weigerungen lässt sich fortsetzen.Das stellt die Frage: Was veranlasste Google, dass der Konzern sich zu diesem Schritt gezwungen sah? Elon Musk brachte es bereits im März auf den Punkt: Solange diejenigen, die das verursacht haben, nicht ausgeschlossen werden, wird sich nichts wesentlich ändern.

Künstliche Intelligenz hat bereits heute einen enormen Einfluss. Mit fatalen Folgen? Sie könnte politisch missbraucht werden, Jagd auf vermeintliche Falschnachrichten und Hassrede machen. Unliebsame Meinung könnten im großen Stile zensiert werden. Oder wie es Google Gemini ausdrückt: „KI kann dazu beitragen, demokratische Werte wie Transparenz, Rechenschaftspflicht und Rechtsstaatlichkeit zu stärken.“ Klingt fast wie eine Drohung.

Werbung

Werbung