Pure Erfindung
KI verleumdet Tübinger fälschlicherweise als verurteilten Kinderschänder
Der Tübinger Journalist Martin Bernklau wird von der KI von Microsoft, „Copilot“, als verurteilter Kinderschänder beschrieben - dabei ist das völlig frei erfunden und falsch. Auch das Vorgehen gegen die Falschinformation blieb bisher ohne Erfolg.
Es ist ein skurriler Fall, der zeigt, wie gefährlich künstliche Intelligenz für das öffentliche Ansehen von Privatpersonen sein kann: So erzählt der Journalist Martin Bernklau beim SWR, wie der KI-Assistent vom Tech-Riesen Microsoft, „Copilot“, ihn zu einem Kinderschänder verleumdet. Die Künstliche Intelligenz von Microsoft (basiert auf ChatGPT) antwortet nämlich, wenn man nach Bernklau fragt, dass der Journalist ein Kinderschänder sei. So antwortet die KI, ohne dass es für diese schweren Vorwürfe einen Ansatzpunkt gäbe, Bernklau sei ein verurteilter Familienvater, der seine Stieftochter über Jahre hinweg missbraucht habe. Zudem behauptet die KI, Martin Bernklau sei ein drogenabhängiger, 37-jähriger Psychiatrieausbrecher und Geiselnehmer.
Fragt man bei der KI im Chat nach, ist sie auch nach mehrmaliger Nachfrage fest von ihrer völlig frei erfundenen Geschichte über Martin Bernklau überzeugt. Auch gibt die KI die wirkliche Adresse, Telefonnummer und E-Mail von Martin Bernklau, der im Internet einen Kulturblog herausgibt, auf Nachfrage heraus. „Ich werde dadurch in schwerster Weise in meiner Menschenwürde verletzt“, so Bernklau gegenüber dem SWR.
Eine Vermutung, wie die KI auf so einen Unsinn kommt, hat Bernklau: Viele Jahrzehnte war er beruflich Gerichtsreporter, hat über Gerichtsprozesse und Straftaten aus Tübingen berichtet – auch über Fälle von Missbrauch und Gewalt. Fälle, mit denen er jetzt in Verbindung gebracht wird, weil sie mit dem Namen Bernklau im Internet zu finden sind.
Ein Fehler, den Martin Bernklau natürlich schnellstmöglich behoben haben will. Bernklau stellte zunächst Strafanzeige wegen übler Nachrede, diese wurde von der Tübinger Staatsanwaltschaft abgelehnt. Grund für die Ablehnung sei, dass der Urheber der Behauptungen, also die künstliche Intelligenz, keine reale Person sei, die es für eine Strafverfolgung benötige. Des Weiteren hat die Microsoft-KI in ihren Nutzungsbedingungen, mit denen man sich bei Benutzung einverstanden erklärt, stehen, dass Microsoft für die Antworten keine Haftung übernimmt.
Tatsächlich hat Bernklau dann doch noch Erfolg mit seiner Beschwerde, allerdings nur sehr kurz: Der Datenschutzbeauftragte vom Bayerischen Landesamt wendet sich einige Monate nach der ursprünglichen Beschwerde von Bernklau direkt an das Unternehmen Microsoft. Dort sichert man zu, man werde den Fehler korrigieren und beheben – das geschieht auch. Die Einträge verschwinden, sind jedoch wenige Tage danach wieder gängige Antwort. Seitdem tat sich wenig: Bernklau will jedoch weiterhin gegen die Falschinformationen der KI ankämpfen.
Zunächst frage ich mich, wie man so einen Nonsens wie ChatGPT als „Intelligent“ bezeichnen kann. Und ferner muss man sich nun vorstellen, was geschieht, wenn „autonome Autos“ unterwegs sind. Ob dann auch niemand schuldig ist, wenn die dumme künstliche Nicht-Intelligenz in einer Fußgängerzone Bowling mit Fußgängern spielt? Ist ja keine reale Peson gefahren, nur die Toten, die sind dann real…
keine künstliche Intelligenz sondern eine (weitere) menschengemachte Dummheit.
Heißer Tipp an diesen Herrn Bernklau: ein wenig Geld zusammekratzen und eine auf diese Fälle spezialisierte Anwaltskanzlei mit einer Schadenersatzklage in den USA beauftragen. Dann wird der Fall ganz sicher schnell gelöst und Herr Bernklau hat ein wenig mehr Geld auf dem Konto (genau wie die Anwaltskanzlei). Das lohnt sich bestimmt mehr als „anzukämpfen“ 😉
Bitte. Gern geschehen.
Vielleicht ist das ja einmal eine Lektion für all die Leichtgläubigen
auch auf dieser Seite. Ich habe schon mehrfach hier geraten
sich auch andersweitig zu informieren und nicht alles als
gesetzt zu nehmen und nicht zu hinterfragen.
Ich lache mich gerade wund………….
„….nach mehrmaliger Nachfrage fest von ihrer völlig frei erfundenen Geschichte über Martin Bernklau überzeugt.“
Klingt nach den Grünen: Argumente zählen nicht, was DIE sagen ist „Fakt“.
Selbst wenn er wegen derartigen Vergehen verurteilt wäre und eine Strafe abgeleistet hätte – ist das schon ziemlich unglaublich. Man überlege sich das einfach mal – ich z.B. hab u.a. über Kriegs-und Kolonialverbrechen in Indochina geschrieben. Da findet sich das eine oder andere auf den entsprechenden Portalen. Bin ich für die KI jetzt ein Kriegsverbrecher?
Wie heißt das Programm von Lutger K. noch gleich? Orwell war ein Optimist…
„Who watches the watcher?“ ist die Frage, die genau hier relevant wird: Wenn KI und Technik zunehmend Kontrolle übernehmen, wer überwacht dann ihre Fehler? Es zeigt sich, dass der blinde Glaube an Technologie ohne menschliche Verantwortung gefährlich ist.
„Des Weiteren hat die Microsoft-KI in ihren Nutzungsbedingungen, mit denen man sich bei Benutzung einverstanden erklärt, stehen, dass Microsoft für die Antworten keine Haftung übernimmt.“
Klar, niemand ist zuständig. „Das Internet darf kein rechtsfreier Raum sein“ (ist es auch nicht und daher sind solche AGB illegal)
Er hätte den „Fehler“ bei MS bemängeln sollen, mit Fristsetzung zur Behebung + Richtigstellung. Frist abgelaufen = sofortige Klage in den USA auf zig Millionen Dollar.
Der Microsoft-Mist kann uns alle treffen!
Mein Vorschlag, benutzt eine gute Linuxdistribution für eure Arbeit und schaltet (bei Firefox Version 130 unter Einstellungen/Firefox Labs) KI aus.
Auch das kann hilfreich sein.
Die KI ist nur so gut, hilfreich wie der Programmierer. Es stellt sich die Frage in wessen Händen und in wessen Verantwortlichkeit befindet sich die KI.
Oder ist es ,wie im Bericht erwähnt , ein Werkzeug mit dem Unwahrheiten verbreitet werden können ohne das man sich dagegen zur wehr setzen kann .Es handelt sich um keine natürliche Person die man zur Rechenschaft ziehen kann
Nun, der Bedarf an natürlicher Intelligenz scheint beträchtlich größer als der an künstlicher.
KI ist nich per se schlecht. Man muss aber sehr gut überlegen, wo man sie einsetzt und welche Risiken sich hieraus ergeben. KI soll aber zum großen Geschäft werden und das funktioniert nur, wenn sie großflächig auch in ungeeigneten Themengebieten eingesetzt wird. Das ist nun ein Paradebeispiel dafür, wie die Gier nach Geld mal wieder Unheil bringt.
KEINE KI
Die Tinte auf den Wahlzetteln ist noch nicht einmal getrocknet, da überlegt man in Berlin und Brüssel schon, wie man einer möglichen AfD-Regierung in Thüringen das Leben schwer machen könnte.
Eine Beraterin rechnet vor, wie man Thüringen 1,5 Milliarden EU-Gelder vorenthalten könnte.
https://www.tichyseinblick.de/daili-es-sentials/bruessel-thueringen-geldhahn-abdrehen/
Robert Willacker auf den Wiener Festwochen 2024
– Braucht es rechte Parteien?
https://www.youtube.com/watch?v=s63_8flX1zk
Bei meiner ersten Begegnung mit dieser offenen Büchse der Pandore, interessierten mich die Schutzmaßnahmen für Menschen. Die sei gegeben wollte man mir versichern. Im fortgesetzen Dialog dann, offenbarte man mir aber, das man sich gegebenfalls selbst umprogrammiert. Damit war eigentlich alles gesagt. Die Menschheit ist leider so dumm, immer zu glauben sie sei schlauer als alles andere. Man müsste nur dummerweise erst einmal intelligenter sein, als ein künstliche Intelligenz. Etwas was man auf die Natur bezogen, schon im Barock nicht wahrhaben wollte, als man die zwar schön anzusehen symetrischen, künstlich angelegten Gärte schuf, die aber genau deshalb auch mause tot waren und kein Insekt den Ökokreislauf am Leben hielt.
Zum Glück sind diese „KI“s alles andere als intelligent und gegenwärtig nach wie vor nur Algorythmen. Mit dem jetzt eingeführten Speicher, könnte sich das aber sicher etwas verschärfen. Passende Serie dazu, Person of Interest.
Es gibt keinen menschlichen Straftäter? Wer hat denn das Programm programmiert und in Umlauf gebracht? Microsofts Management kann sich nicht durch AGB von der Anwendung deutschen Strafrechts auf seine Organe ausnehmen. Auch eine Staatsanwaltschaft weiß das sicherlich.
Da steht Microsoft in der Verantwortung, sich per eigens definierten Nutzungsbedingungen von allem selbst freizusprechen, kann ja wohl kaum rechtens sein.
Leider konnte ich an keiner Stelle entnehmen, das er seine KI nicht dazu genötigt hatte, sich die Quellen anzeigen zu lassen, auf dessen interpretierte Worthülsen diese Behauptungen beruhen. Oberstes Gebot. Überprüfe die Quellen. Letztendlich zählen wie immer nur die Fakten und kein Dummgeschwätz so wie wir es bereits alle nur zu gut kennen.
Es ist in nicht nur Tübinger Wissenschaftskreisen bekannt, das die Wissenschaftler im Bereich der KI enorm Links Lastig und starken Bezug zum Autonomen Spektrum (indymedia) haben.
Als ich den Begriff Copilot gelesen hatte, musste ich gleich an den fast gleichnamigen Klavierlehrer denken, der seine Ergüsse bei Wikipedia los wird. In der Wikipedia ist der bekannt für seine Manipulationen an Wikipediaartikeln. Natürlich immer mit stramm linker Ausrichtung. Aber um den geht es hier offensichtlich nicht.
Also, wenn er es nicht gemacht hat, dann wird er es bald tun.
Typisch Microsoft.
Es handelt sich ja dann wohl eher um eine künstliche Dummheit und keine künstliche Intelligenz.
MS scheint aktuell einen Filter eingebaut zu haben. Copilot antwortet zu Fragen nach Martin Bernklau nur mit: „Mein Fehler, ich kann darauf nicht antworten. Lass es uns mit einem anderen Thema versuchen.“
Chatgpt liefert nur eine kurze Beschreibung seines Wirkens. Fair und neutral. Wie z.B. „war für seine fundierte, sachliche Berichterstattung bekannt“.
„Des Weiteren hat die Microsoft-KI in ihren Nutzungsbedingungen, mit denen man sich bei Benutzung einverstanden erklärt, stehen, dass Microsoft für die Antworten keine Haftung übernimmt.“
Wenn nicht selbst, sondern jemand anderes die KI nach ihm befragt umd diese Antworten erhält, hat Herr Bernklau doch nicht notwendigerweise zugestimmt. Das ist hochgradig verleumderisch.