Werbung:

Werbung:

England

Weil sie häufiger schwarze Straftäter erkennen würden: Polizei von Essex pausiert Verwendung von Live-Gesichtserkennungskameras

Weil Live-Gesichtserkennungskameras häufiger schwarze Menschen korrekt identifizieren, hat die Polizei von Essex deren Verwendung vorerst pausiert. Man wolle mit dem Softwareanbieter zusammenarbeiten, um das System zu überprüfen.

Ein Polizeiauto mit Gesichtserkennungskamera in Cardiff. (IMAGO/Depositphotos)

Werbung

Die Polizei in der Grafschaft Essex, im Osten Englands, hat die Verwendung von Live-Gesichtserkennungskameras pausiert. Denn die Kameras würden häufiger schwarze Menschen korrekt identifizieren, wie eine Studie im Auftrag der Polizei ergab. Die Kameras sollen gesuchte Straftäter identifizieren. Ein Grund dafür könnte das „Übertraining des Algorithmus auf Gesichter schwarzer Menschen“ sein, wie der Guardian am Freitag berichtet. Die Polizei will nun die Software gemeinsam mit dem Anbieter überprüfen.

Die Polizei beauftragte die Universität von Cambridge damit, eine Studie durchzuführen. 188 Probanden liefen an Gesichtserkennungskameras vorbei, die fest auf Polizeiwagen in Chelmsford installiert waren. Die Ergebnisse wurden vergangene Woche veröffentlicht. Rund die Hälfte der Personen, die auf einer Beobachtungsliste standen, wurden korrekt identifiziert. Fehlidentifikationen waren äußerst gering. Männer wurden häufiger als Frauen korrekt identifiziert, und es war „statistisch signifikant wahrscheinlicher, dass schwarze Teilnehmer korrekt identifiziert wurden als Teilnehmer aus anderen ethnischen Gruppen“, wie es in den Studienergebnissen heißt.

Das Ergebnis werfe „Fragen zur Fairness auf, die eine kontinuierliche Überwachung erfordern“, heißt es weiter in der Studie. Es wird empfohlen, die Ergebnisse im Hinblick auf demografische Gruppen zu überprüfen, um eine „faire Nutzung sicherzustellen“. Einer der Studienautoren, der Kriminologe Matt Bland, sagt gegenüber dem Guardian: „Wenn Sie als Straftäter an Gesichtserkennungskameras vorbeigehen, die so aufgestellt sind wie in Essex, ist die Wahrscheinlichkeit, als auf einer polizeilichen Beobachtungsliste stehend identifiziert zu werden, größer, wenn Sie schwarz sind.“

Live-Gesichtserkennungskameras werden derzeit von 13 Polizeikräften in London, Nord- und Südwales, Leicestershire, Northamptonshire, Hampshire, Bedfordshire, Suffolk, Greater Manchester, West Yorkshire, Surrey und Sussex verwendet. Nachdem die Studienergebnisse bekannt wurden, forderte die Polizei von Essex die anderen Polizeieinheiten auf, entsprechende Maßnahmen zu ergreifen.

Delivered by AMA

Die Kameras sind entweder an bestimmten Orten fest installiert oder auf Polizeiwagen montiert, sodass sie mobil eingesetzt werden können. Im Januar kündigte Innenministerin Shabana Mahmood an, die Zahl der LFR-Einsatzfahrzeuge werde sich verfünffachen, wobei jeder Polizeibehörde in England und Wales 50 Fahrzeuge zur Verfügung stehen sollen. In London gab es von Januar 2024 bis September 2025 durch die Kameras rund 1.300 Verhaftungen von Straftätern, denen unter anderem Vergewaltigung, schwere Körperverletzung oder häusliche Gewalt vorgeworfen wurde.

Werbung

Ihre E-Mail-Adresse wird nicht veröffentlicht.

Strafbare Inhalte, Beleidigungen oder ähnliches sind verboten (hier unsere Kommentar-Richtlinien). Kommentare sind auf maximal 1.000 Zeichen limitiert.

43 Kommentare

  • Die Kameras arbeiten perfekt, nur das Ergebnis will man aus ideologischen Gründen nicht haben !!

  • Fragen die sich auch mal, warum die Kameras vermehrt schwarze Straftäter erkennt, evtl. weil sie häufiger vorkommen???…neenee das ist ja Quatsch…

    • Neulich in den USA:
      – In den Gefängnissen sitzen überproportional viele Schwarze ein.
      Woke sagt: Die Gesetze sind rassistisch.
      – Im Fach Mathematik fallen überproportional viele Schwarze durch.
      Woke sagt: Mathe ist rassistisch.
      Hört sich an wie ein Witz, ist aber keiner – was soll man dazu noch sagen.

      • Kognitive dissonanz halt..

    • Aus meiner Sicht die einzig denkbare Erklärung: Sie verüben mehr Straftaten

      • nein nein nein… was nicht politisch sein soll, DARF auch nicht sein.

        da ist bestimmt die Software defekt oder der Programmierer hat da manipuliert….
        oder dieser elon musk klickt da rein..

        vielleicht ist auch der Klimawandel schuld…die Wärme beeinflusst die Elektronik der Kameras und so erkennt die Bleichgesichter schlechter als „bunte Haut“..🤣
        kann man sich echt nicht mehr ausdenken, den Wahnsinn.

        • Genau, der Programmierer ist ein Rassist…

          6
    • Es kann auch sein das man für das Gesichtserkennungsmodell mehr nicht weiße als Trainingsmaterial genutzt hat und sie jetzt halt besser funktioniert bei nicht weißen als bei weißen. Woran es liegt das man mehr nicht weißes Trainingsmaterial hat das lasse ich mal offen für Interpretation

    • Das war mein erster Gedanke. Dem Test ist zumindest im Artikel nicht zu entnehmen, dass er wissenschaftlich durchgeführt wurde. „188 Personen verschiedener Ethnien“ hat so viel Aussagekraft wie „188 Honige waren süß“.
      Jedenfalls ist die Software meinen Fähigkeiten als Mitteleuropäer weit voraus. Schwarze und Asiaten erkenne ich schon nach einer Stunde nicht wieder. Sie brauchen mindestens ein markantes Merkmal, wie z.B. eine Narbe, ein Tattoo, Zwergenwuchs oder die Elefantenkrankheit. Mich könnte man ein Fahndungsfoto stundenlang angucken lassen, wenn derjenige vor mir stünde, ich würde ihn nicht erkennen. Für mich sehen solche Ethnien alle gleich aus.

  • Wenn die Tapete nicht zur Borte passt. Oder Realitätsverweigerung für Anfänger… .

  • Sobald die Sonne untergegangen ist, sind Weiße im Nachteil… und jetzt?

    • Demo gegen rechts!

  • Selbst wenn es so wäre, daß schwarze Täter von den Kameras mit höherer Wahrscheinlichkeit identifiziert werden können als weiße, spricht doch nichts gegen die Verwendung der Kameras. Stellen wir uns mal 10 Messerangreifer vor, 5 schwarze und 5 weiße. Die Kameras identifizieren von den schwarzen 3 und von den weißen 1. Sollen jetzt 4 Täter laufengelassen werden, bis die Kameras antirassistisch sind? Selbstverständlich muß alles unternommen werden, daß die Kameras insgesamt besser beim Identifizieren werden, aber das ist doch vom Einsatzzweck der Kameras zu unterscheiden.

  • Schaltet die Kameras einfach dauerhaft aus, dann gibt es überhaupt keine Täter mehr! 🤣

    So ist das halt wenn sich vermeintliche „Vorurteile“ plötzlich in der gesamten westlichen Welt millionenfach zu belegbaren Tatsachen bestätigen. Einfach die Realität abschalten und weiter gegen Rechts demonstrieren, so lange, bis die Realität einen endlich selbst in den Allerwertesten beißt!

  • Wäre doch einfacher, die Bilder im nega-tiv Modus aufzunehmen.

  • Da „Schwarze, People of Colors“ oft aus den verschiedensten Ländern kommen, dürfte die Physiognomie vielfältiger sein, und damit für die Software eindeutiger. Mehr steckt nicht dahinter ….

  • Ach so, schwarze Straftäter sollen also nicht erkannt werden. Das ist Rassismus gegen Weiße.

  • Häh? Wie jetzt? Verstehe ich jetzt nicht.

  • Häufiger als was?

  • Mannomann!
    Die Kameras sehen wohl nur noch schwarz …

  • Amüsanter Fakt: Black Lives Matters und andere reklamieren dagegen, dass die Foto- und Kameratechnik so konstruiert sei, dass von dunkelhäutigen Menschen keine wirklich differenzierten Bilder aufgenommen werden könnten. Fototechnik sei rassistisch, da von Weißen rücksichtslos so konstruiert. Hmmm…

    Wie man´s macht, es ist bestimmt irgendwie rassistisch 😉

  • Ich denke, das ließe sich aus Statistiken und dem „I“ in KI erklären. Wie ich die menschliche Intelligenz vermisse …

  • Tja, die Revolution frisst ihre Kinder……

  • Macht die Augen zu , dann wird es auch “ schwarz vor Augen „

  • …. tja, dann gehören die Beamten suspendiert, ein Diszi eingeleitet udn vor Gericht gestellt – wegen Strafvereitlung, und das auch noch im Dienst….

  • Immer diese doofe Realitöt

  • Die unverzerrte Abbildung der Realität ist rassistisch.

    Dagegen muss man etwas tuuun!

  • Also will man etwaigen Straftätern mit schwarzer Hautfarbe aus Gerechtigkeitsgründen im gleichen Maße ermöglichen, unerkannt an einer Kamera vorbeizuschlüpfigen wie anderen…. Interessantes Verständnis von Gerechtigkeit….

  • Das sind doch bestimmt rassistische Algorithmen… 😂 🤣😂 🤣

  • Vielleicht würde das mit Gesinnungserkennungskameras besser gegen die eigene Bevölkerung laufen, Das wäre jetzt mal meine Empfehlung. Ganz sicher aber bin ich mir, dass es von niemandem problematisiert würde, wenn dabei dann überwiegen „weiß gelesene“ Person*innen auffallen würden.

  • England wird zum neuen Afganisten

  • Natürlich bemühen sich schwarze Menschen mehr als weiße.
    Oder verstehe ich da was falsch?

  • Kann die Software keine Chinesen, weil die alle gleich aussehen?

Werbung