Bildnachweis: Reproduktion: Canva

Die Londoner U-Bahn testet KI-Tools zur Aufdeckung von Straftaten

Bei Tausenden von Menschen, die die Londoner U-Bahn nutzten, wurden ihre Bewegungen, ihr Verhalten und ihre Körpersprache durch eine Überwachungssoftware mit künstlicher Intelligenz (KI) überwacht – um zu überprüfen, ob sie Straftaten begingen oder sich in unsicheren Situationen befanden.

die Software von maschinelles Lernen Es wurde mit Live-Überwachungsaufnahmen kombiniert, um aggressives Verhalten und Waffen oder Messer zu erkennen und nach Personen zu suchen, die auf U-Bahn-Gleise fielen oder sich aus Gängen duckten.

WERBUNG

Von Oktober 2022 bis Ende September 2023 testete Transport for London (TfL), Betreiber des U-Bahn- und Busnetzes der Stadt, 11 Algorithmen, um Personen zu überwachen, die die U-Bahn-Station Willesden Green im Nordwesten Londons passieren.

Der Proof-of-Concept-Test ist das erste Mal, dass sich das Transportunternehmen zusammenschließt künstliche und Live-Videoaufnahmen, um Warnungen zu generieren, die an das Personal an der Front gesendet werden. Während des Tests wurden mehr als 44 Warnungen ausgegeben, von denen 19 in Echtzeit an das Stationspersonal übermittelt wurden.

Dokumente gesendet an VERDRAHTET als Antwort auf a Anfrage zum Informationsfreiheitsgesetz Erläutern Sie detailliert, wie TfL eine breite Palette von Computer-Vision-Algorithmen einsetzte, um das Verhalten der Menschen am Bahnhof zu verfolgen.

WERBUNG

Es ist das erste Mal, dass die vollständigen Details des Versuchs veröffentlicht wurden, und laut TfL wird der Einsatz der Technologie im Dezember ausgeweitet, um Tarifabweichungen zu erkennen Weitere Stationen in der britischen Hauptstadt.

Die teilweise geschwärzten Dokumente zeigen auch, wie die künstliche Intelligenz beim Testen Fehler machte, etwa indem sie Kinder, die ihren Eltern durch die Ticketschranken folgten, als mögliche Schwarzfahrer markierte.

Die Datenschutzexperten, die die Dokumente analysiert haben questionbin die Genauigkeit von Objekterkennungsalgorithmen. Sie sagen auch, es sei unklar, wie viele Menschen von dem Prozess wussten, und warnen davor, dass solche Überwachungssysteme in Zukunft leicht um ausgefeiltere Erkennungssysteme oder Gesichtserkennungssoftware erweitert werden könnten, die versucht, bestimmte Personen zu identifizieren. 

WERBUNG

Lesen Sie auch:

hochscrollen