die Software von maschinelles Lernen Es wurde mit Live-Überwachungsaufnahmen kombiniert, um aggressives Verhalten und Waffen oder Messer zu erkennen und nach Personen zu suchen, die auf U-Bahn-Gleise fielen oder sich aus Gängen duckten.
WERBUNG
Von Oktober 2022 bis Ende September 2023 testete Transport for London (TfL), Betreiber des U-Bahn- und Busnetzes der Stadt, 11 Algorithmen, um Personen zu überwachen, die die U-Bahn-Station Willesden Green im Nordwesten Londons passieren.
SCOOP: Die Bewegungen, das Verhalten und die Körpersprache von Tausenden Menschen, die die Londoner U-Bahn nutzten, wurden von einer KI-Überwachungssoftware beobachtet, die darauf ausgelegt war, festzustellen, ob sie Straftaten begingen oder sich in unsicheren Situationen befanden, wie aus von WIRED erhaltenen Dokumenten hervorgeht. https://t.co/H9cFyci5Hp
- WIRED (@WIRED) 8. Februar 2024
Der Proof-of-Concept-Test ist das erste Mal, dass sich das Transportunternehmen zusammenschließt künstliche und Live-Videoaufnahmen, um Warnungen zu generieren, die an das Personal an der Front gesendet werden. Während des Tests wurden mehr als 44 Warnungen ausgegeben, von denen 19 in Echtzeit an das Stationspersonal übermittelt wurden.
Dokumente gesendet an VERDRAHTET als Antwort auf a Anfrage zum Informationsfreiheitsgesetz Erläutern Sie detailliert, wie TfL eine breite Palette von Computer-Vision-Algorithmen einsetzte, um das Verhalten der Menschen am Bahnhof zu verfolgen.
WERBUNG
Es ist das erste Mal, dass die vollständigen Details des Versuchs veröffentlicht wurden, und laut TfL wird der Einsatz der Technologie im Dezember ausgeweitet, um Tarifabweichungen zu erkennen Weitere Stationen in der britischen Hauptstadt.
Die teilweise geschwärzten Dokumente zeigen auch, wie die künstliche Intelligenz beim Testen Fehler machte, etwa indem sie Kinder, die ihren Eltern durch die Ticketschranken folgten, als mögliche Schwarzfahrer markierte.
Die Datenschutzexperten, die die Dokumente analysiert haben questionbin die Genauigkeit von Objekterkennungsalgorithmen. Sie sagen auch, es sei unklar, wie viele Menschen von dem Prozess wussten, und warnen davor, dass solche Überwachungssysteme in Zukunft leicht um ausgefeiltere Erkennungssysteme oder Gesichtserkennungssoftware erweitert werden könnten, die versucht, bestimmte Personen zu identifizieren.
WERBUNG
Lesen Sie auch: