Alles eine Frage der Perspektive: Wenn Muster zu kurz greifen, um komplexe Situationen zu erfassen

13.06.2024|Christian Kreutz

Fahrerlose Züge sind seit vielen Jahren im Einsatz, zumindest auf kurzen Strecken. Aufgrund der vorhersehbaren Bewegungsmuster kann ein regelbasierter Algorithmus einen Zug effizient steuern. Das autonome Autofahren stellt jedoch eine völlig andere Herausforderung dar, da jederzeit unvorhergesehene Situationen auftreten können, die im Modell nicht berücksichtigt wurden. In San Francisco blockierten autonome Autos sogar Zufahrten, als sie mit einer unerwarteten Notsituation konfrontiert wurden, die sie nicht bewältigen konnten.

Das Wired-Magazin veröffentlichte einen fesselnden Artikel über ein Projekt zur Überwachung der Sicherheit in der Londoner U-Bahn. Im Laufe eines Jahres testete die Londoner Verkehrsgesellschaft an einer U-Bahn-Station 11 Modelle der künstlichen Intelligenz, die darauf ausgelegt waren, Verstöße gegen das Verhalten zu erkennen, die von Überwachungskameras erfasst wurden, wie z. B. Verstöße gegen die Ticketkontrolle, Vandalismus oder persönliche Angriffe.

Die Identifizierung einer Umgehung einer Ticketkontrolle ist relativ einfach, aber die Klassifizierung von "falschem" Verhalten ist eine weitaus komplexere Aufgabe. Eine Person legt kurzzeitig ein Blatt Papier an die Wand, um etwas darauf zu schreiben - dies könnte einen falschen Graffiti-Alarm auslösen. In ähnlicher Weise könnten Jugendliche, die tanzen und sich gegenseitig spielerisch schubsen, während sie Musik hören, einen falschen Alarm wegen Bandenkriminalität auslösen.

Während des einjährigen Tests wurden mehr als 44.000 Warnmeldungen generiert, von denen 19.000 in Echtzeit an das Stationspersonal übermittelt wurden. Das entspricht 50 bis 120 Warnmeldungen pro Tag für eine einzige U-Bahn-Station. Es wäre interessant, die Auswirkungen einer so hohen Anzahl von Warnmeldungen auf die Arbeitsbelastung zu untersuchen, insbesondere wenn man bedenkt, dass London über 250 U-Bahn-Stationen verfügt.

Folglich kam es zu zahlreichen Fehlalarmen. Um die Mustererkennungsfähigkeiten des Systems zu verbessern, stellten sie fest, dass viele potenzielle Szenarien nicht in das Modell integriert waren. Ironischerweise posierten Sicherheitskräfte an einem Punkt sogar mit Waffen vor den Kameras, um die Modelle zu trainieren. Es wäre faszinierend zu erfahren, welche Arten von Szenen sie inszenierten, um eine realistische Darstellung zu gewährleisten.

Es bleibt die Frage, ob dieser Ansatz die Sicherheit in U-Bahn-Stationen tatsächlich verbessern und es Polizeibeamten ermöglichen wird, schnell zu reagieren. In einer Welt mit einer zunehmenden Anzahl von Kameras scheint deren Hauptzweck eher darin zu bestehen, Verbrechen zu dokumentieren als sie zu verhindern.