Polizeiroboter spähen Informationen aus

Die Polizeiroboter von Knightscope scheinen direkt aus den Starwars-Filmen entsprungen zu sein. Sie sehen niedlich und knuffelig aus. In sozialen Medien sind sie der Hit und Millionen Menschen haben bereits Selfies mit den Mini-Robocops geschossen.

Es gibt unterschiedliche Modelle der autonomen Security Roboter (ASR) für den Einsatz stationär (K1), innerhalb von Gebäuden (K3), draußen (K5) und Multi-Terrain (K7). Gesteuert werden sie über das Knightscope Security Operation Center (KSOC).

Die kleinen und unscheinbaren Roboter können Gesichter erkennen und die Daten von elektronischen Geräten auslesen. Das Unternehmen erklärt das Leistungsspektrum: „Wenn ein Gerät, das ein Wi-Fi-Signal aussendet, innerhalb eines Radius von fast 500 Fuß an einem Roboter vorbeikommt, werden verwertbare Informationen von diesem Gerät erfasst, einschließlich Informationen wie: Wo, wann, Entfernung zwischen Roboter und Gerät, die Dauer, in der sich das Gerät in dem Bereich aufhielt, und wie viele andere Male es in letzter Zeit vor Ort erkannt wurde.

Durch maschinelles Lernen hat Knightscope seine webbasierte Software mit Millionen von Bildern von Menschen trainiert, so dass die ASRs nun Menschen erkennen, in einigen Fällen besser als Menschen andere Menschen erkennen können. Darüber hinaus können ASRs bei der Erkennung einer verdächtigen Person automatisch abschreckende Nachrichten senden, entweder nach Ort oder nach Tageszeit, wenn der Kunde dies wünscht. Dies dient als viel stärkere Abschreckung und zeigt Kriminellen, dass diese Maschine weiß, dass es sich um einen Menschen handelt und dass sie den Bereich verlassen müssen.“

Aber die Electric Frontier Foundation ist alles andere als begeistert und wittert ein Desaster für den Datenschutz sowie Rassismus: „Das maschinelle Lernen eines Roboters und die so genannte Erkennung verdächtigen Verhaltens wird zu Rassenprofilen und anderen unbegründeten Belästigungen führen. Dies wirft die Frage auf: Wer wird gemaßregelt, wenn ein Roboter eine unschuldige Person unberechtigterweise belästigt oder die Polizei auf sie hetzt? Der Roboter selbst? Die Menschen, die den Roboter trainieren oder warten? Wenn staatliche Gewalt auf eine Person losgelassen wird, weil ein Roboter sie fälschlicherweise als verdächtig eingestuft hat, ist es für ein Opfer, das hofft, dass so etwas nicht noch einmal passiert, ein schwacher Trost, die Programmierung des Roboters zu ändern und ihn dann wieder auf die Straße zu schicken. Und wenn Programmierfehler einen Schaden verursachen, wer wird dann die Änderungen überprüfen, um sicherzustellen, dass sie das wirkliche Problem beheben können?“

Kollaborationsplattform Slack: Effizient arbeiten – egal von wo

Leave a Comment

Your email address will not be published. Required fields are marked *