Smart Security – Mauer aus Algorithmen
Lesen Sie alle Artikel unserer Reihe über das Internet der Dinge!
Nicht nur Durchschnittsbürger.innen und Unternehmen nutzen „intelligente“ Geräte. Längst haben auch Behörden und staatliche Stellen deren Potential entdeckt. Immer häufiger wird „smartes“ zur Sicherung von Menschen, Staaten und Grenzen eingesetzt. Hinter „Smart Security“ verbirgt sich der Wunsch, mithilfe von technischen Systemen Menschen zu überwachen, sodass sie sich weniger kriminell verhalten. Die Industrie ist bereit, diesen Traum umzusetzen, auch wenn die gewonnene „Sicherheit“ einen hohen Preis hat...
Inhalt
1. Was ist Smart Security?
2. Wo stehen wir aktuell?
3. Welche Daten werden gesammelt?
4. Wo liegen die Gefahren?
5. Fazit
Weiterführende Links
1. Was ist Smart Security?
„Smart Security“ beruht weniger auf einzelnen „smarten“ Geräten, sondern mehr auf statistischen Aussagen aus großen Datenbeständen. Algorithmen bewerten Personen und deren Verhalten mithilfe von Vergleichen der bereits erfassten Datenbestände daraufhin, ob diese ein mögliches Sicherheitsrisiko darstellen. Die Ziele von „Smart Security“ sind, die Sicherheit zu erhöhen, Kosten zu senken und den zeitlichen Aufwand für „ehrliche“ Personen bei Kontrollen und Ähnlichem zu verringern.
2. Wo stehen wir aktuell?
Aktuell befinden sich noch viele Systeme in der Entwicklung. Aber es gibt bereits einzelne Komponenten von Systemen sowie vollständige Anwendungenen, die in Betrieb sind. Körper- oder auch Nacktscanner an Flughäfen sind das erste weit verbreitete Beispiel für „smarte“ Sicherheit.
Digitalcourage-Newsletter abonnieren und ständig auf dem Laufenden bleiben.
Ein Beispiel für ein „smartes“ Sicherheitsprojekt ist „ADABTS“. Das Programm zur „Automatic Detection of Abnormal Behaviour and Threats in crowded Spaces“ soll dem europäischen Bedarf an einer höheren Sicherheit gegen vorsätzliche Bedrohungen gerecht werden. Das System soll Sicherheitspersonal helfen, das an einer großen Anzahl Monitoren eine riesige Zahl an Bildern von Überwachungskameras überblicken muss. Die Software soll „ungewöhnliches“ Verhalten durch verschiedenste Analysen (beispielsweise des Verhaltens, von Laufwegen und Augenbewegungen) erkennen und auf einen großen Bildschirm übertragen, sodass die Aufmerksamkeit des Sicherheitspersonals erregt wird. Dadurch kann gezielt eine besonders auffällige Situation überwacht und im Notfall auf sie reagiert werden. Man braucht keine hellseherischen Fähigkeiten zu besitzen, um erkennen zu können, dass in Zukunft auch Eingriffe automatisiert werden, wenn die Zivilgesellschaft nichts dagegen tut. Dann kann das Programm bei Sichtung einer Gefahrensituation direkt die zuständigen Stellen alarmieren. Vorstellbar wird dann auch, Überwachungskameras mit Taserwaffen auszurüsten, sodass nicht länger eine menschliche Person in den Prozess der Gefahrenerkennung und -abwehr involviert sein müsste.
3. Welche Daten werden gesammelt?
Die gesammelten Daten sollen dazu dienen, Rückschlüsse auf die Gefährlichkeit einer Person zu erlauben. Dazu werden Geschlecht, Haarfarbe, Hautfarbe, Herkunft, Kleidung und viele weitere Merkmale herangezogen. Zusätzlich kann auch das Verhalten einer Person während einer Sicherheitskontrolle oder in einer beliebigen Menschenmenge aufschlussreich sein.
Im Rahmen von Sicherheitskontrollen wird häufig ebenfalls die Vorgeschichte einer Person miteinbezogen. Unter anderem, welche Länder ein Mensch im Vorfeld bereist hat, ob er schon einmal bei Kontrollen aufgefallen oder womöglich vorbestraft ist.
Diese Informationen können dabei aus einer Vielzahl an Quellen stammen und zusammengeführt werden: das Melderegister des Staates, Informationen von Geheimdiensten, Datenbanken aus bereits durchgeführten Kontrollen und viele mehr.
Auf Grundlage dieser Daten werden Menschen bewertet und unterschiedlich behandelt. Aber wie verlässlich sind diese Methoden und sind sie mit unseren Grundrechten vereinbar?
4. Wo liegen die Gefahren?
Alle Ergebnisse, die Algorithmen liefern, sind Wahrscheinlichkeiten. Auch wenn das Programm „gefährlich“ oder „nicht gefährlich“ als Resultat liefert, ist diese Aussage nur eine Prognose. Es besteht immer die Möglichkeit, dass die Ausgabe des Programms „falsch“ ist.
Die Sicherheitssysteme stammen oft von unterschiedlichen Herstellern, deren Ergebnisse sich auf verschiedene Algorithmen stützen. Dies kann schließlich dazu führen, dass ein und dieselbe Person unterschiedlich eingestuft wird. Doch welches System hat in einem solchen Fall recht? Welches wird beachtet; sollten zwei Einstufungen völlig Gegensätzliches behaupten?
Wir setzen uns für Ihre Privatsphäre und Grundrechte ein. Werden Sie Fördermitglied bei Digitalcourage.
Die verarbeiteten Daten finden sich in langen Tabellen innerhalb großer Datenbanken. Sie werden einheitlichen Kategorien zugeordnet, um eine Einstufung stets aufgrund von vergleichbaren Parametern treffen zu können. Die Daten werden so in Formen gepresst und stigmatisiert. Menschen werden also ausgehend von Daten, die aus dem Kontext gerissen wurden, bewertet und danach behandelt, zum Beispiel genauer beobachtet oder gar observiert.
Genügt ein zurückliegender Urlaubsaufenthalt in einem – beispielsweise arabischen – Land, um mich zukünftig als eine höhere Gefahr einzuschätzen?
Was ist mit Daten, die nicht nur aus dem Kontext gerissen, sondern schlicht falsch sind? Wenn in einer Datenbank, die für Sicherheitschecks verwendet wird, falsche Informationen über eine Person hinterlegt sind, führt dies zu irreführenden Bewertungen und „false positives“ (also einen Treffer, der sich als falsch herausstellt). Meistens gibt es keine Möglichkeit, herauszufinden, ob es falsche Informationen sind, die über eine Person bekannt sind, geschweige denn eine Änderung an diesen vornehmen zu lassen. Wird eine Person in Zukunft wegen besagter Falschinformation negativ bewertet?
Viele Parameter, die zur Einstufung einer Person betrachtet werden, sind mit Vorurteilen belastet und verstärken diese zudem noch. Denn, da die Einschätzung des Gefährdungspotentials auch oft vom äußeren Erscheinen abhängt, sind Rassismus, Sexismus und somit eine negativ konnotierte Generalisierung von Menschengruppen nicht auszuschließen.
Die heute angewandten Big-Data-basierten Personalisierungsverfahren schaffen vielmehr das Problem zunehmender Diskriminierung. (Spektrum Digital-Manifest S. 39)
Um eine Person oder eine Situation zu bewerten zu können, braucht ein automatisches System eine Datenbasis. Für eine Bewertung muss vorgegeben werden, welche Merkmale als „gefährlich“ und welche „gefährlicher“ als andere einzustufen sind. Sind alle Leute verdächtig, die sich nicht wie die Mehrheit oder sich nicht „normal“ verhalten? Ist es bedrohlicher, wenn jemand an einem Ort rennt, an dem dies nicht üblich ist, oder wenn Schreie ertönen? Wer definiert diese Merkmale und deren „Bedrohlichkeit“? Und wo liegt die Grenze, an welcher das Überwachungsprogramm aktiv wird und Polizei oder Rettungsdienste informiert, beziehungsweise sogar selbst eingreift?
Wie weit gehen die Befugnisse eines Programmes, aktiv zu handeln? Wer trüge die Verantwortung dafür?
Smart Security verleitet dazu, sich zu sehr auf die technischen Sicherheitsmaßnahmen zu verlassen. Dabei vernachlässigen wir jedoch, soziale Probleme zu lösen. Überwachungskameras können keine gründlichen Ermittlungen ersetzen. Mehr noch: Die neuen Sicherheitstechniken beruhen oft auf bloßer Überwachung und verletzen somit unsere Grundrechte auf Privatsphäre und informationelle Selbstbestimmung. Derartige Maßnahmen fördern die Errichtung eines Überwachungsstaates und haben – vor allem durch Korrelation mehrerer Datenbanken – erheblichen Einfluss auf unser Verhalten.
Digitalcourage wirkt. Wirken Sie mit!
5. Fazit
Einige der beschriebenen Szenarien sind bislang Zukunftsmusik. Trotzdem ist es an der Zeit sich über derartige Fragen Gedanken zu machen, denn sie werden unsere Zukunft verändern, die ethischen und moralischen Grundsätze bleiben vermutlich jedoch die gleichen.
Viele Ideen bezüglich einer smarten Sicherheit beinhalten gute Ansätze, auch sind manche Vorteile nicht von der Hand zu weisen.
Allerdings ist der großflächige Einsatz von Geräten der „Smart Security“ nur noch einen kleinen Schritt vom Überwachungsstaat entfernt. Zudem sollten wir uns noch einmal vor Augen halten, dass es kein „Supergrundrecht“ auf Sicherheit gibt. Mehr noch: Freiheit lässt sich nie gegen Sicherheit aufwiegen.
Freiheit muss immer wieder neu errungen werden – selbst gegen den Zugriff intelligenter Maschinen. (Spektrum Digital-Manifest S. 36)
Auch wir müssen unsere Freiheit immer wieder neu erkämpfen, einfordern und uns gegen Überwachung wehren!
Weiterführende Links
- Happy Crowd Control, Sicherheitskonzept zur „besseren“ Kontrolle von Menschenmengen
- Das „Digital-Mainfest“ beschäftigt sich ausführlich mit Big Data & Co.
- Forschungsarbeit der Uni Tübingen: How „smart“ is Smart Security?
- „‚Smart City‘ – alternativloser Selbstläufer oder abgekartetes Spiel?“
Bilder
brain picture: Allan Ajifo auf flickr CC BY 2.0
Überwachungskameras: Px4u by Team Cu29 auf flickr CC BY-ND 2.0
Text
H. Mayr