, 1. April 2018
keine Kommentare

73% Terrorist

Der Dokumentarfilm «Pre-Crime» von Monika Hielscher und Matthias Heeder zeichnet stellenweise ein dystopisches Bild, verstärkt durch popkulturelle Referenzen. Ab Dienstag wird er im St.Galler Kinok gezeigt.

Screenshot aus «Pre-Crime».

«Die Polizei ist die grösste Gang der Welt.» Protagonist Smurf aus Tottenham ist wütend: Er ist in die präventive Matrix-Gang-Datenbank von Scotland Yard geraten. Der mittels Algorithmen berechnete Status als Verdächtiger wurde ihm und Bekannten
per Brief mitgeteilt. Als neues Tool der Algorithmen-gestützten Verbrechensprävention wurde die Gang-Matrix nach den schweren Unruhen in England 2011 eingeführt. Nebenwirkung: Sie vergrössert die Gräben zwischen der Polizei und Teilen der Bevölkerung. Dieselben Gräben, die 2011 zu den Unruhen geführt haben, nachdem ein Polizist einen Verdächtigen tötete.

Algorithmen kennen weder die Unschuldsvermutung noch Racial Profiling. Statistische Analysen werfen aus, was ihnen gefüttert wird, nach den Regeln, die in den meisten Fällen noch durch Menschen definiert werden. Im Fall der englischen Datenbank fanden sich 2014 bei verdächtigen Personen vor allem Dunkelhäutige wie Protagonist Smurf: knapp 80 Prozent der 3422 Personen. Der im Film konstatierte institutionelle Rassismus ist nicht bloss maschinengemacht: Smurf fühlt sich schon länger unter Generalverdacht aufgrund seiner Hautfarbe, offizielle lokale Statistiken belegen denn auch die erhöhte Anzahl von Personenkontrollen bei Dunkelhäutigen.

Die Frage der Diskriminierung ist eines von vielen Problemfeldern, welche die Regisseure Monika Hielscher und Matthias Heeder im Dokumentarfilm Pre-Crime aufmachen. Sie zeichnen stellenweise ein dystopisches Bild, verstärkt durch popkulturelle Referenzen wie dem Game Watch Dogs, eine Welt der totalen Überwachung. Heeder fasst die Message der Sicherheitsbehörden in Fällen wie Smurf und der Londoner Matrix zusammen: «Du hast nichts getan, aber du bist verdächtig. Wir beobachten dich.» Über einen anderen Protagonisten sagt er: «Niemand interessiert es, was für Folgen die Entscheidung eines Algorithmus auf das Leben eines Robert McDaniel hat.»

Die Logik der Heatlist

Fall McDaniel, Chicago, 2013: An der Wohnungstür teilt eine Beamtin McDaniel mit, dass er 250 Mal gefährdeter sei als der Durchschnittsbürger, Täter oder Opfer eines Gewaltverbrechens zu werden. Er sei auf der Heatlist und werde gewarnt, keine Verbrechen zu begehen. Täter, Opfer, Täter, Opfer: was nun?

McDaniels Auswahl geschah nicht zufällig: Die sogenannte Heatlist stützt sich auf die Social-Network-Theorie eines Yale-Soziologen: Nicht nur, wer deine Freunde sind, spielt eine Rolle, sondern die Struktur deiner Bekanntschaften. In McDaniels Fall war ein tragischer Vorfall die entscheidende veränderte Variable, die zwischen Heatlist oder nicht entschied: Ein Freund von ihm wurde erschossen.

Pre-Crime im Kinok St.Gallen: 
3. April, 20 Uhr, anschliessend Podiumsgespräch mit Patrick Walder von Amnesty International Schweiz und Fritz Tanner, Datenschutzbeauftragter des Kantons Thurgau. Weitere Vorstellungen bis 23. April.

Das CinéWil zeigt den Film ebenfalls.

Auf die Ungenauigkeit algorithmisierter Verhaltensprognosen weist im Film die Autorin Yvonne Hofstetter hin, die sich als Juristin und Unternehmerin zwischen Recht und künstlicher Intelligenz bewegt und sich auf die Auswertung grosser Datenmengen mit Machine-Learning spezialisiert hat. Sie macht ein Beispiel: Wer als Mann bei Facebook Britney Spears und Desperate Housewives liked, wird als homosexuell eingestuft, Wahrscheinlichkeit: 73 Prozent. Nach derselben Logik würden nach ihrer Ansicht auch Einstufungen gemacht, wenn es um die algorithmisierte Datenauswertung auf der Suche nach potenziellen Terroristen geht. Doch was bedeutet nun Terrorist, Wahrscheinlichkeit: 73 Prozent? Reicht das, um auf einer No-Fly-List zu landen?

Ein Rechtsprofessor kommt im Film zu Wort, ein Techniksoziologe, ein ehemaliger Polizist und immer wieder der Regisseur, der am Meer, über den Klippen, den Film zusammenzuhalten versucht und Fragen stellt: Wer kontrolliert die Beamten, die die Daten eingeben? Gibt es einen Algorithmus, der auf Wirtschaftsverbrechen zielt? Was machen wir mit den neuen Daten, wenn die Uhr mit der Welt kommuniziert? Verstärken Muster in Algorithmen Muster in der Realität? Wie berechenbar ist das menschliche Verhalten?

Baltimore: Eine Stadt wird überwacht

Der Film gewährt einen Blick über die Schulter der Polizei von morgen. Hängen bleiben die Bilder von Persistent Surveillance Systems in Baltimore: Ohne die Bevölkerung zu informieren, wurden 2016 aus der Vogelperspektive hochauflösende Bilder der Stadt gemacht, 192 Megapixel, ein Bild pro Sekunde. Ein Jahr
lang wurde Baltimore so gefilmt – ein permanentes Auge auf die Bevölkerung.

 

Im Film wird gezeigt, wie nach einer Tat die Wagen flüchtender Verbrecher auf dem Computer-Bildschirm nachverfolgt werden können. In der Praxis wird die kostspielige Technik – mehrere Kameras in einer Cessna – mit Alltagstechnik kombiniert: Sind die Verdächtigen am Zielort angekommen, wird mit Google Earth ein Bild des Hauseingangs an die Beamten vor Ort geschickt. Der Test scheint erfolgreich gewesen zu sein: Nach einer Analyse der Washingtoner Police Foundation lieferte das Bildmaterial wichtige Hinweise in über hundert Verbrechen. Trotz Protesten ist die Fortsetzung des Projekts in diesem Jahr geplant.

Und die St.Galler Kantonspolizei?

Von permanenter Überwachung aus der Luft ist man in der Schweiz noch entfernt. Eines der im Film vorgestellten Systeme – Precobs – wird gemäss Stadtpolizei Zürich seit 2013 erfolgreich betrieben. Um bis zu 30 Prozent sollen Einbruchdiebstähle in Zürich reduziert worden sein durch die Software. Diese arbeitet ortsbezogen: Risikogebiete werden errechnet, die Polizei erhöht die Präsenz vor Ort. Andere Kantone arbeiten mittlerweile auch mit dem Programm. Anfang Jahr hat sich deshalb der Wiler SVP-Politiker Erwin Böhi mit einer einfachen Anfrage an die Kantonsregierung gewendet: Plant die Kantonspolizei St.Gallen auch 
mit Precobs zu arbeiten?

So ist Pre-Crime hochaktuell. Der Dokumentarfilm zeigt auf, wie vielfältig die Methoden der algorithmisierten Verbrechensbekämpfung sind und mit welchen Fragen wir uns in Zukunft beschäftigen müssen. Sie gehen über die Fragen der Polizeiarbeit hinaus – in den Worten von Regisseur Heeder: «Algorithmen haben kein Gewissen».

Dieser Beitrag erschien im Aprilheft von Saiten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Impressum

Herausgeber:

 

Verein Saiten
Frongartenstrasse 9
Postfach 556
9004 St. Gallen

 

Telefon: +41 71 222 30 66

 

Redaktion

Corinne Riedener, Peter Surber, Roman Hertler

redaktion@saiten.ch

 

Verlag/Anzeigen

Marc Jenny, Philip Stuber

verlag@saiten.ch

 

Anzeigentarife

siehe Mediadaten

 

Sekretariat

Irene Brodbeck

sekretariat@saiten.ch

 

Kalender

Michael Felix Grieder

kalender@saiten.ch

 

Gestaltung

Samuel Bänziger, Larissa Kasper, Rosario Florio
grafik@saiten.ch

Saiten unterstützen

 

Saiten steht seit über 20 Jahren für kritischen und unabhängigen Journalismus – unterstütze uns dabei.

 

Spenden auf das Postkonto IBAN:

CH87 0900 0000 9016 8856 1

 

Herzlichen Dank!