Generalverdacht der Algorithmen

Kai Biermann schreibt über den Generalverdacht durch Einsatz von Algorithmen

Wer nichts zu verbergen hat, hat nichts zu befürchten? Nein, das ist eine Lüge. Denn weil die zugrunde liegenden Handlungen so alltäglich und die daraus gewobenen Muster so komplex sind, kann sich niemand dieser Rasterung entziehen. Es ist unmöglich, bewusst friedlich zu leben, um dem Staat und seiner Neugier aus dem Weg zu gehen. An sich harmlose Verhaltensweisen können genügen, um überwacht und verfolgt zu werden. Es reicht, ähnliche Dinge getan zu haben, wie ein Verbrecher. Stundenlange Verhöre sind dann noch eine vergleichsweise harmlose Folge.

Da kann man sagen: Tja, dann braucht man eben bessere Algorithmen. Das ist eine tolle Idee, ABER…

Vor ein paar Wochen habe ich für den Tagesspiegel über Bewegungserkennung in Überwachungskameras geschrieben. Dort sagte mir ein Wissenschaftler, dass die Daten an jedem Einsatzort neu angelernt werden müssen. Denn Bewegungsmuster, die in Saudi-Arabien völlig normal sind, würden in Deutschland als alarmierend und anormal wahrgenommen.

Was also verdächtig ist, müssen im Prinzip die selben Leute festlegen, die schon heute nach Verdächtigem gucken. Statt einem Verbrechens-Suchalgorithmus wird man so ein Programm bekommen, das so tut als sei es Polizist. Oder Wachmann. Wenn die früher dunkelhäutige Menschen verdächtig fanden, dann auch das von ihnen angelernte System.

Doch kein Problem — da braucht man einfach mehr Daten und es wird sich schon alles einrenken. Doch diese Annahme scheitert oft am Menschen, der halt seine eigenen Annahmen durchsetzt. So hat die Stadt New York eins der am weitesten entwickelten und auch eins der mächtigsten Polizei-Datenauswertungs-Systeme — das übrigens auch an Lizenznehmer weitergegeben wird und in seiner neuesten version auch Auswertung der Videodaten aus ganzen Stadtvierteln beherrscht, Samt Kennzeichenscannern und Erfassung merkwürdig humpelnder Menschen.

Die Polizei hatte damit in den letzten Jahren bemerkenswerte Erfolge. Am Times Square trifft man auf Kommerz und Comicfiguren statt auf Zuhälter und Straßenräuber. Doch die Polizei hat allzu gut mit dem System gearbeitet. Beförderungen, Geldmittel und Mentalität wurden ganz auf den Computer ausgerichtet.

Folge: Einige Polizeivorgesetzte schickten ihre Männer los, um die Straftäter zu fassen, die der Computer sah — ob sie nun da waren oder nicht. Gerade bei Winzvergehen wie Telefonieren am Steuer gab es feste Quoten. Wer weniger erwischt, ist kein guter Polizist. Und wer unschuldig in die Fängen des Systems kommt, fällt eben aus dem Rahmen der Algorithmen. Er kann ja umziehen in eine andere Stadt mit weniger Algorithmen.

Andere Verbrechen — wie zum Beispiel eine Vergewaltigungsserie — wurden hingegen nicht erfasst. Denn so etwas lässt die Revierleiter schließlich vor dem Computer schlecht aussehen. Das zumindest ist die Geschichte von Adrian Schoolcraft, der im Polizeidienst stand und solche Anweisungen aufgezeichnet hat. Ach ja: Nicht die Vorgesetzten wurden entlassen, sondern er — er landete sogar in einer geschlossenen psychiatrischen Abteilung. 

Die Algorithmen schaffen ein selbstverstärkendes System, oder besser gesagt: Wir Menschen schaffen es. Wir belügen den Computer, damit er uns sagt, was uns passt. Wir übertragen unsere Urteile und Vorurteile auf ein System, das scheinbar neutral und überlegen ist — unsere Fehlbarkeit aber imitiert.

Leave a comment

5 Comments.

Trackbacks and Pingbacks: