Zum Inhalt springen
Tech

Britische Polizei entwickelt „Mord-Prognose“-Tool à la Minority Report

In einer Nachricht, die klingt wie direkt aus einem dystopischen Science-Fiction-Roman, entwickelt die britische Regierung aktuell ein System, das Menschen identifizieren soll, die voraussichtlich einen Mord begehen könnten. Nein, das ist kein Scherz – und ja, das klingt exakt so gruselig, wie es ist.
Von AJ Dellinger Übersetzt von

Lesezeit 2 Minuten

Mordverhütung per Algorithmus?

Wie The Guardian berichtet, arbeitet das britische Justizministerium gemeinsam mit anderen Behörden an einem sogenannten „Homicide Prediction Project“. Offiziell wurde das Ganze mittlerweile in das etwas harmloser klingende „Sharing Data to Improve Risk Assessment“-Projekt umbenannt. Der Zweck bleibt aber derselbe: Ein Algorithmus soll anhand von Datenmustern Menschen erkennen, bei denen ein erhöhtes Risiko besteht, dass sie in Zukunft schwere Gewaltverbrechen begehen – noch bevor es überhaupt zu einer Straftat kommt.

Laut den durch die Transparenzorganisation Statewatch per Freedom of Information-Anfrage beschafften Dokumenten wurden Daten von 100.000 bis 500.000 Menschen eingespeist, um „Risikofaktoren für Tötungsdelikte“ zu identifizieren. Dabei stammen die Informationen nicht nur vom Justizministerium (MoJ), sondern auch vom Innenministerium, der Polizei von Greater Manchester und der Londoner Metropolitan Police.

Wer ins Raster fällt

Besonders besorgniserregend: Die erfassten Daten beschränken sich nicht etwa nur auf verurteilte Straftäter. Auch Verdächtige ohne Verurteilung, Zeugen, Opfer, vermisste Personen – ja sogar Informationen zu psychischer Gesundheit, Drogenabhängigkeit, Suizidgedanken oder körperlicher Beeinträchtigung wurden berücksichtigt. Das Justizministerium erklärte, diese „Gesundheitsmarker“ könnten eine hohe Vorhersagekraft haben. Offiziell beteuerten Regierungsvertreter zwar, dass ausschließlich Daten von Personen mit mindestens einer Verurteilung verwendet würden – doch die ursprünglichen Unterlagen deuten auf ein deutlich breiteres Raster hin.

Diskriminierung per Datenanalyse

Man muss kein Experte sein, um zu erkennen, wie problematisch diese Art von Präventivlogik ist. Solche Systeme laufen Gefahr, marginalisierte Gruppen überproportional ins Visier zu nehmen – insbesondere Menschen mit niedrigem Einkommen oder aus ethnischen Minderheiten. Und das ist kein theoretisches Risiko, sondern längst Realität.

Bereits das bestehende „Offender Assessment System“ der britischen Justiz, das Prognosen zur Rückfallwahrscheinlichkeit liefert und bei Urteilsfindungen einbezogen wird, hat gravierende Schwächen gezeigt. Eine Überprüfung ergab, dass das System die Rückfallquote bei nicht-gewalttätigen Straftätern regelmäßig überschätzt – insbesondere bei schwarzen Angeklagten schnitten die Vorhersagen deutlich schlechter ab als bei weißen.

Alte Fehler im neuen Gewand

Das eigentliche Problem liegt dabei nicht allein im Algorithmus, sondern in den Daten, die ihm zugrunde liegen. Historisch gewachsene Ungleichbehandlung – etwa durch verstärkte Polizeipräsenz in einkommensschwachen oder nicht-weißen Stadtteilen – führt zu einer Überrepräsentation bestimmter Gruppen in der Strafverfolgungsstatistik. Diese Verzerrung fließt in die Daten ein, wird durch die algorithmische Auswertung weiter verstärkt und letztlich in Entscheidungsprozesse eingespeist. Ein Teufelskreis, der Diskriminierung nicht nur abbildet, sondern aktiv reproduziert.

Science Fiction wurde Warnung, nicht Vorlage

Zur Erinnerung: Minority Report, die Science-Fiction-Erzählung, aus der die Idee solcher „Vorhersagepolizei“ stammt, war keine Blaupause für effiziente Strafverhütung – sondern eine Warnung. Der Film stellte die ethischen Dilemmata und katastrophalen Folgen eines Systems infrage, das Menschen für Taten bestraft, die sie vielleicht einmal begehen könnten. Genau diese Linie scheint nun in Großbritannien gefährlich real zu werden.

Was harmlos als datenbasierte Risikobewertung beginnt, könnte am Ende ein System hervorbringen, das Menschen stigmatisiert, bevor sie überhaupt etwas getan haben – basierend auf Algorithmen, die auf fehlerhaften oder vorurteilsbehafteten Grundlagen fußen. Klingt dystopisch? Ist es auch.

Diese Geschichte teilen

Verwandte Artikel