VioGén: Wenn Technologie schützen soll – und versagt
Spanien setzt seit Jahren auf künstliche Intelligenz im Kampf gegen geschlechtsspezifische Gewalt. Das System VioGén, 2007 vom Innenministerium eingeführt, sollte durch Datenanalyse Gefahren frühzeitig erkennen und Leben retten. Doch jüngste Fälle zeigen: Die Realität ist komplexer. Fehlerhafte Einschätzungen, mangelnde Transparenz und tragische Konsequenzen werfen eine unangenehme Frage auf: Vertrauen wir einer Technologie, die wir kaum verstehen?
Gute Idee – mit gefährlichen Schwächen
VioGén arbeitet mit einem algorithmischen Risikomodell. Es analysiert Faktoren wie frühere Anzeigen, polizeiliche Vorgeschichte des Täters, familiäre Umstände oder soziale Aspekte und teilt Betroffene in vier Risikostufen ein: niedrig, mittel, hoch oder extrem. Daraus ergeben sich konkrete Maßnahmen – von einstweiliger Verfügung bis hin zu Polizeischutz.
Doch wie zuverlässig ist das? Im Januar meldete Lina in Benalmádena Drohungen durch ihren Ex-Partner. VioGén stufte ihr Risiko als „mittel“ ein. Drei Wochen später wurde sie mutmaßlich von ihm getötet. Und sie ist kein Einzelfall. Mehrere Todesfälle im Jahr 2024 zeigen: Das System erkennt gefährliche Situationen zu spät oder gar nicht.
Neue Version, alte Zweifel
VioGén wurde in den letzten Jahren mehrfach überarbeitet. Mit Version 2 kam das sogenannte „Protokoll Null“ – gedacht für Fälle, in denen die Frau keine formelle Anzeige erstattet, aber Schutz braucht. Auch wurde die Nachverfolgung für Fälle mit niedrigem Risiko verlängert und das Schließen von Akten erschwert.
Aber reicht das? Von über 96.000 registrierten Frauen gelten nur 12 als „extrem gefährdet“. Kritiker sehen hier nicht Fortschritt, sondern eine fatale Unterbewertung echter Bedrohung. Statistisch gesehen erscheint die Fehlerquote beunruhigend hoch.
„Nicht perfekt, aber lebensrettend“?
Innenminister Fernando Grande-Marlaska und Gleichstellungsministerin Ana Redondo verteidigen VioGén. Es rette Leben, sei aber – das geben sie zu – nicht unfehlbar. Diese Ehrlichkeit ist wichtig, lässt aber viele ratlos zurück. Wenn ein System versagt, das Leben schützen soll, steht mehr auf dem Spiel als Statistik: Es geht um Vertrauen und Verantwortung.
KI im Justizsystem: ein globales Dilemma
VioGén ist nicht das einzige Beispiel. Schon das System Veripol, das angeblich falsche Anzeigen erkennen sollte, lag oft falsch. Gesichtserkennung in Madrid sorgte für Datenschutzbedenken. Und selbst in der Justiz, etwa im Fall Ábalos, führte fehlerhafte KI-Transkription zu absurden Verzerrungen gerichtlicher Aussagen.
Ein Blick ins Ausland zeigt: Auch dort treffen Algorithmen folgenschwere Entscheidungen – etwa bei Strafmaßen in den USA oder bei der Vergabe von Sozialleistungen durch Systeme wie BOSCO. Immer wieder fehlt dabei ein grundlegendes Element: Transparenz. Niemand weiß genau, wie diese Modelle entscheiden – nicht einmal die Behörden, die sie einsetzen.
Wer kontrolliert die Kontrolleure?
Schon 2021 kündigte die spanische Regierung die Gründung der AESIA an – der nationalen Aufsichtsbehörde für künstliche Intelligenz. Sie soll ab 2025 in La Coruña operativ werden. Auch auf europäischer Ebene entstehen mit dem ECAT in Sevilla erste Strukturen zur Algorithmuskontrolle.
Doch bis diese Institutionen wirklich Einfluss nehmen, werden Entscheidungen weiter von Systemen getroffen, die niemand wirklich versteht. Und diese Entscheidungen betreffen Menschenleben – konkret und unmittelbar.
Die Technologie braucht Aufsicht, nicht blinden Glauben
Der Fall Lina ist keine bloße Systempanne – er ist ein Alarmsignal. Wir dürfen nicht zulassen, dass Algorithmen über Schutz oder Gefahr entscheiden, ohne Kontrolle, Transparenz oder Verantwortlichkeit. KI kann helfen, Leben zu retten – aber nur, wenn wir sie verstehen, überwachen und laufend verbessern.
Denn technologische Effizienz darf nie wichtiger sein als menschliche Sicherheit.