Frau mit Kopfhörern schaut konzertiert auf ihren Laptop.

Gefahren von Künstlicher Intelligenz

Wie Verwaltungen KI verantwortungsvoll einsetzen: Risiken erkennen, Daten schützen, Menschen einbinden, Transparenz sichern.

In Kürze erklärt 

  • Verzerrungen sind das größte Risiko: Fehlerhafte Daten oder blindes Vertrauen in Modelle können zu falschen Entscheidungen führen. Menschliche Kontrolle, Dokumentation und Monitoring sind daher Pflicht.
  • Recht und Governance setzen Grenzen: Künstliche Intelligenz darf Verwaltungsentscheidungen nicht vollständig ersetzen. DSGVO, NIS-2 und der EU AI Act regeln Datenschutz, Sicherheit und Pflichten für Hochrisiko-KI.
  • Transparenz schafft Vertrauen: Bürger und Bürgerinnen müssen nachvollziehen können, wie Entscheidungen entstehen. Der EU AI Act verpflichtet Verwaltungen zur Offenlegung und Dokumentation von KI-Einsätzen.

Wo liegen die größten Fehlerrisiken in KI-Systemen?

KI-gestützte Systeme werden zunehmend bei Verwaltungsentscheidungen eingesetzt, etwa bei Förderanträgen, Risikoanalysen oder Fallbearbeitung. Fehler entstehen besonders dort, wo Daten unvollständig, veraltet oder unausgewogen sind und wo Mitarbeitende automatischen Empfehlungen ohne kritische Prüfung folgen.

Zwei zentrale Gefahren:

Piktogramm Balkendiagramm

Bias in Daten und Modellen

Verzerrte Trainingsgrundlagen setzen Benachteiligungen fort. Abhilfe schaffen sorgfältige Datenpflege, Fairness-Tests und dokumentierte Impact-Assessments.

Piktogramm drei Personen

Automation Bias in Teams

Wenn Scores als Wahrheit gelesen werden, schleichen sich systematische Fehlurteile ein. Human-in-the-Loop, ein Vier-Augen-Prinzip und die Pflicht zur Begründung von Abweichungen halten die Kontrolle beim Menschen.

Praxisbeispiel: Fehlsteuerung in der britischen Sozialverwaltung

Im britischen Sozialministerium (Department for Work and Pensions) identifizierte im Jahr 2024 ein Algorithmus zahlreiche unauffällige Bürger und Bürgerinnen fälschlicherweise als verdächtig. Dadurch kam es zu Tausenden unnötigen Prüfungen und erheblichem Vertrauensverlust. Das Beispiel zeigt, wie wichtig kontinuierliches Monitoring, Qualitätskontrolle und öffentliche Rechenschaft beim Einsatz von KI-Systemen sind.

Wie schützen DSGVO, NIS-2 und der EU AI Act vor den Risiken von KI?

Aus dem Einsatz von KI-gestützten Systemen entstehen Risiken in Bezug auf Datenschutz, Datenqualität und IT-Sicherheit. Unsichere Schnittstellen, unzureichend geschützte Cloud-Dienste oder schlecht dokumentierte Modelle können Manipulation, Datenverluste oder unerlaubte Verknüpfungen ermöglichen – mit erheblichen Folgen für Staat sowie Bürger und Bürgerinnen. 

Daher bestehen bereits verbindliche Regulierungs- und Governance-Rahmen.

Entscheidungen mit erheblicher Wirkung dürfen nicht komplett automatisiert erfolgen. Behörden müssen eine menschliche Bewertung ermöglichen und Betroffenen Rechte auf Auskunft, Stellungnahme und Anfechtung geben.

Sicherheits- und Meldepflichten werden ausgebaut. Relevant sind gehärtete Schnittstellen, Zugriffskonzepte, Protokollierung und Lieferkettenkontrollen, gerade bei Cloud- und Plattformdiensten.

Für Hochrisiko-Anwendungen in der Verwaltung entstehen abgestufte Pflichten zu Datenqualität, Dokumentation, Transparenz, Governance und Überwachung (noch nicht vollständig in Kraft).

Für die Praxis heißt das: Prozesse zur Daten- und Modell-Governance müssen etabliert und klar verantwortet sein – von der Erhebung über Verarbeitung bis hin zur Speicherung und Löschung.

Wie bleibt die Verwaltung mit KI transparent?

Viele lernende KI-Modelle, insbesondere im Bereich des maschinellen Lernens, funktionieren de facto wie eine Blackbox. Entscheidungen lassen sich in zahlreichen Fällen nicht vollständig erklären oder nachvollziehen. Für die öffentliche Verwaltung stellt das ein Problem dar, weil Bürger und Bürgerinnen Anspruch auf nachvollziehbare, prüfbare und anfechtbare Entscheidungen haben. Denn mangelnde Erklärbarkeit und fehlende Auditierbarkeit untergraben das Vertrauen in öffentliche Institutionen. 

Was Verwaltungen beachten sollten: 

  • Dokumentation und regelmäßige Prüfung von Entscheidungsprozessen, inklusive Daten- und Rollenprotokollen
  • Erstellung von Modellkarten, die Zweck, Trainingsdaten, Grenzen und Versionen transparent machen
  • Einrichtung technischer Audit-Mechanismen und Prüfroutinen für Modelle sowie klare Versionierung
  • Etablierung von Fehler- und Beschwerdeverfahren mit niedrigschwelligem Zugang für Betroffene 

Eine transparente Gestaltung von KI-Systemen ist eine wesentliche Voraussetzung dafür, dass Kontrolle möglich bleibt und Bürgerrechte gewahrt werden.

Wie lässt sich ein sicherer und fairer KI-Betrieb gewährleisten?

Ein sicherer und fairer KI-Betrieb verbindet klare Verantwortlichkeiten, technische Robustheit, Qualitätskontrolle und befähigte Mitarbeitende. 

Piktogramm Government

Klare Governance-Strukturen schaffen


Rollen, Zuständigkeiten und Freigabeprozesse sollten so definiert sein, dass Verantwortlichkeiten transparent bleiben und nicht „im System“ verschwinden.




 

Piktogramm Schild mit Haken

Sicherheit und Resilienz stärken


Verwaltungen sollten ihre KI-Systeme technisch absichern – unter anderem über gehärtete Schnittstellen (APIs), detaillierte Zugriffskonzepte, umfassende Protokollierung und regelmäßige Lieferkettenprüfungen.


 
 

Piktogramm Waage

Qualität und Fairness sicherstellen


Datensätze sollten laufend gepflegt, Modelle regelmäßig überprüft und Drift-Effekte erkannt werden. Vor dem Produktivstart empfiehlt sich ein Testlauf im sogenannten Shadow-Mode, um Risiken frühzeitig zu identifizieren.

 
 

Piktogramm Team

Mitarbeitende befähigen und einbeziehen

Menschen bleiben eine unverzichtbare Kontrollinstanz. Schulungen zu typischen Fehlerquellen (z. B. Automation Bias), verbindliche Leitlinien zum Überstimmen von KI-Empfehlungen und ein dokumentiertes Vier-Augen-Prinzip stärken Verantwortlichkeit und Vertrauen.
 

Die Grundprinzipien dieser Governance finden sich auch im Beitrag zu KI-Frameworks für die Verwaltung.

Wie lassen sich Lebenszyklus-Risiken von KI-Modellen steuern?

KI-Systeme sind keine einmaligen Projekte, sondern durchlaufen einen vollständigen Lebenszyklus – von der Entwicklung über den Einsatz bis hin zur Anpassung oder Stilllegung. In jeder Phase können neue Risiken entstehen: fehlerhafte Trainingsdaten, unklare Zuständigkeiten, Daten-Drift oder fehlendes Monitoring. Wer diese Risiken systematisch steuert, erhält Qualität, Fairness und Sicherheit im Betrieb.

Von der Idee bis zur Rezertifizierung

  1. Problemdefinition: Zweck, Betroffenheit und Rechtsgrundlage sollten von Anfang an klar sein.
  2. Shadow-Mode (Testphase): Vor dem echten Einsatz sollte das Modell im Hintergrund mitlaufen. So lässt sich prüfen, ob es zu ungewollten Verzerrungen kommt.
  3. Go-live mit KPIs: Beim Start müssen klare Kennzahlen definiert sein: Welche Fehlerquote ist akzeptabel? Wie wird Fairness gemessen? Wer trägt die Verantwortung für das Monitoring?
  4. Drift-Monitoring und Alerts: Ein gutes System erkennt automatisch, wenn sich Datenstrukturen oder Ergebnisse verschieben, und löst entsprechende Warnungen aus.
  5. Retraining und Rezertifizierung: Wenn sich Rahmenbedingungen oder Datenbestände ändern, muss das Modell erneut überprüft und freigegeben werden.
Erneute Prüfung

Änderungen an Daten, Features oder Code lösen grundsätzlich eine erneute Prüfung aus – auch wenn sie vom Lieferanten oder von einem externen Anbieter stammen.

Wie begrenzt Human-in-the-Loop operative Fehlsteuerungen?

Auch bei sorgfältig trainierten Modellen bleibt menschliches Urteilsvermögen unverzichtbar. Der Human-in-the-Loop-Ansatz sorgt dafür, dass Menschen aktiv in KI-gestützte Verfahren eingebunden bleiben. Nicht, um jede Berechnung manuell zu prüfen, sondern um definierte Eingriffs- und Prüfpunkte zu etablieren. So bleiben Verantwortlichkeit, Nachvollziehbarkeit und Rechtsstaatlichkeit gewahrt.

Drei zentrale Regeln für den Praxiseinsatz

Piktogramm der Zahl eins

Unplausible Begründung prüfen

Mitarbeitende dürfen Empfehlungen ohne nachvollziehbaren Grund nicht übernehmen.

Piktogramm der Zahl zwei

Out-of-Scope-Fälle erkennen

In Sonderfällen, bei neuen Rechtslagen oder ungeübten Kontexten entscheidet die zuständige Person.

Hohe Betroffenheit beachten

In existenznahen oder grundrechtsrelevanten Verfahren trifft immer ein Mensch die letzte Entscheidung.

Prozessempfehlung 

Ein funktionierender Human-in-the-Loop-Prozess sollte dokumentiert und in der Fachanwendung verankert sein. Mitarbeitende lesen die Empfehlung, bewerten sie, dokumentieren ihre Entscheidung und nutzen ein Vier-Augen-Prinzip, wenn die Betroffenheit hoch ist. Ergänzend hilft ein Begründungsfeld in den digitalen Formularen, um Abweichungen oder Übersteuerungen transparent zu erfassen.

Wichtig!

Regelmäßige Schulungen und Feedbackschleifen sind entscheidend. Nur wer die Grenzen von KI-Systemen versteht, kann ihre Ergebnisse richtig einordnen und Verantwortung übernehmen.

Wie lassen sich Risiken wie Blackbox und Vendor-Lock-in minimieren?

In vielen Verwaltungen werden KI-Systeme als externe Lösungen oder über Cloud-Dienste bezogen. Das bietet Effizienzgewinne, öffnet aber neue Risiken: Blackbox-Systeme, deren Funktionsweise nicht nachvollziehbar ist, und Vendor-Lock-in, also starke Abhängigkeit von einzelnen Anbietern. Beide Risiken können die Kontrolle über Daten, Modelle und Weiterentwicklung erheblich einschränken. 

Ein verantwortungsvoller Beschaffungsprozess sorgt dafür, dass Verwaltungen auch nach der Einführung wissen, wie ein KI-System funktioniert, wer es beeinflusst und wie sie es bei Bedarf austauschen können.

Fünf Punkte, die in keiner Ausschreibung fehlen sollten:

1. Audit-Klauseln vereinbaren: 

Verträge müssen interne und externe Prüfungen ermöglichen – insbesondere bei Hochrisiko-Anwendungen.

2. Modell- und Daten-Metadaten offenlegen: 

Anbieter müssen dokumentieren, welche Daten zur Entwicklung genutzt wurden, wie das Modell trainiert ist und welche Version aktuell im Einsatz ist.

3. Exportpfade sichern: 

Offene Formate, definierte Schnittstellen und Übergaberegeln schützen vor Abhängigkeit.

4. Service-Level-Agreements mit Qualitätskennzahlen festlegen: 

Vertragskennzahlen zu Fehlerquote, Verfügbarkeit, Antwortzeit und Fairness sollten verbindlich sein.

5. Exit-Strategie vorsehen: 

Jede Beschaffung muss regeln, wie Systeme bei Vertragsende oder Nichterfüllung ersetzt oder abgeschaltet werden können.

Wichtig!

Die Beschaffung ist Teil der Governance und nicht nur ein Einkaufsvorgang. Jede KI-Beschaffung sollte von IT, Datenschutz, Recht und Fachbereich gemeinsam geprüft werden. So bleiben Datenhoheit, Systemwechselbarkeit und Kontrollfähigkeit der Verwaltung gesichert.

Wie verhindert Kommunikation Akzeptanzrisiken?

Selbst die technisch beste KI reicht nicht aus, wenn Menschen ihr nicht vertrauen. In der öffentlichen Verwaltung kann mangelnde oder nicht ausreichend aufbereitete Information rasch zu Skepsis oder Ablehnung führen. Vertrauen entsteht nur, wenn Verfahren transparent erklärt sind, Beteiligung ermöglicht und Widerspruch unkompliziert ist.

Bausteine für vertrauensbildende Kommunikation 

  • Offenlegen, wo KI eingesetzt wird
  • Zuständigkeit benennen
  • Widerspruch und Nachfragen ermöglichen
  • Fehler offen ansprechen 

Kommunikation ist kein einmaliger Akt, sondern ein dauerhafter Prozess. Nur wenn Verwaltung, Technik sowie Bürger und Bürgerinnen im Dialog bleiben, wird Akzeptanz geschaffen und Legitimität gesichert.

Welche KPIs messen Risiko- und Qualitätslage wirklich?

KI-Systeme entfalten ihren Nutzen nur, wenn ihre Leistung und Fairness messbar bleiben. Gerade in der öffentlichen Verwaltung ist das entscheidend, um Vertrauen, Effizienz und Rechtskonformität dauerhaft zu sichern. 

Aussagekräftige KPIs gehen über klassische Modellmetriken hinaus. Sie zeigen, ob eine KI gerecht, stabil und nachvollziehbar arbeitet oder ob Nachsteuerung nötig ist.

Zentrale Kennzahlen in der Praxis: 

  • Fehlerquote: zeigt, wie zuverlässig das Modell arbeitet und ob systematische Schwächen bestehen. Eine Quote unter 2 Prozent gilt häufig als Zielwert.
  • Widerspruchsquote: macht sichtbar, wie häufig Entscheidungen angefochten werden. Eine niedrige Quote spricht für Fairness und Akzeptanz.
  • Bearbeitungszeit: misst, ob die KI tatsächlich zu effizienteren Abläufen beiträgt oder Prozesse verlangsamt.
  • Betroffenheitsverteilung: prüft, ob bestimmte Gruppen überproportional häufig negativ betroffen sind. Ausreißer deuten auf potenzielle Diskriminierung hin.
  • Fairness-Metrik: vergleicht die Gleichbehandlung verschiedener Gruppen, etwa über Kennzahlen wie „Equal Opportunity“. Kleine Abweichungen sind normal, größere bedürfen Analyse.
  • Sicherheitsvorfälle (Incidents): erfassen die Stabilität im Betrieb. Kritische Vorfälle sollten gar nicht oder nur in Ausnahmefällen auftreten. 

Diese Kennzahlen sollten regelmäßig erhoben, dokumentiert und ausgewertet werden. Wichtig ist, dass sie verständlich, überprüfbar und konsistent bleiben.

Go-live-Kurzcheck für KI-Systeme

Bevor ein KI-System in der öffentlichen Verwaltung den Echtbetrieb aufnimmt, sollte geprüft werden, ob alle rechtlichen, technischen und organisatorischen Voraussetzungen erfüllt sind und zentrale Risiken adressiert wurden. 

Jeder Punkt mit „Nein“ weist auf Handlungsbedarf hin: 

  • Rechtsgrundlage und Zweck sind dokumentiert.
  • DPIA und Bias-Check sind abgeschlossen und nachvollziehbar.
  • Sicherheits- und Governance-Konzept mit Rollen und Meldewegen liegt vor.
  • Human-in-the-Loop ist verbindlich geregelt, inklusive Vier-Augen-Prinzip.
  • Monitoring, KPIs und Rückfalloption sind eingerichtet und getestet. 

Wenn alle Punkte erfüllt sind, kann ein KI-System verantwortungsvoll in den Betrieb überführt werden.

Häufige Fragen zu Risiken und Pflichten beim Einsatz von Künstlicher Intelligenz in der Verwaltung

Ein KI-System gilt als Hochrisiko, wenn es über Zugänge zu staatlichen Leistungen, Förderungen oder Rechten entscheidet oder das Verhalten von Bürgern und Bürgerinnen wesentlich beeinflusst. Für solche Systeme gelten strenge Anforderungen an Datenqualität, Dokumentation, Transparenz und menschliche Aufsicht.

NIS-2 verpflichtet öffentliche Einrichtungen, umfassende Maßnahmen zur Cybersicherheit umzusetzen. Dazu gehören Risiko- und Vorfallmanagement, Lieferkettenkontrolle und Meldepflichten bei Sicherheitsvorfällen. Besonders KI-Plattformen, Cloud-Dienste und Schnittstellen fallen unter diese Regelung.

Sobald sich Trainingsdaten, Code oder Rahmenbedingungen wesentlich ändern, ist eine neue Prüfung erforderlich. Auch Updates von externen Anbietern können die Funktionsweise beeinflussen. Ein festgelegter Rezertifizierungsprozess stellt sicher, dass das System weiterhin korrekt, sicher und fair arbeitet.

Bereits in der Beschaffung sollten Audit-Klauseln, Daten- und Modelltransparenz sowie Exportmöglichkeiten vereinbart werden. Verträge müssen sicherstellen, dass Verwaltungen Zugriff auf relevante Informationen behalten und das System bei Bedarf austauschen oder abschalten können.

Transparenz schafft Vertrauen. Wenn Bürger und Bürgerinnen verstehen, wo KI eingesetzt wird, wer für Entscheidungen verantwortlich ist und wie sie Widerspruch einlegen können, steigt die Akzeptanz deutlich. Offene Kommunikation ist damit ein zentraler Faktor für den Erfolg von KI-Projekten im öffentlichen Sektor.

Das könnte Sie auch interessieren:

Artikel