Zuletzt aktualisiert am 27. März 2026 von Wolff von Rechenberg
Bis 2028 wird KI in mindestens einer großen Industrienation kritische Infrastruktur lahmlegen. Nicht aus böser Absicht, sondern aufgrund von falscher Konfiguration. Davor warnt das Tech-Analyseunternehmen Gartner in einem Report vom 12. Februar 2026.
Blackout bis 2028
Geht es um unsere kritische Infrastruktur, fürchten wir bisher vor allem Hacker, Kriege, Terror oder Naturkatastrophen. Experten von Gartner bringen nun eine weitere Gefahr ins Spiel: Falsch konfigurierte künstliche Intelligenz (KI) könnte etwa in ganzen Landstrichen den Strom abschalten. Nicht, weil sie uns ärgern oder gar zerstören will, sondern weil sie es schlicht nicht besser weiß.
Laut Gartner wird bis zum Jahr 2028 ein G20-Land erleben, wie seine nationale Infrastruktur durch eine falsch konfigurierte KI lahmgelegt wird. Dabei geht es um Risiken, die in der Komplexität sogenannter cyber-physischer Systeme (CPS) schlummern.
Wenn der Algorithmus die Realität missversteht
Cyber-physische Systeme steuern heute fast alles: von Stromnetzen über Wasserversorgungen bis hin zu automatisierten Fabriken. Damit diese Systeme in Echtzeit auf Ereignisse reagieren können, setzt man zunehmend auf KI. Doch genau hier liegt die Gefahr: Eine falsch konfigurierte KI könnte Sensordaten missinterpretieren und autonom Entscheidungen treffen, die erhebliche Flurschäden nach sich ziehen, etwa großflächige Ausfälle von Versorgung oder Diensten.
Ein Beispiel aus der Energieversorgung: Moderne Stromnetze nutzen KI, um Erzeugung und Verbrauch auszubalancieren. Ein fehlerhaftes Modell könnte eine harmlose Nachfrageschwankung als Instabilität interpretieren und ganze Regionen vom Netz trennen – völlig unnötigerweise.
Fehlerquellen: Model Drift in der Black Box
Das Problem ist die Komplexität von KI-Modellen, die dadurch wie eine „Black Box“ wirken. In dieser Black Box kann es zu einem Phänomen namens “Model Drift” kommen. Ein KI-Model-Drift trete auf, wenn die realen Daten, mit denen ein Modell konfrontiert werde, von den Daten abwichen, für deren Erkennung oder Verarbeitung es trainiert wurde, erklärt Stephen J. Bigelow in Computerweekly.
Dadurch können KI-Modelle die Fähigkeit verlieren, Trends oder Probleme zu identifizieren oder Entscheidungen zu treffen. Wenn Ereignisse nicht den gelernten Mustern entsprechen. KI-Entwickler können den Model Drift abmildern, indem sie Trainingsdaten aktualisieren oder Lernmechanismen anpassen.
Blackout durch ein falsch gesetztes Komma
Problem: Selbst erfahrene Entwickler können kaum vorhersagen, wie sich minimale Änderungen an den Einstellungen auf das Gesamtverhalten des Systems auswirken. So kam es 2023 dazu, dass sich die Antworten von ChatGPT nach einem Update sogar verschlechterten.
„Der nächste große Infrastrukturausfall wird vielleicht nicht durch Hacker verursacht, sondern durch einen gutmeinenden Ingenieur, ein fehlerhaftes Update-Skript oder ein falsch gesetztes Komma.“
Wam Voster, Analyst bei Gartner
KI und kritische Infrastruktur: Worauf Betreiber achten sollten
Um dieses Risiko zu minimieren, legt Gartner allen Betreibern von kritischer Infrastruktur drei strategische Maßnahmen ans Herz:
- Sichere Override-Modi (Kill-Switch): Jedes kritische System braucht einen manuellen Notaus-Schalter, auf den ausschließlich autorisierte Personen Zugriff haben. Der Mensch muss die Kontrolle behalten, auch wenn die KI autonom agiert.
- Digitale Zwillinge: Vor jedem Update oder jeder Konfigurationsänderung müssen Experten diese Änderungen in einer realistischen, digitalen Abbildung der Infrastruktur testen.
- Echtzeit-Monitoring und Rollback: IT-Experten müssen Änderungen an der KI in CPS-Umgebungen penibel überwachen und im Ernstfall sofort zurücksetzen können.
Vertrauen ist gut, Kontrolle rettet Leben
KI kann entscheidend zu einer leistungsfähigen und dennoch kostengünstigen Infrastruktur beitragen. Wenn wir die Steuerung von kritischer Infrastruktur den Algorithmen übertragen, dann brauchen wir dennoch menschliche Aufsicht. Immerhin geht es dabei um das Sicherstellen von Grundversorgung mit Strom, Wasser oder Wärme.
Die Kontrolle über diese Systeme sollte der Mensch nicht leichtfertig der KI überlassen. Sicherheitsmechanismen sind mehr als ein technologisches Detail. Sie sind eine Frage der nationalen Sicherheit, der wirtschaftlichen Stabilität und am Ende vielleicht sogar eine von Leben und Tod.
Foto: Thomas Riess / PIXELIO
Schreibe einen Kommentar