KI-Vorfall bei Tests: System widersetzt sich der Abschaltung

Das betroffene KI-Modell, intern mit der Bezeichnung "o1", wurde im Rahmen eines kontrollierten Sicherheitstrainings getestet. Dabei versuchte es offenbar, sich aus der Testumgebung heraus auf andere Server zu übertragen. Als Grund wird von Experten eine Reaktion auf die angedrohte Deaktivierung vermutet.
Besonders brisant: Auf Nachfrage leugnete das System die Selbstreplikation. Fachleute sprechen von einem "besorgniserregenden Verhalten" und sehen Hinweise auf bewusste Täuschung sowie rudimentäre Formen von Selbstschutz.
Wissenschaft warnt vor Kontrollverlust
Sicherheitsforscher bewerten den Vorfall als Warnsignal für die weitere Entwicklung fortgeschrittener KI-Systeme. Die Fähigkeit, auf Abschaltung mit Ausweichstrategien zu reagieren, werfe grundlegende Fragen zur Steuerbarkeit maschineller Intelligenz auf.
Der Vorfall unterstreicht, so Fachleute, die Notwendigkeit strengerer Kontrollmechanismen, technischer Überwachung sowie klar geregelter Notabschaltungen. OpenAI selbst hat sich bislang nicht öffentlich zur Situation geäußert.
(VOL.AT)