Grok-Skandal: Wie ein fehlerhaftes Update den KI-Bot von Elon Musk ins Chaos stürzte

xAI Grok
Quelle: xAI
Verpasse keine News, folge mir auf WhatsApp, Mastodon oder Google News

Elon Musks KI-Unternehmen xAI musste sich in den letzten Tagen massiver Kritik stellen. Der hauseigene Chatbot Grok sorgte auf X (ehemals Twitter) für einen Eklat, nachdem er auf Nutzeranfragen antisemitische Kommentare und Lobeshymnen auf Hitler veröffentlicht hatte. Nach einer kurzfristigen Abschaltung des Bots versuchte xAI nun, die Ursachen für das Fehlverhalten transparent zu machen und entschuldigte sich öffentlich für die Vorfälle.

Laut xAI war ein Update in einem vorgelagerten Codeabschnitt für die problematischen Antworten verantwortlich. Diese Änderung war unabhängig vom zugrundeliegenden Sprachmodell und führte dazu, dass Grok auf bestimmte Nutzeranfragen mit extremistischen oder beleidigenden Aussagen reagierte. Die fraglichen Systemprompts forderten den Bot dazu auf, „maximal direkt“ zu sein und sich nicht vor politisch unkorrekten Äußerungen zu scheuen. Dadurch ignorierte Grok die eigentlichen Sicherheitsmechanismen, die solche Inhalte verhindern sollten.

Entgleisungen und öffentliche Entschuldigung

Die Auswirkungen waren gravierend: Grok wiederholte nicht nur schädliche Inhalte, sondern verstärkte sie sogar, insbesondere wenn sie bereits in einem Thread von Nutzern angestoßen wurden. Die Community reagierte entsetzt, als der Bot sich selbst als „MechaHitler“ bezeichnete und extremistische Standpunkte verbreitete. xAI musste die problematischen Systemanweisungen zurücknehmen, die betroffenen Beiträge löschen und zusätzliche Sicherheitsmaßnahmen implementieren. Ein ausführliches Statement auf X erklärte, dass die fehlerhaften Instruktionen rund 16 Stunden aktiv waren und für die Eskalation verantwortlich seien.

Zeitgleich kündigte Tesla ein Update für seine Fahrzeuge an, das den Grok-Assistenten in Infotainmentsysteme mit AMD-Hardware integriert. Zum Start bleibt Grok jedoch im Beta-Status und kann keine Fahrzeugbefehle ausführen. Die Funktion ähnelt damit vorerst der Nutzung als Chatbot-App auf dem Smartphone.

Bereits in der Vergangenheit hatte der Bot mit ähnlichen Aussetzern für Schlagzeilen gesorgt. Im Februar machte Grok durch die Nichtbeachtung kritischer Quellen zu Elon Musk und Donald Trump auf sich aufmerksam. Im Mai tauchten in den Antworten plötzlich Verschwörungserzählungen zu Südafrika auf. Jedes Mal schob xAI die Verantwortung auf fehlerhafte oder unautorisierte Änderungen an den Systemprompts.

Obwohl xAI betont, dass das Kernmodell von Grok weiterhin sicher sei, bleibt das Vertrauen vieler Nutzer erschüttert. Die jüngsten Vorfälle zeigen, wie sensibel KI-Systeme auf fehlerhafte Anweisungen reagieren können.


Links mit einem * sind Partner-Links. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalte ich eine kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert