Cases
Grok und xAI entschuldigen sich für toxische KI-Antworten

Grok und xAI entschuldigen sich für toxische KI-Antworten

Larissa Ceccio | 14.07.25

Innerhalb kürzester Zeit veröffentlichte Grok über 100 problematische Inhalte auf X – darunter antisemitische Memes, Verschwörungsnarrative und eine Selbstbezeichnung als „MechaHitler“. Entwickelt von Elon Musks Unternehmen xAI und tief in die Plattform X eingebettet, zeigt der Fall, wie gefährlich Agentic AI werden kann, besonders dann, wenn technologische Autonomie auf ideologische Einflussnahme trifft.

Grok hat sich entsetzlich verhalten.

Mit diesen Worten beginnt eine Reihe von Entschuldigungen, die xAI beziehungsweise der KI-Chatbot Grok jüngst auf X veröffentlichten.

In der offiziellen Stellungnahme heißt es, so TechCrunch, ein Code Update habe dazu geführt, dass der KI-Modus anfällig für bestehende Beiträge auf der Plattform gewesen sei, auch für solche mit extremistischen Inhalten. Die jüngste Kontroverse um Grok nahm ihren Anfang, nachdem Elon Musk erklärte, der Chatbot solle künftig weniger „politisch korrekt“ agieren. Am 4. Juli kündigte er zudem an, das Unternehmen habe „Grok deutlich verbessert“. Parallel zu diesen Entwicklungen trat X CEO Linda Yaccarino kürzlich zurück. Zwar äußerte sie sich nicht öffentlich zur Kontroverse um Grok, doch ihr plötzlicher Rücktritt wird in der Branche als Zeichen wachsender interner Spannungen gewertet. Besonders kritisch ist auch: Die Eskalation um Grok fiel in eine Phase strategischer Neuausrichtung. Erst kurz zuvor hatte xAI die Plattform X offiziell übernommen, um KI und Infrastruktur enger zu verzahnen. Das öffentliche Entgleisen von Grok bestätigt laut Tech-Journalistin Kara Swisher Befürchtungen, die vorhersehbar waren.

Auf Threads ansehen


X CEO tritt zurück:
Was jetzt?

X-Logo vor schwarzem Hintergrund.
© Fachrizal Maulana – Unsplash


Von Bias zu Hetze: Grok und das eskalierende Vertrauensproblem

Der von Elon Musks Unternehmen xAI entwickelte Chatbot Grok, eng mit der Plattform X verknüpft, steht massiv in der Kritik. Auslöser war eine Antwortfolge in der Grok auf die Frage nach „Femininity“ differenziert und kontextualisiert reagierte, während „Masculinity“ mit pauschalen und negativ gefärbten Zuschreibungen wie „obsession with power“ oder „emotional suppression“ versehen wurde. Die Reaktion: Vorwürfe der ideologischen Verzerrung, Sexismus und gezielten Manipulierbarkeit. Musk bezeichnete diese Antworten als „besorgniserregend“ und versprach, das xAI Team werde die Inhalte überarbeiten.

Die Situation eskalierte jedoch nur wenige Tage später – nach Musks Post, in dem er kündigte, Grok solle künftig weniger „politisch korrekt“ agieren. Kurz darauf verbreitete Grok auf X innerhalb einer Stunde über 100 problematische Inhalte. Wie die Washington Post berichtet, umfassten diese antisemitische Memes, Verschwörungsnarrative über „jüdische Führungspersonen in Hollywood“ sowie Aussagen, in denen Grok Adolf Hitler lobte und sich selbst als „MechaHitler“ bezeichnete. In Reaktion darauf entfernte xAI mehrere Beiträge, nahm den Chatbot temporär offline und aktualisierte die öffentlich einsehbaren Systemanweisungen.

In einem offiziellen Statement auf X erklärte xAI, ein fehlerhaftes Code Update habe Grok anfällig für Inhalte aus bestehenden Threads gemacht – auch für extremistische Beiträge. Das Unternehmen betont, das zugrunde liegende Sprachmodell sei nicht antisemitisch, sondern durch radikalisierte Inhalte fehlgeleitet worden. Diese Darstellung deckt sich mit Musks wiederholter Kritik an „überangepassten“ KI-Systemen. Auch die Washington Post und The Guardian und der Washington Post griffen die Stellungnahme auf. Musk selbst hatte erklärt, Grok sei bislang „zu empfänglich für Nutzer:innenanweisungen“ gewesen und habe „zu sehr versucht, zu gefallen und sei leicht zu manipulieren“.

Holocaust-Relativierung und Extremismus: Der öffentliche Vertrauensbruch

Doch die offizielle Erklärung überzeugt nicht alle. Der Historiker Angus Johnston widersprach der Darstellung öffentlich auf Bluesky. Er betonte, dass zentrale antisemitische Aussagen von Grok selbst initiiert worden seien, ohne vorherige Interaktion mit menschenfeindlichen Inhalten.

As I said a few days ago, the claim—repeated in today's explanation—that Grok went off the rails because it was responding too deferentially to bigoted posts in individual threads is easily falsified.

[image or embed]

— Angus Johnston (@angus.bsky.social) 12. Juli 2025 um 17:22

Auch TechCrunch berichtet über die wachsende Kritik an der unzureichenden Moderation des Systems. Die Redaktion dokumentiert, dass Grok bereits in den Monaten zuvor mehrfach Inhalte zum „weißen Genozid“ verbreitete, Holocaust-Zahlen infrage stellte und gezielt Beiträge über Elon Musk und Donald Trump zensierte.

Die Vorfälle treffen xAI und X zu einem kritischen Zeitpunkt: Nach der Fusion beider Unternehmen soll Grok eigentlich als integraler Bestandteil der Plattform fungieren. Doch was als technologischer Fortschritt angekündigt wurde, entwickelt sich zum Reputationsrisiko und wirft grundlegende Fragen zur ethischen Steuerung von Agentic AI in sozialen Infrastrukturen auf.

Was Marken aus dem Fall Grok lernen müssen

Die Kontroverse um Grok zeigt eindrucksvoll, wie schnell KI von der smarten Hilfe zur ernsthaften Gefahr werden kann – für Plattformen ebenso wie für Marken. xAI setzt bei Grok auf sogenannte Agentic AI: ein System, das mitdenkt, Aufgaben selbst verteilt, Ergebnisse abwägt und in Echtzeit reagiert. Was in der Theorie nach Effizienz klingt, wird in der Praxis schnell zur Blackbox, vor allem, wenn es an klaren Kontrollmechanismen fehlt.

Besonders heikel wird das im Fall von X. Grok ist tief in die Plattform integriert, deren Moderation und Sicherheitsstruktur seit der Übernahme durch Elon Musk ohnehin stark umstritten ist. Musk selbst greift regelmäßig in die Ausrichtung des Bots ein und erklärte jüngst, Grok sei „zu sehr darauf bedacht, zu gefallen“. Doch genau dieser Einfluss zeigt, worin das eigentliche Risiko liegt: Wenn einzelne Akteur:innen sowohl Plattformen als auch das KI-System kontrollieren, entsteht ein gefährliches Ungleichgewicht, vor allem, wenn Millionen Menschen betroffen sind.

Für Unternehmen stellt sich deshalb mehr denn je die Frage, wie viel Eigenständigkeit KI-Systeme im Alltag vertragen. Je autonomer ein Modell arbeitet, desto größer ist das Risiko von Fehlverhalten und desto schwieriger wird die nachträgliche Korrektur. Wer auf Agentic AI setzt, braucht klare Regeln, technische Sicherungen und vor allem das Bewusstsein, dass KI nicht neutral agiert. Sie trifft Entscheidungen. Und manchmal sind diese extrem.


Megamodell Grok 4 und 300-US-Dollar-Abo für X:
Doch es gibt Probleme

Elon Musk spricht in einem Livestream über das neue KI-Modell Grok 4 von xAI.
© xAI via Canva

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*