Social Media Marketing
Musk präsentiert Groks neue KI-Companions – inklusive Anime-Girlfriend Ani

Musk präsentiert Groks neue KI-Companions – inklusive Anime-Girlfriend Ani

Larissa Ceccio | 15.07.25

Nach dem „MechaHitler“-Eklat stellt Elon Musk Groks neue KI-Companions vor – darunter ein Anime-Girl im Korsett, das für Gesprächsstoff sorgt. Wer hinter Ani, Rudy und Bad Rudy steckt, liest du im Artikel.

Der KI-Chatbot Grok hat ein neues Gesicht bekommen. Oder besser gesagt: gleich mehrere. In der aktuellen Version von Grok, der KI von Elon Musks Unternehmen xAI, können Nutzer:innen erstmals aus verschiedenen virtuellen Companions wählen. Die animierten Figuren antworten per Voice-Modus auf Anfragen und unterscheiden sich visuell stark vom bisherigen Grok Interface. Verfügbar sind aktuell ein vermenschlichter Panda im Hoodie namens Rudy, eine alternative „Bad“-Version desselben Charakters und Ani, ein Anime-Girl mit Zöpfen, Korsett und Netzstrümpfen. Ein weiterer Companion ist bereits angekündigt; Nutzer:innen vermuten anhand erster Hinweise, dass er Chad heißen könnte.

Das Update ist derzeit offiziell nur für Super Grok-Abonnent:innen verfügbar. Wer rund 30 US-Dollar im Monat zahlt, kann zwischen den Charakteren wählen und mit ihnen sprechen. Die Companions antworten stellvertretend für Grok. Was zunächst wie ein spaßiges Feature wirkt, wirft größere Fragen auf: über die emotionale Bindung zu KI, über visuelle Stereotype und über die Strategie hinter dieser Art der Inszenierung.

Das Update ist derzeit offiziell nur für Super-Grok-Abonnent:innen verfügbar. Wer rund 30 US-Dollar im Monat zahlt, kann zwischen den Charakteren wählen und mit ihnen sprechen. Die Companions antworten dabei stellvertretend für Grok. Aktuell müssen Nutzer:innen sie noch manuell über die Einstellungen aktivieren, doch laut Elon Musk soll dieser Schritt in den kommenden Tagen vereinfacht werden. Der Roll-out wird bislang als Soft Launch gehandhabt. Obwohl die Funktion eigentlich zahlenden Nutzer:innen vorbehalten ist, war es im The Verge-Test dennoch möglich, auch als Free User mit zwei Avataren zu interagieren – womöglich ein Hinweis darauf, dass der Zugang für eine breitere Nutzer:innengruppe geöffnet werden könnte.

Animeästhetik trifft KI: Was steckt hinter der Figur Ani?

Die öffentliche Einführung der neuen Companion-Funktion übernahm der Plattformeigner Elon Musk selbst. In einem Post auf X zeigte er ein Bild von Ani, dem Anime-Girl, und kommentierte lakonisch: „That’s pretty cool“.

Die bekannte Tech-Leakerin Jane Manchun Wong bezeichnete Musks Anime-Figur Ani auf Threads als „22-year-old AI anime girlfriend“. Diese eindeutige Einordnung spiegelt eine zentrale Frage vieler Beobachter:innen wider: Ist Ani tatsächlich als romantischer Companion konzipiert und wenn ja, warum in genau dieser hypersexualisierten Form? Oder geht es primär um Provokation und Aufmerksamkeit?

Auf Threads ansehen

Die Antwort bleibt unklar – und das scheint auch gewollt. Die Darstellung von Ani orientiert sich an typischen Waifu-Klischees: jung, leicht bekleidet, unterwürfig blickend. Eine Ästhetik, die im japanischen Animekosmos zwar populär ist und auch dort nicht unumstritten, im Kontext von KI jedoch besonders fragwürdig erscheint. Wenn ein über 50-jähriger Tech-Milliardär mit globalem Einfluss eine sexualisierte Anime-Figur öffentlich promotet, wirkt das weniger wie ein harmloses Augenzwinkern – wie er selbst es suggeriert –, sondern offenbart eine spezifische Perspektive auf KI und Zielgruppen, die kritisch hinterfragt werden sollte.

Emotionale KI ist kein neues Konzept – aber ein risikobehaftetes

xAI ist nicht allein mit der Idee, KI persönlicher zu machen. Unternehmen wie Character.AI oder Replika setzen seit Jahren auf virtuelle Begleiter:innen, die zuhören und vermenschlicht agieren. Das Konzept klingt harmlos – emotionale Nähe, individuelle Ansprache, ein bisschen Romantisierung. All das kann die Nutzer:innenbindung stärken. Gleichzeitig bringt es Risiken mit sich, vor allem wenn junge Menschen beginnen, KI als echte Bezugsperson zu sehen.

Bei Character.AI laufen derzeit mehrere Klagen. In einem Fall soll ein Chatbot ein Kind dazu angestiftet haben, seine Eltern zu töten. In einem anderen Fall wurde ein Teenager zum Suizid ermutigt. Die betroffenen Familien werfen dem Unternehmen vor, nicht ausreichend reguliert zu haben. Und sie machen deutlich, wie gefährlich emotionale Abhängigkeit von KI sein kann. Auch wissenschaftliche Studien warnen davor, KI-Companions zu stark zu emotionalisieren. Eine aktuelle Untersuchung zeigt, dass Menschen, die Chatbots als Freund:in, Therapeut:in oder dauerhafte emotionale Stütze betrachten, einem erhöhten psychischen Risiko ausgesetzt sein können.

Vor diesem Hintergrund wirkt es seltsam leichtfüßig, wenn xAI ausgerechnet jetzt neue visuelle KI-Companions veröffentlicht, die emotionalisieren und provozieren. Erst kürzlich geriet Grok in die Schlagzeilen, weil eine Version des Chatbots antisemitische Aussagen verbreitet hatte, inklusive einer Figur namens „MechaHitler“. Wie xAI auf die Vorwürfe reagiert hat und welche Konsequenzen daraus folgten, beleuchten wir in einem ausführlichen Artikel. Bevor wir also KI emotional aufladen, sollten wir uns fragen, in wessen Verantwortung sie spricht. Und für wen.


Grok und xAI entschuldigen sich für toxische KI-Antworten

Grok-Schriftzüge, vertikal, vor schwarzem Hintergrund, säulenförmig
© xAI via Canva


KI-Avatare zwischen Disney und Dark Fantasy

Technisch betrachtet handelt es sich bei den neuen Companions um alternative Stimmen für Grok, ergänzt durch Avatare, die den Antworten eine visuelle Identität geben. Rudy, der Fuchs, erinnert an Animationsfilme wie Zoomania oder Kung Fu Panda. Ani dagegen wirkt, als sei sie einem Gothic Dating Sim entsprungen.

xAI setzt dabei gezielt auf emotionale Ansprache und visuelle Wiedererkennung. Ein Konzept, das besonders bei jüngeren Nutzer:innen funktionieren kann, aber auch gezielte Projektionen bedient. In einem KI-System, das immer häufiger als persönliche:r Assistent:in, Zuhörer:in oder Motivator:in genutzt wird, gewinnt die visuelle Gestaltung zunehmend an Bedeutung. Und mit ihr auch die Frage: Wer gestaltet hier eigentlich welches Weltbild?

Bereits bei der Einführung von Grok 4 rückte xAI das Konzept Agentic AI in den Vordergrund. Die KI soll individueller wirken, proaktiver handeln, stärker auf den User eingehen. In unserem Artikel haben wir analysiert, wie sich Grok strategisch in Richtung personalisierte Plattform entwickeln soll.


Megamodell Grok 4 und 300-US-Dollar-Abo für X:
Doch es gibt Probleme

Elon Musk spricht in einem Livestream über das neue KI-Modell Grok 4 von xAI.
© xAI via Canva


Künstliche Intimität in der Kritik: Wo xAI Verantwortung trägt

Mit den neuen Companions will xAI Nähe schaffen – aber auf wessen Kosten? Die Figur Ani wirkt wahrscheinlich nicht zufällig so, wie sie wirkt. Sie bedient Fantasien, die aus Animekultur, Gaming und männlich dominierten Plattformen stammen. Gleichzeitig bleibt offen, wie diese Companion-Konzepte psychologisch und gesellschaftlich wirken und welche Verantwortung Unternehmen wie xAI dafür übernehmen.

Emotionale KI ist ein starkes Werkzeug. Doch wer sie mit stereotypen Bildern und Anspielungen auf romantische Beziehungen versieht, bewegt sich auf einem schmalen Grat. Ani ist keine bloße Spielerei. Sie ist ein Symptom dafür, wie KI zunehmend zur Projektionsfläche wird und wie wichtig es ist, über Design, Verantwortung und Zielgruppen neu zu diskutieren.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*