Technologie
Claude toppt App Store Charts und ChatGPT vor Boykott – mitten im Kriegstaumel

Claude toppt App Store Charts und ChatGPT vor Boykott – mitten im Kriegstaumel

Niklas Lewanczik | 02.03.26

Anthropic gibt dem Pentagon einen Korb, OpenAI nicht. Das hat Auswirkungen auf die Popularität der KI-Tools, Claude erlebt einen Höhenflug. Brisant ist die Diskussion um den Einsatz der KI durch die USA auch durch den jüngsten Militäreinsatz im Iran.

Die öffentliche Diskussion um den Einsatz von Künstlicher Intelligenz im Rahmen des Verteidigungsministeriums – das sich in den USA inzwischen auch ominös Department of War nennt – hat für Verwerfungen im KI-Markt gesorgt. Claude toppte kürzlich die App Store Charts und überholte ChatGPT. Dabei wuchs der OpenAI-Dienst zuletzt immens, sah sich aber aufgrund eines Pentagon Deals Boykottaufrufen gegenübergestellt. Zugleich profitiert Anthropics Claude von einer konkreten Absage ans Pentagon und erleichtert den User-Wechsel mithilfe einer Memory-Importfunktion, die ChatGPT- oder Gemini-Erinnerungen direkt einfügen kann. Doch die Lage ist vertrackter, als es Anthropics Posts hergeben – der Wettbewerb mit OpenAI wird aber nun sogar in Kriegszeiten befeuert.


1 Million Tokens und stärkere Agents:

Anthropic stellt Claude Sonnet 4.6 vor

Claude Sonnet 4.6-Illustration.
© Anthropic via Canva


Höhenflug für Claude: Bester Download-Tag aller Zeiten

Anthropics Claude toppt aktuell die App Store Charts – vor ChatGPT und Gemini. Das gilt für die USA, aber auch Deutschland.

Sogar den besten Download-Tag aller Zeiten konnte Claude kürzlich verzeichnen und am 28. Februar über 500.000 Downloads generieren.

Während sich die Konkurrenz von OpenAI über inzwischen 900 Millionen wöchentlich aktive User und über 50 Millionen zahlende Abonnent:innen für ChatGPT freut, kann Claude zahlreiche neue User verzeichnen.


OpenAI erreicht neues User- und Abo-Hoch:

Stoppt CancelChatGPT den Höhenflug?

Sam Altman, CEO von OpenAI, vor blau-grünem Hintergrund.
© Steve Jurvetson, Wikimedia Commons, CC BY 2.0 und OpenAI via Canva


Das hat mehrere Gründe. Zum einen hat Anthropic zuletzt eine Reihe neuer Modelle mit enormem Leistungsanspruch vorgestellt, darunter Claude Opus 4.6 und Claude Sonnet 4.6. Zum anderen erleichtern Optionen wie Claude Code und Claude Cowork die Automatisierung diverser Aufgaben – sogar aus der Ferne – in ganz unterschiedlichen Lebenslagen und Aufgabenbereichen. Dazu kommt, dass Claude als KI-Umgebung anders als ChatGPT und Gemini werbefrei bleiben soll. Das aktuelle Hoch in den App Store Charts verdankt Anthropics Claude aber einer Entscheidung der Unternehmensfühung in Bezug auf die Nutzung durch das Department of Defense/War in den USA. Denn Anthropic gab diesem vor einigen Tagen öffentlichkeitswirksam einen Korb.

Anthropic, OpenAI und das US Department of War: Wenn die KI nicht eingesetzt werden soll

Anthropics CEO Dario Amodei, einst selbst bei OpenAI tätig, erklärte vergangene Woche, warum sein KI-Unternehmen einen Vertrag mit dem Department of War nicht eingehen wollte. Dabei ging es im Kern darum, dass Anthropic nicht jeglichem Einsatz mit Rechtsgrundlage zustimmen wollte. Zwei Ausnahmen, so Amodei, könne man nicht unterstützen: Massenüberwachung und den Einsatz für autonome Waffen.

Auf Threads ansehen

Als Reaktion auf diese Klarstellung wollten US-Präsident Donald Trump und Verteidigungsminister Pete Hegseth Anthropics Claude als KI-Dienst für Regierungsarbeit entfernen und Anthropic sogar als „Supply Chain Risk“ einstufen. Ob es tatsächlich zu diesem unerhörten Schritt kommt, bleibt abzuwarten. Anthropic bereitet sich indes vor:

[…] We believe this designation would both be legally unsound and set a dangerous precedent for any American company that negotiates with the government. No amount of intimidation or punishment from the Department of War will change our position on mass domestic surveillance or fully autonomous weapons. We will challenge any supply chain risk designation in court.

Die Absage des Unternehmens an den potentiellen KI-Einsatz in dystopischen Kontexten hat dem Unternehmen jedoch positive Reaktionen in den sozialen Medien eingebracht und dürfte enorm zum User-Zuwachs beigetragen haben. Gefördert wird dieser derzeit aktiv mit dem neuen Feature Memory Import. Damit können zahlende User ganz einfach und in kurzer Zeit KI-Erinnerungen – etwa von ChatGPT oder Gemini – exportieren und bei Claude importieren.

Des Weiteren hilft Anthropic der Umstand, dass die Konkurrenz von OpenAI jüngst einen Deal mit dem Verteidigungsministerium abgeschlossen hat, der den KI-Einsatz in klassifizierten Umgebungen behandelt. Daraufhin gab es vereinzelte Boykottaufrufe gegen das Unternehmen und ChatGPT, weil es Befürchtungen gibt, die OpenAI-KI könnte zu niederen Zwecken eingesetzt werden. Sogar eine Website namens https://cancelchatgpt.com/ wurde kürzlich erstellt.

Komplexes Bild des Einsatzes von KI

OpenAI beteuert in der Meldung zum Deal mit dem Verteidigungsministerium, dass dieser ganz besondere Sicherheitsmaßnahmen beinhalte und drei Einsatzszenarien ausschließe:

  • den Einsatz von OpenAI-Technologie zur Massenüberwachung
  • den Einsatz von OpenAI-Technologie für autonome Waffensysteme
  • den Einsatz von OpenAI-Technologie für automatisierte Entscheidungen mit hohem Risikofaktor (wie Kreditvergabe)

Dabei bleibt das OpenAI-Personal im Loop, weil die Technologie über die eigenen Clouds läuft. Katrina Mulligan, Head of National Security Partnerships bei OpenAI, erklärt auf LinkedIn, dass das in den sozialen Medien gezeichnete Bild der KI-Deals oft unvollständig ist.

I’ve seen a narrative emerge this week that the only thing standing between Americans and the use of AI for mass domestic surveillance and autonomous weapons is a single usage policy provision in a single contract with the Department of War.  That’s not how any of this works […].

OpenAIs Technologie könne nicht ohne Weiteres für autonome Waffensysteme genutzt werden und das US-Gesetz beschränke mit seinen „lawful uses“ ohnehin den Einsatz von Technologie, wobei OpenAI sich gegenüber Änderungen im Gesetz im Vertrag schon abgesichert habe. Nun hoffen viele, dass das KI-Unternehmen Wort hält und die US-Regierung die zugesicherten Nutzungsrechte nicht unlauter ausnutzt. Gerade in Zeiten, da die USA erneut in einem militärischen Konflikt eingetreten sind und Iran angegriffen haben. Wie komplex die Verwebungen von KI-Systemen in diese geopolitischen Aktionen und de facto Kriegsfälle sind, zeigt indes auch die Tatsache, dass beim Angriff auf den Iran noch KI-Systeme von Anthropic zum Einsatz gekommen sind, wie das Wall Street Journal berichtet.

KI-Diskurs wird stetig erweitert: Google könnte profitieren

Der Einfluss hochleistungsfähiger KI-Systeme bleibt nicht auf Kreations- und Arbeitskontexte beschränkt und bringt daher enorme Risiken mit sich. Die Abwägung von Risiken auf der einen und Profitgedanken auf der anderen Seite wird zur Herausforderung für KI-Unternehmen. Ihre Reaktionen darauf können den Markt stark beeinflussen, wenn die User mit der Haltung nicht zufrieden sind. Sowohl Claude als auch ChatGPT können sich auch abseits der politischen Diskussion unterdessen über sehr viel Zulauf freuen. Die kritische Diskussion gerade im Rahmen von Militäreinsätzen könnte letztlich aber ebenso Unternehmen zugutekommen, die in dieser kaum aktiv auftauchen – wie zum Beispiel Google. Gemini setzt OpenAI und Claude ohnehin mit steten Leistungs-Upgrades und durch die unmittelbare Integration in zahlreiche Nutzungskontexte von Milliarden Usern im Google-Kosmos unter Druck.


Gemini 3.1 Pro ist da:

Googles smartestes Modell für komplexe Aufgaben und Kreativprojekte

Gemini 3.1 Pro-Schriftzug vor dunklem Hintergrund mit leuchtenden Elementen als Punkte
© Google via Canva

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*