Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
Blitzschnelle Konkurrenz für ChatGPT und Grok: Groq AI setzt auf das schnellste LLM der Welt

Blitzschnelle Konkurrenz für ChatGPT und Grok: Groq AI setzt auf das schnellste LLM der Welt

Niklas Lewanczik | 20.02.24

Im Wettbewerb der AI Chatbots erlangt ein Player Aufmerksamkeit, der durch äußerst schnelle Antworten besticht: Groq. Das Tool gilt als ChatGPT-Konkurrenz und lässt an Grok auf X denken, ist jedoch schon länger da und nimmt das Namensrecht öffentlich für sich in Anspruch. Doch was kann Groq aktuell bieten?

Wenn es bei der Beantwortung deiner Fragen an einen KI-Chatbot mal besonders schnell gehen muss, kannst du auf Groq setzen. Die AI Answering Machine vom gleichnamigen Unternehmen fasziniert erste User durch ihre schnelle Content-Ausgabe. Diese beruht auf einer Language Processing Unit Inference Engine sowie eigenen Chips und Systemen. Aktuell kann das System hinter dem AI Bot Groq sogar ChatGPT hinsichtlich verarbeiteter Token pro Sekunde in den Schatten stellen. Wir haben einen Blick auf den AI Chatbot geworfen, dessen Name unweigerlich an den KI-Bot Grok auf X denken lässt; Grok von xAI hat beim Groq Team sogar für Unmut gesorgt. Was Groq leistet und wie du das Tool nutzen kannst, setzen wir dir im Detail auseinander.

Das ist Groq: Schnell dank eigener Tech-Lösungen und Open Source-Zugriff

Groq ist ein Tech-Unternehmen, das generative KI für möglichst viele Menschen zur Verfügung stellen möchte. Schon 2016 wurde es gegründet und stellt mit dem namensgleichen KI-Chatbot Groq eine Alternative zu ChatGPT, Google Gemini und Co. bereit. Den Chatbot können User kostenfrei nutzen und dabei aktuell wahlweise auf das Mixture of Experts (MoE)-Modell Mixtral 8x7B-32K oder das Large Language Model (LLM) Llama 2 70B-4K zurückgreifen. Groq zeigt sich in der Verarbeitung von Prompts und Ausgabe von Antworten als besonders schnell. Immerhin preist ein Pop-up bei der Nutzung des Groq Prompters das schnellste LLM der Welt an.

Groq weist auf die eigene Schnelligkeit hin, Screenshot groq.com, Textfeld-Overlay vor Eingabefeld des AI Bots
Groq weist auf die eigene Schnelligkeit hin, Screenshot groq.com

Besonders schnell ist Groq nach eigenen Angaben vor allem, weil das Unternehmen eigene Chips und Systeme verwendet. Dabei werden etwa Custom Application-specific Integrated Circuit (ASIC) Chip für LLMs eingesetzt, wie auch Savannah Fortis für Coin Telegraph berichtet. Des Weiteren baut Groq auf Open Source-Modelle wie Llama 2 und setzt auf eine eigene LPU (Language Processing Unit) Inference Engine, die bei der Arbeit mit LLMs leistungsfähiger, zumindest aber schneller sein soll als der Einsatz von GPUs oder CPUs.

Nach den jüngsten Demos erlangte das KI-Tool viel Aufmerksamkeit, weil es durch seine schnelle Antwortoption besticht. Beim Groq Prompter wird auch angegeben, wie lange das Tool für die Content-Ausgabe brauchte. In etwas mehr als drei Sekunden listete Groq eine Reihe von wichtigen Online Marketing Events für 2024 auf.

Groq liefert rasch umfangreiche Antworten, Screenshot groq.com, Text vom AI Bot
Groq liefert rasch umfangreiche Antworten, Screenshot groq.com

Die Content-Ausgabe können User bei Groq jedoch noch modifizieren und etwa eine freundlichere Ansprache wählen, eine verkürzte Darstellung oder auch eine Tabelle als Darstellungsform.

Modifizierungsoptionen für Groq Output, Screenshot groq.com
Modifizierungsoptionen für Groq Output, Screenshot groq.com

ChatGPT beispielsweise kann allerdings einige Prompts ähnlich schnell bearbeiten. Allerdings haben einige User schon konkrete Vergleiche angestellt und Groq als deutlich schneller erkannt.

Beitrag von @luokai
Auf Threads ansehen

Manche Antworten kommen in weniger als einer Sekunde zustande. Und zuweilen soll Groq bis zu 500 Token pro Sekunde verarbeiten können.

Als Benchmark setzte das Unternehmen im Sommer 2023 100 Token pro Sekunde, im November 2023 wurde der Rekord von 300 Token pro Sekunde erreicht (mit Llama 2). Auch bei der jüngsten Analyse von ArtificialAnalysis.ai war Groq hinsichtlich der LLM Benchmarks ganz vorn dabei. In einem Interview mit CNN erklärt CEO Jonathan Ross ausführlich, wie das Unternehmen so eine schnelle KI-Lösung bieten kann. Dabei erklärt er auch, dass grundsätzlich ein Optmierung von Performance Speed zu mehr User Engagement führen kann (etwa bei Websites). Einen Roman könnte Groq gar in 100 Sekunden verarbeiten (wenn 500 Token pro Sekunde angenommen werden).

Groq und die anderen KI-Chatbots

Groq ist sehr schnell, liefert aber nur Input mit Daten bis 2021 – ein Problem, das ChatGTP zu Beginn ebenfalls hatte. Wie bei manchen anderen KI-Tools dürften manche Antworten fragwürdig sein. Simple Anfragen aber kann Groq extrem schnell beantworten – alle Wimbledon-Sieger:innen wurden mir in unter fünf Sekunden aufgelistet (bis 2021). Du kannst dir auch in Sekunden einen Geschenk-Guide erstellen lassen.

Ein multimodaler Einsatz mit der Integration von Fotos oder der Erstellung von Fotos durch Groq ist aktuell noch nicht möglich. In diesem Kontext haben OpenAI – etwa mit den Visual und Voice Conversations oder der GPT-Integration in Konversationen –, Copilot und Google Gemini Vorteile. Groq kann aber als Speed-Option überzeugen.

Beitrag von @marcelweiss
Auf Threads ansehen

Allerdings optimieren OpenAI, Microsoft Google und Co. stetig ihre AI Chatbots und die zugrunde liegenden KI-Systeme. Erst kürzlich hat Google mit Gemini 1.5 ein extrem leistungsfähiges KI-Modell vorgestellt. Dabei erstaunt vor allem die Kontextfenstererweiterung; bis zu einer Million Token soll Gemini 1.5 Pro verarbeiten können. Demis Hassabis, CEO von Google DeepMind, erklärt:

This means 1.5 Pro can process vast amounts of information in one go — including 1 hour of video, 11 hours of audio, codebases with over 30,000 lines of code or over 700,000 words. In our research, we’ve also successfully tested up to 10 million tokens.


Gemini 1.5:

Googles AI-Modell erhält Update mit immenser Kontextlänge

© Google, Gemini-Schriftzug mit Sternsymbol, dunkler Hintergrund, Spirale bunt
© Google


Groq, Grok? Deshalb sind die Macher:innen sauer auf Elon Musk

Bei all den Erwähnungen des Unternehmensnamens und des AI Bots bleibt die Frage, was Groq eigentlich genau bedeutet. Nach Informationen des Unternehmens bezieht sich der Name auf das Verb (to) grok, das so viel wie begreifen (intuitiv und ganzheitlich) bedeutet. Dieses Wort geht auf den Science Fiction-Autor Robert A. Heinlein zurück.

Als Elon Musk im Herbst 2023 den xAI Chatbot Grok für die Plattform X ankündigte, war man bei Groq augenscheinlich nicht sehr erfreut über diese Namensgebung. So richtete sich das Team mit einem Brief an Musk:

Hey Elon,

Did you know that when you announced the new xAI chatbot, you used our name? Your chatbot is called Grok and our company is called Groq®, so you can see how this might create confusion among people. Groq (us) sounds a lot like (identical) to Grok (you), and the difference of one consonant (q, k) only matters to scrabblers and spell checkers. Plus, we own the trademark […].

Man bat um eine Umbenennung („it’s not your Groq“), doch die blieb bis heute aus. Immerhin gibt es eine kleine Unterscheidung durch den letzten Konsonanten im Wort. Jetzt verweisen viele extra darauf, dass Grok und Groq nicht das gleiche Tool darstellen.

Wir dürfen gespannt sein, was das AI Tool Groq in Zukunft zu bieten hat und ob es sich gegen die großen Player wie Gemini, ChatGPT, Copilot (und womöglich auch Chat with RTX) behaupten kann. Schnell ist es auf jeden Fall, doch das dürfte auf Dauer auch in einer schnelllebigen Digitalwelt wie der unseren nicht genug sein.

Kommentare aus der Community

Elena am 20.02.2024 um 16:07 Uhr

Danke – ein sehr spannender Artikel! Mich würde noch interessieren, welche Vor- & Nachteile die beiden Varianten haben: Mixtral8x7B-32k and Llama 270B-4k.
Vielen lieben Dank
Elena

Antworten
Niklas Lewanczik am 20.02.2024 um 16:38 Uhr

Hallo Elena,

die detaillierten Vor- und Nachteile können wir im einzelnen an dieser Stelle nicht auflisten. Beide Varianten sind als LLM verfügbar. Mixtral bietet ein sogenanntes Sparse Mixture of Experts (SMoE)-Modell, greift zum Beispiel auf 8 Parametergruppen zurück (à 7 Milliarden Parameter) und bietet einen 32K-Token-Kontext. Llama 2 bietet einen kleineren Token-Kontext und weniger Parametervariation, dafür eine größere Parametergrundzahl. In einer Reihe von Tests hat Mixtral in dieser Variante eine bessere Performance gegenüber Llama 2 (und anderen Modellen) gezeigt:

https://github.com/open-compass/MixtralKit

https://mistral.ai/news/mixtral-of-experts/

Es kommt sicherlich auf den Kontext an; du kannst beide Open Source-Modelle bei der Groq-Nutzung einfach mal testen: https://groq.com/

Liebe Grüße

Antworten
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*