Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
Gemini 2.0: So kannst du Googles Mega-KI-Modell testen

Gemini 2.0: So kannst du Googles Mega-KI-Modell testen

Niklas Lewanczik | 12.12.24

Mit Gemini 2.0 hat Google das leistungsfähigste eigene KI-Modell vorgestellt, das eine Agents-Ära einleiten soll. Du kannst die Version Gemini 2.0 Flash bereits testen. Derweil bringt Google auch Deep Research Assistance für Gemini.

Schon im November gab es Hinweise auf einen baldigen Launch von Googles nächster Version des leistungsfähigen KI-Modells Gemini. Und jetzt folgt auf Gemini 1.5 die neue Version Gemini 2.0. Sie soll das bisher beste KI-Modell Googles darstellen und bietet multimodale Optionen mit nativem Audio- und Visual Input. User können also mit Gemini sprechen und sich zugleich erklären lassen, was das Handy live zeigt. CEO Sundar Pichai erklärt:

[…] Today we’re excited to launch our next era of models built for this new agentic era: introducing Gemini 2.0, our most capable model yet. With new advances in multimodality — like native image and audio output — and native tool use, it will enable us to build new AI agents that bring us closer to our vision of a universal assistant […].

Auf Threads ansehen


Google Gemini 2.0 schon im Einsatz?

Gemini-Schriftzug, dunkler Hintergrund, bunte Symbole wie ein Stern
© Google via Canva


Das alles kann Gemini 2.0: Flash, Testing und Deep Research

Gemini 2.0 ist da und bietet vor allem Entwickler:innen deutlich mehr Möglichkeiten als noch die Version 1.5 Pro. Für diese stellt Google nicht nur den multimodalen Output und erweiterten Tool-Einsatz bereit, sondern auch die Multimodal Live API für Echtzeitapplikationen, die interaktiv sind, und die KI-gestützte Code-Assistenz namens Jules. Diese ist direkt in den GitHub Workflow integriert und ist ein Beispiel für Googles Bestreben, hilfreiche KI-Assistenz in verschiedensten Bereichen zu liefern.

Auf Threads ansehen

So bietet das Unternehmen, schon seit 2016 eine AI-first Company, neuerdings die Rechercheassistenz Deep Research. Diese setzt auf fortschrittliche Schlussfolgerungen, längeres Nachdenken und äußerst große Kontextfähigkeiten, um auch bei komplexen Themen Researchern jeder Fasson Unterstützung bieten zu können – inklusive Quellen-Links und Hilfestellungen.

Auf Threads ansehen

Millionen von Entwickler:innen setzen bereits auf Gemini-Lösungen. Dabei denken sie auch Google-Lösungen neu. Pichai nennt NotebookLM als ein Beispiel für den Einsatz multimodaler Optionen. Und die Gemini 2.0 Flash-Version ist jetzt schon für Tester:innen verfügbar. 2.0 Flash baut 1.5 Flash auf und unterstützt jetzt nicht nur multimodalen Input, sondern auch Output. Mit Gemini 2.0 können User also beispielsweise auf Kameravisuals verweisen und per Sprachkonversationen Informationen zu Gesehenen erhalten oder sogar Multimodalkombinationen aus Text und Visuals im Antwortkontext sehen. Auch kann Gemini 2.0 eigenständig einige vorab definierte Funktionen übernehmen. Über die Gemini API in Vertex AI und das Google AI Studio ist die 2.0 Flash-Version bereits zum Testen verfügbar. Dabei kannst du etwa Fragen stellen, deinen Screen teilen oder auch per Video Gemini zeigen, was du analysiert haben möchtest.

Die Nutzung der Multimodal Live API im Google AI Studio, © Google
Die Nutzung der Multimodal Live API im Google AI Studio, © Google

Außerdem können User mobil und via Desktop im Web bereits die experimentelle Version von Gemini 2.0 nutzen. Dabei warnt Google davor, dass es eventuell aufgrund des experimentellen Kontexts nicht immer wie erwartet funktioniert.

Gemini 2.0 Flash Experimental ist schon weltweit verfügbar, eigener Screenshot
Gemini 2.0 Flash Experimental ist schon weltweit verfügbar, eigener Screenshot

Anfang 2025 sollen weitere Produkte mit Gemini 2.0 ausgestattet werden.

Noch mehr agentische Einsatzoptionen

Mit dem Project Astra lotet Google Perspektiven und Einsatzoptionen für die AI-Assistenz aus. In diesem Kontext startet Google ebenso das Project Mariner, das die Interaktionen zwischen Mensch und AI-Assistenz analysieren soll. Im Rahmen von Project Astra können User über Android Phones die KI nutzen, um Konversationen in diversen Sprachen (auch gemixt) führen zu lassen, Produkte wie Lens, Maps und Search miteinzubeziehen, Konversationen zu erinnern und mit geringerer Latenz Antworten der KI zu erhalten. Solche Optionen sollen dann in die Gemini App übertragen werden. Wie derlei Möglichkeiten bei der Entdeckung Londons aussehen könnten, zeigt Google in einem Video.

Im Project Mariner wiederum kann die KI aktiv einzelne Aufgaben für User übernehmen, etwa Schreiben und Scrollen. Erste Tester:innen nutzen das KI-Projekt schon als Chrome-Erweiterung. Zudem setzt Google im Game-Kontext ebenfalls auf KI-Modelle und Tools, um diese in der spielerischen Umgebung zu verbessern.

Noch mehr Details zu Gemini 2.0 findest du auf Googles Website. Und du kannst das Modell bereits testen, um Googles neueste KI-Kreationen zu erleben. Der Launch von Gemini 2.0 kommt zu einer Zeit, in der die Konkurrenz von OpenAI fast täglich neue Features für ChatGPT und Co. vorstellt, jüngst etwa die umfassende Integration in Apple-Geräten.


Gemini 1.5:

Googles AI-Modell erhält Update mit immenser Kontextlänge

Google Gemini-Logo
© Google

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*