Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
OpenAI bringt verbessertes GPT-4 Turbo-Modell für ChatGPT und die API

OpenAI bringt verbessertes GPT-4 Turbo-Modell für ChatGPT und die API

Niklas Lewanczik | 10.04.24

Mit GPT-4 Turbo stellt OpenAI sein hochfunktionales KI-Modell auch für ChatGPT bereit. In der API kann dieses inzwischen unter anderem mit dem Vision Feature genutzt werden.

ChatGPT wird immer vielfältiger und funktionaler. Seit einiger Zeit kann der KI-Bot von OpenAI Textantworten vorlesen, User können das Tool jetzt auch ohne Login nutzen und die Bildbearbeitung per Prompt via DALL-E wurde ebenfalls ermöglicht. Jetzt rollt das AI-Unternehmen den Support von ChatGPT mit dem verbesserten Modell GPT-4 Turbo aus. GPT-4 Turbo ist beispielsweise auch bei Microsofts AI Assistant Copilot als Modell integriert. Die jüngste Version des Modells liefert aber noch mehr Möglichkeiten, die Entwickler:innen in der API schon umfassend nutzen können. Dabei geht es um sogenannte Vision Requests, die ganz neue Multimodalitätsfunktionen ermöglichen.

OpenAIs Modell-Update für GPT-4 Turbo

Auf X schreibt OpenAI von einem außerordentlich optimierten Modell, das für ChatGPT und die API bereitgestellt wird. Im Website-Bereich zu den Modell-Updates ist zu lesen, dass GPT-4 Turbo jetzt visuelle Fähigkeiten mitbringt, die über JSON und das sogenannte Function Calling als Vision Request integriert werden können. Was das in der Praxis bedeutet, zeigen verschiedene Entwickler:innen. So hat beispielsweise Healthify eine Applikation namens Snap mit GPT-4 Turbo samt Vision-Modus erstellt, die Nutzer:innen Ernährungs-Insights auf Basis von Food Visuals liefert.

Das ist aber nur eine Einsatzoption und OpenAI liefert auf X weitere Beispiele. Das Kontextfenster für GPT-4 Turbo liegt im Bereich von 128.000 Token. Die Nutzung des Modells mit seinen optimierten Fähigkeiten bei ChatGPT dürfte dazu beitragen, dass zahlende User fortan noch besser multimodale Anforderungen mithilfe des Tools stellen und entsprechende Ergebnisse erwarten können.

Derweil muss sich OpenAI jedoch Kritik an der eigenen KI-Modellentwicklung stellen. Es ist nicht ganz klar, welche Grundlagendaten dafür verwendet wurden und das Unternehmen soll etwa für Sora auch öffentliche YouTube-Videos genutzt haben. Das würde allerdings gegen YouTube-Richtlinien verstoßen. Für mehr Klarheit könnte in solchen Fällen künftig der AI Act sorgen – in der EU.


OpenAI lässt mehr Finetuning zu und erweitert das Custom Model Program

© Mariia Shalabaieva - Unsplash, OpenAI-Logo, pinkfarben und mehrfach
© Mariia Shalabaieva – Unsplash

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*