Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
ChatGPT startet Advanced Voice Mode mit Emotionserkennung

ChatGPT startet Advanced Voice Mode mit Emotionserkennung

Niklas Lewanczik | 31.07.24

Der Advanced Voice Mode bietet Echtzeitkonversationen mit ChatGPT, bei denen Unterbrechungen möglich sind und die KI die Emotionen der User erkennen und darauf reagieren soll. Das auf GPT-4o basierende Feature ist vorerst nur für wenige verfügbar.

Er soll die bislang natürlichste Unterhaltung mit dem KI-Tool ChatGPT bieten: der Advanced Voice Mode von OpenAI ist da. Dieser wird zunächst nur mit einer kleinen Gruppe von zahlenden ChatGPT Plus Usern getestet. Doch bald könnte er für alle User ausgerollt werden. Nach dem Start des Voice Mode im vergangenen Herbst und der Optimierung auf Basis des hochfunktionalen und multimodalen KI-Modells GPT-4o soll der erweiterte Voice Mode einer menschlichen Kommunikation im Digitalraum deutlich näherkommen.


ChatGPT kann jetzt sehen, hören und sprechen

© Mojahid Mottakin - Unsplash, Smartphone in Hand mit ChatGPT-Schriftzug, OpenAI-Grafik im Hintergrund
© Mojahid Mottakin – Unsplash


Was hat der neue Voice Mode von ChatGPT zu bieten?

Auf der Plattform X erklärt OpenAI, welche Vorteile der überarbeitete Voice Mode mit sich bringt. Dazu gehört zum einen, dass die Konversationen in Echtzeit auch Unterbrechungen enthalten können, ohne dass das Gespräch dann abbricht. Zum anderen soll die KI im Voice Mode bestimmte Emotionen von Sprecher:innen erkennen und darauf reagieren können – ähnlich wie Menschen auch.

Die ersten User – exklusiv Nutzer:innen mit Plus-Zugang – werden von OpenAI via Mail über die Option informiert. Sie erhalten in der Mail auch eine Anleitung für das Feature. Im Herbst 2024 sollen alle Plus User Zugang zum optimierten Voice Mode haben. Derweil arbeitet das KI-Unternehmen noch eifrig an der Sicherheit des Voice Mode. So wurden vorab Tests in über 45 Sprachen durchgeführt. Der Voice Mode wird nun in vier voreingestellten Stimmen verfügbar sein, um die Privatsphäre von Usern zu schützen. Auch sollen Anfragen bezüglich gewaltvoller oder rechtlich geschützter Inhalte blockiert werden.

Anfang August möchte OpenAI einen Bericht über die Fähigkeiten und Hürden des KI-Modells GPT-4o veröffentlichen. Dieser soll auch erste Erkenntnisse aus der Alphaversion des Advanced Voice Mode enthalten. Wir dürfen also auf Updates bezüglich des KI-Modells und der neuen Voice Mode-Optionen gespannt sein. Diese bedürfen womöglich aber noch Finetuning, um wirklich sämtliche Intentionen, Emtionsnuancen und dergleichen von Usern verstehen zu können – zumal in verschiedenen Sprachen, Dialekten und Aussprachemustern.

Unterdessen macht OpenAI auch mit dem Test einer eigenen AI Search auf sich aufmerksam, die Google, Bing und Co. große Konkurrenz machen dürfte.


SearchGPT:

OpenAI bringt Prototyp für eigene AI Search

© OpenAI, Farbverlauf (gelb, blau) im Hintergrund, SearchGTP-Startseite von OpenAI im Vordergrund, Suchleiste, weißer Raum
© OpenAI

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*