Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
New Era of Search: Google stellt neue AI-Optionen vor

New Era of Search: Google stellt neue AI-Optionen vor

Larissa Ceccio | 09.02.23

Google stellte im Rahmen eines KI-Events in Paris die neuesten Features vor, die das Erkunden von Informationen in der Multisearch und in Google Maps sowie das Übersetzen im Google Translator revolutionieren.

Der größte Suchmaschinenkonzern weltweit hat kürzlich mit Bard ein Tool für die KI-Suche präsentiert. Zusätzlich entwickelt Google diverse KI-Integrationen für verschiedene Dienste, unter anderem für die Multisearch. Auf einer jüngst stattgefunden Google-Konferenz in Paris stellte das Unternehmen die AI-Pläne für die verschiedenen Bereiche vor. Neben der genannten Punkte ging es auch um Neuerungen für Google Maps, den Google-Übersetzer und Arts & Culture. Den Live Stream zum Event kannst du dir in diesem Video anschauen:

Viele der präsentierten Features wurden bereits bei Googles Search On 22 Event vorgestellt, andere Entwicklungen zeigte Google als Follow-up im Herbst 2022.

Multisearch jetzt weltweit verfügbar

Googles Multisearch wird jetzt weltweit ausgerollt. Damit ist Multisearch nun auch in über 70 Sprachen verfügbar. Multisearch Near Me soll in den kommenden Monaten für alle User zur Verfügung gestellt werden.

Mit der Kombi-Suche können User auf eine neue Weise suchen, da Google alle Arten von Informationen in der Suche miteinander kombiniert: Text, Sprache, Bilder und mehr. Google erklärt in der Ankündigung

So können Nutzer:innen hilfreiche Informationen zu allem, was sie sehen, hören und erleben, auf eine intuitive und natürliche Weise finden – sogar bei Fragestellungen, die zuvor nicht möglich waren.

Das folgende Schaubild zeigt dir, wie du die Kombi-Suche verwenden kannst.

So wendest du die Kombi-Suche an, © Google

25 Jahre Google-Suche

Bei Google gibt es schon lange KI-Integrationen, zum Beispiel im Kontext der Technologie MUM. Sie basiert – wie Googles BERT – auf der sogenannten Transformer Architecture. Laut Google ist MUM allerdings „1.000 Mal kraftvoller“. Das Multitask Unified Model ist für 75 Sprachen trainiert und kann verschiedene Aufgaben parallel bewältigen. Dazu kann es Informationen auf verschiedenen Leveln verstehen, sei es auf Text- oder Bildebene oder auf Video- und Audioebene. Mithilfe dieser Technologie führte das Suchmaschinenunternehmen 2022 multimodale Suchen, die sogenannte Multisearch, ein. Prabhakar Raghavan, Senior Vice President und zuständig für den Bereich Knowledge & Information bei Google, rief eine Revolution der Suche aus:

Heute definieren wir die Google Suche neu und kombinieren unser Verständnis aller Arten von Informationen – Text, Sprache, Bild und mehr – damit ihr nützliche Informationen zu allem, was ihr seht, hört und erlebt, auf die intuitivste Weise finden könnt. Wir stellen uns eine Zukunft vor, in der ihr eure ganze Welt auf jede Art und Weise durchsuchen könnt.

Die Art und Weise, wie Menschen suchen, könnte sich durch den Einsatz von KI allerdings schon in den kommenden Monaten drastisch ändern, sofern Suchende oder Interessierte einfach in die Konversation mit einem Chatbot gehen können.

The only limit in Search will be your imagination.

sagte Raghavan auf der Paris-Konferenz.

Die Kombination von Multisearch und Googles KI-Integrationen – allen voran Bard – soll ein völlig neues Sucherlebnis ermöglichen. Ein solches verspricht zeitgleich auch Microsoft Bing im Rahmen der Integration des Prometheus Models, das auf ChatGPT basiert und die Suche mithilfe eines KI-Chatbots in die Praxis überträgt.

Google Maps: noch immersiver und mehr klimafreundliche Optionen

Die immersive Ansicht, Updates zu Live View, neue Auflademöglichkeiten für Elektroautos und übersichtliche Wegbeschreibungen auf einen Blick – das sind die neuen Google Maps Features, die wir dir in den folgenden Absätzen näher vorstellen möchten.

Immersive View in Google Maps

Google erweitert die Immersive View in Maps. Mit diesem Feature kannst du AR-Orte erkunden und dabei wertvolle Informationen erhalten. Beispielsweise kannst du an einem dir unbekannten Platz, etwa im Urlaub oder auf einer Business-Reise, einfach Geldautomaten, Restaurants, Parks, Bahnhöfe und vieles mehr schnell finden. Halte dein Smartphone zur Aktivierung einfach aufrecht, während du auf der Straße unterwegs bist.

Live View, © Google (mit einem Klick gelangst du zu einer größeren Ansicht)

Mithilfe von KI-Fortschritten und maschinellem Sehen „verschmilzt die immersive Ansicht Milliarden von Street View- und Luftaufnahmen, um ein detailliertes, digitales Modell der Welt zu erstellen. Darüber hinaus werden hilfreiche Informationen wie das Wetter, der Verkehr oder wie voll es vor Ort ist ergänzt“, heißt es auf dem Google Blog.

Die Immersive Ansicht wird zunächst in London, Los Angeles, New York, San Francisco und Tokio ausgerollt. In den kommenden Monaten soll das Feature in weitere Städte kommen, etwa nach Amsterdam, Dublin, Florenz und Venedig.

Mit AR erkunden und navigieren – auch an Indoor-Orten

Eine neue Indoor Live View ermöglicht es Usern, sich an unübersichtlichen Orten, wie zum Beispiel an einem Flughafen, leichter zurecht zu finden. Mit dem Feature kannst du dir auf dem Smartphone Screen per Augmented Reality für dich relevante Informationen anzeigen lassen.

Die Indoor Live View wird in den kommenden Monaten auf mehr als 1.000 Flughäfen, Bahnhöfen und Einkaufszentren gebracht – darunter auch in den deutschen Städten Berlin und Frankfurt.

Google führt neue Funktionen für E-Mobilität ein

Immer mehr Menschen setzen auf Elektrofahrzeuge und viele Hersteller:innen bieten inzwischen das passende oder verschiedene E-Modelle an. Deshalb führt Google Maps in den kommenden Monaten weltweit neue Funktionen für Elektroautofahrer:innen ein, etwa Ladestopps für Fahrten, das Finden von Ultraschnellladefunktionen und Ladestationen in den Suchergebnissen. Diese können Fahrer:innen in den integrierten Google Apps und Services aufrufen.

Redesign für iOS und neue Features für mehr Kontext beim Google-Übersetzer

Google präsentierte im Rahmen des KI-Events auch die neuen KI-gestützten Funktionen für den Google-Übersetzer. So soll der Google Übersetzer ab sofort kontextbezogenere Übersetzungen liefern können. Wenn also ein Wort zwei verschiedene Bedeutungen hat, versucht der Translator mithilfe des übrigen Textes zu ermitteln, welches Wort das passendste ist.

Kontextbezogene Übersetzungsoptionen des neuen Google-Übersetzers, © Google

Das Feature wird in Englisch, Deutsch, Französisch, Spanisch und Japanisch ausgerollt.

Zudem launcht Google das Redesign für die Übersetzungs-App nun auch für iOS. Außerdem erhalten User neue Navigationsmöglichkeiten: Wischst du nach oben, erhältst du jetzt deine zuletzt übersetzten Begriffe. Des Weiteren kann der neue Google-Übersetzer ab sofort 33 neue Sprachen offline übersetzen, darunter Kurdisch, Luxemburgisch und Jiddisch. Überdies kannst du jetzt dank maschinellem Lernens übersetzten Text in komplexe Bilder einbinden, sodass diese natürlicher aussehen. Noch mehr Informationen zu den neuen Funktionen des Google-Übersetzers findest du auf dem Google Blog.

Google Arts & Culture bietet zahlreiche neue Features

Im Rahmen der Ankündigung präsentiert Google neun interessante Projekte von Google Arts & Culture und demonstriert, wie Künstliche Intelligenz in der Kulturwelt eingesetzt werden kann. Zwei spannende Projekte davon möchten wir dir hier vorstellen. Google sagt:

Als Werkzeug und Hilfestellerin eröffnet KI – wie andere revolutionierende Technologien zuvor – eine Vielzahl von Möglichkeiten für Kunstschaffende, Ingenieure und Kultureinrichtungen, sei es innerhalb des kreativen Prozesses, zur Lösung einer Problemstellung oder als neuer Weg, mit dem Publikum zu interagieren.

Google hat beispielsweise mit Kuratorinnen des Smithsonian zusammengearbeitet, um maschinelle Lernwerkzeuge zu entwickeln, die dazu beitragen können, die Geschichte und Beiträge von Frauen in der Wissenschaft aufzudecken, die bisher schwer zu finden waren.

Die Tools bieten Kurator:innen und Datenwissenschaftler:innen Analysen und Visualisierungen im großen Maßstab von kulturellen Daten aus fast zwei Jahrhunderten an.

Außerdem macht Google es dir in Zusammenarbeit mit dem Centre Pompidou jetzt möglich, Farben zu hören, dank KI. Richtig gelesen: Ab sofort kannst du Wassily Kandinskys Synästhesie erforschen und sein Meisterwerk Gelb-Rot-Blau mit Hilfe von maschinellem Lernen „spielen“.

Blob Opera wiederum ist ein spielerisches maschinelles Lernexperiment, das musikalische Ideen aufnimmt und sie in Operngesang umwandelt. Für dieses Projekt wurden Stimmen von vier professionellen Opernsänger:innen verwendet, um das neuronale Netzwerk zu trainieren. Blob Opera ist ein digitales Instrument für alle Musikbegeisterte, unabhängig von ihren musikalischen Fähigkeiten, und wurde bereits von verschiedenen Personen in vielen Bereichen eingesetzt, etwa von Lehrkräften im Klassenzimmer, professionellen Künstler:innen und kreativen Amateur:innen. Mehr dazu hier.


Trotz SEO-Bemühungen wird dein Content nicht gesehen? Beim Digital Bash – SEO am 21. Februar erfährst du, wie deine Digitalinhalte ab sofort besser ranken.

Höher, besser, smarter ranken: Digital Bash – SEO

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*