Technologie

Smartphone-Bedienung mit Gesten? Google erhält spezielle Genehmigung für Sensor

Das Projekt Soli von Google arbeitet an einem radarbasierten Sensor, der Handbewegungen wahrnimmt und in Befehle für Geräte umwandelt.

Googles Soli Sensor arbeitet mir Radartechnologie, Screenshot YouTube, © Google ATAP

Die US-amerikanische Federal Communications Commission (FCC) hat Google jüngst eingeräumt das Projekt Soli und den spezifischen Sensor auf einem höheren Frequenzlevel zu nutzen. Facebook und Co. hatten zuvor Bedenken geäußert, dass andere Technologien beeinträchtigt werden könnten. Diesen Einwand tat die FCC ab und gewährt Google nun den Schritt, der zu einer ganz neuen Form der Bedienung von Smartphones führen könnte.

Mehr Freiheiten bei der Bedienung? Projekt Soli soll es möglich machen

Google beschreibt es auf der offiziellen Website zum Projekt selbst, was eigentlich die Funktion desselben ist:

Soli is a new sensing technology that uses miniature radar to detect touchless gesture interactions.

Der Interaktionssensor nutzt Radar, um Bewegungen der menschlichen Hand zu tracken. Sehr schnell und genau werden dabei Bewegungen im Sub-Millimeter-Bereich gemessen. Auf diese Weise soll eine „Sprache“ entwickelt werden, die eine Interaktion mit technischen Geräten ermöglicht, welche ohne Berührung dieser auskommt.

Solch ein Modell könnte ebenso Sehbeeiträchtigen usw. zugute kommen.

Mit Virtual Tools sollen Aktionen metaphorisch mit bekannten Bewegungsmustern verbunden werden, um schneller ein Verständnis für die nötigen Bewegungen herzustellen. Virtuelle Buttons oder virtuelle Slider sind nur eine Option.

Die Berührung der Finger soll hierbei eine haptische Responsivität herstellen.

Wie funktioniert das System?

Der Soli Sensor gibt elektromagnetische Wellen in einem breiten Strahl aus. Objekte innerhalb dieses Strahls geben an die Radarantenne bestimmte Signale. Dabei werden aufgrund von Energie, Frequenz oder Zeitunterschied Informationen über das Objekt erkannt, darunter die Form, die Größe, die Entfernung, das Material, die Orientierung oder die Geschwindigkeit. Dynamische Gesten werden also vom Soli Sensor getrackt, analysiert und schließlich erkannt. Tatsächlich benötigt der Sensor keine große Bandbreite, sondern reagiert auf Nuancen erhaltener Bewegungssignale und ihrer Charakteristika. Darauf aufbauend kann Soli Bewegungen von Fingern und Händen unterscheiden und einordnen – sodass diese zu Befehlen für elektronische Geräte wie Smartphones werden können.

Im Soli SDK können Entwickler dann basierend auf der Gestenerkennungs-Pipeline von Soli Interaktionsmöglichkeiten integrieren. Nach Angaben zum Prototyp sollte das System im Bereich von 60 GHz arbeiten. Daher wurde im März 2018 die FCC gebeten, eine Operation im Bereich von 57 bis 64 GHz zu erlauben, da diese mit den Standards der europäischen Telekommunikation übereinstimmt, wie Reuters berichtet. Facebook hatte zunächst Bedenken geäußert, dass durch eine Nutzung im höheren Frequenzbereich Interferenzen mit anderer Technologie auftreten könnten. Die Bedenken waren im September bereits ausgeräumt worden. Nun hat die FCC der Nutzung im geforderten Bereich zugestimmt; die Entscheidung, so heißt es,

will serve the public interest by providing for innovative device control features using touchless hand gesture technology.

Dabei sei gebe es lediglich minimales Potential zur schädlichen Interferenz.

Die neue Art der Bedienung von technischen Geräten könnte vielen Menschen zugute kommen, darunter sicherlich auch sprachlich Beeinträchtigten, denen Voice Control schwerlich möglich ist. Insgesamt könnte sich die gesamte Handhabe von Smartphones oder Tablets ändern. Vielleicht werden wir in wenigen Jahre nur per Stimme und mit nuancierten Gesten Geräte bedienen. Die Genehmigung der FCC für Google trägt zumindest dazu bei, dass dieses spannende Projekt den nächsten Schritt machen kann. Jedenfalls rückt die Zukunft immer näher. Und dass auch Werbetreibende künftig einen CTA oder eine Message auf eine derartige Bedienung ausrichten könnten, versteht sich. Wir dürfen gespannt erwarten, wann Google uns und der gesamten Digitalindustrie mit dem Soli Sensor eine ganz neue Interaktion eröffnet.

Über Niklas Lewanczik

Niklas Lewanczik

Niklas hat an der Uni Hamburg Deutsche Sprache und Literatur sowie Medien- und Kommunikationswissenschaften studiert und schreibt als Redakteur über Social Media, SEO und innovative Themen im Kontext des digitalen Marketing. Wenn er sich nicht gerade dem Marketing zuwendet, dann womöglich den Entwicklungen im modernen Fußball oder dem einen oder anderen guten Buch.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.