Im Rahmen unserer Websites setzen wir Cookies ein. Informationen zu den Cookies und wie Ihr der Verwendung von Cookies jederzeit widersprechen bzw. deren Nutzung beenden könnt, findet Ihr in unserer Datenschutzerklärung.

Bedienen ohne Anfassen: Google stattet Smartphones mit Radar aus

Bedienen ohne Anfassen: Google stattet Smartphones mit Radar aus

Google hat von der FCC die Genehmigung für eine neue radarbasierte Technologie erhalten, die es Nutzern ermöglichen könnte, ihr Smartphone zu bedienen, ohne das Gerät überhaupt zu berühren. Die neue Bewegungssensorik ist Teil von Project Soli. Sind Gesten in der Luft die Zukunft der Smartphone-Nutzung?

Google benötigt die FCC-Zulassung, um seine neue Art von Bewegungssensor weiter zu testen, da es Leistungsstufen verwendet, die höher sind als das, was derzeit erlaubt ist. Google beantragte die Genehmigung für den Betrieb im Frequenzband von 57 bis 64 GHz, erhielt aber nur die Genehmigung für einen Bereich, der etwas über dem liegt, was derzeit erlaubt ist. Trotz der Entscheidung sagt Google, dass sie Project Soli weiter entwickeln werden.

Nach der Genehmigung können die Entwickler in Mountain View mit dem Projekt fortfahren, das darauf abzielt, "die berührungslose Steuerung von Gerätefunktionen oder -merkmalen zu ermöglichen, die Nutzern mit Mobilitäts-, Sprach- und Tastbeeinträchtigungen zugute kommen können", wie es Google ausdrückt. Das soll durch Streichen in der Luft und durch gemeinsames Berühren von Daumen und Zeigefinger funktionieren, auch wenn die Hand etwas weiter von dem Smartphone entfernt ist.

AndroidPIT huawei mate 20 pro front
Das Antippen und Durchziehen könnte bei Android bald der Vergangenheit angehören. / © AndroidPIT

Handschuhe und Smartphone? Kein Problem!

Das Radar funktioniert auch durch Kleidung und Stoffe, was bedeutet, dass Ihr das Gerät problemlos mit Handschuhen oder sogar in der Tasche bedienen könnt, ohne es herausnehmen zu müssen.

Wir haben diese Art von Navigationstechnologie für Bewegungsgesten schon einmal gesehen, aber nie in der Form, die Google mit Project Soli im Blick hat. Bixi, ein tragbarer Tauchersicherheitsbegleiter, der Gesten in der Luft registrieren kann, um das Smartphone zu steuern, ist in der Lage, Anrufe zu tätigen und Nachrichten zu senden, aber er basiert auf optischer Technologie, nicht auf Radar, und die Reichweite ist auf 3 bis 20 Zentimeter begrenzt.

Google befindet sich mit Project Soli noch in der Testphase, so dass es einige Zeit dauern könnte, bis wir die Technologie tatsächlich auf dem Markt sehen werden. Einige Nutzer werden zudem über die Menge der Metadaten besorgt sein, die Google mit so einem Radar sammeln kann.

Was haltet Ihr von der Möglichkeit, mit Gesten durch das Handy zu navigieren?

Empfohlene Artikel

5 Kommentare

Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!
Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!

  • Coole Sache, wäre wirklich etwas neues


  • (hach ... immer eine Freude, wenn sich die Redaktion zum Titelbild sooo viele Gedanken macht und ein iPhone zeigt, wenn es um Google Hardware geht ...
    😂😂😂)


    • Man kann halt nicht jedes Bild aus dem Internet einfach als Titelbild verwenden, da spielen die Bildrechte eine Rolle. Und das hier erschien durch die Google Schriftzüge dennoch sehr passend. :)


  • Dank Spracherkennung kann man doch auch sein Smartphone ohne Berührung bedienen.


  • Diese hohen Frequenzbereiche sind weder erforscht noch kann ich mir vorstellen, das noch mehr dieser Frequenzpfuscherei für die Umwelt, sprich für den Menschen, gut ist. Schon 5G ist bedenklich. Nun ja, ich bin gespannt ob diese Technik irgendwann in dern Geräten stecken wird und uns "gesünder" macht. Ich verstehe aber den Sinn (noch) nicht in einem "normalen" Smartphone. Bei speziellen Themen wie Unterwasser oder im Weltraum wäre das sicher eine Technik die Sinn machen kann.

Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!