Project Soli & the Coming Use of Radar in Human-Machine Interfaces

Radar ist eine 85 Jahre alte Technologie, die bis vor kurzem noch nicht aktiv in Mensch—Maschine-Schnittstellen eingesetzt wurde. Radarbasierte Gestenerkennung ermöglicht es, die Benutzerabsicht über mehr Kontexte hinweg abzuleiten, als dies derzeit nur durch optisches Tracking möglich ist.

Googles Verwendung von Project Soli, einem radarbasierten Gestenerkennungssystem, in den Telefonen der Pixel 4-Serie ist höchstwahrscheinlich der erste Schritt zur weiteren Einführung von Radar als Eingabe für die Interaktion mit unseren Geräten.

Hintergrund zum Projekt Soli

Auf der Google I/ O 2015 kündigte die ATAP-Gruppe (Advanced Technology and Projects) mehrere neue Initiativen an. Dazu gehörten:

  • Project Abacus — Multi-Faktor—Benutzerauthentifizierung basierend auf Benutzerstandort, Tippmustern und Sprachmustern
  • Project Vault — eine sichere Computerumgebung auf einer microSD-Karte für jede Plattform
  • Project Jacquard – leitfähiger Faden, der in massenproduzierbare Textilien eingebettet ist, um tragbare Interaktionen zu erstellen
  • Project Soli — ein winziger Radarsensor, der Mikrogesten erkennen kann

Davon sind Jacquard und Soli noch aktiv – Jacquard wurde in eine Vielzahl von Konsumgütern mit Mode integriert marken wie Levi’s, Saint Laurant und Adidas.

Nach mehreren Prototyp-Iterationen integrierte Google Soli als Teil der Motion Sense-Funktion in das Pixel 4, mit der das Telefon den Prozess der Gesichtsauthentifizierung starten kann, bevor der Besitzer des Telefons sein Telefon überhaupt berühren muss.

Soli-Prototypen

Kurz nach der Ankündigung bei I / O rief ATAP Drittentwickler auf, sich für das Alpha Developer Program für Project Soli zu bewerben, um Feedback zu ihrem Early Stage Development Kit zu erhalten. Ich füllte einen Antrag aus, um musikbasierte Interaktionen mit Soli zu entwickeln, und wurde in das Programm aufgenommen.

Ich habe hier mehr über meine Erfahrungen als Mitglied des Alpha Developer Program geschrieben; was ich mit diesem Blogbeitrag tun wollte, war mehr einen Überblick über die Fähigkeiten von Millimeterwellenradar zu geben, und wie sie bestimmte neue Erfahrungen und Experimente auf dem Gebiet der Mensch-Computer-Interaktion ermöglichen.

Seit der Ankündigung des Projekts Soli wurden mehrere wissenschaftliche Arbeiten zu diesem Thema verfasst, in denen verschiedene Anwendungsbereiche untersucht wurden. Wir werden uns diese ansehen; sowie einen schnellen Überblick darüber, was Millimeterwellenradar ist und welche Arten von Eigenschaften es bietet.

Werfen wir zunächst einen Blick auf das erste kommerzielle Produkt, das Project Soli verwendet, das Pixel 4.

Das erste kommerzielle Produkt, das Project Soli integriert, ist das Pixel4, das im Oktober 2019 von Google veröffentlicht wurde.

Die Teaser-Anzeige deutete an, dass das neue Telefon das erste Produkt sein würde, das in Soli integriert wird. angesichts der darin gezeigten berührungslosen Luftgesten:

Der Soli-Chip bietet drei neue Arten von Funktionen für das Pixel 4:

Präsenz – Dank der Fähigkeit des Radars, Bewegungen in der Nähe zu erkennen, von wo aus es platziert wird, schaltet das Pixel 4 das Always-On-Display aus, wenn sich der Benutzer des Telefons nicht in der Nähe befindet, während es auf einem Tisch liegt. daher in der Lage sein, sowohl Batteriestrom zu sparen als auch nicht in die Aufmerksamkeit des Benutzers einzudringen

Reichweite – Der Soli-Sensor erkennt, ob sich eine Hand; aufwachen des Bildschirms und Aktivieren der Frontkameras für Face-Unlock

Gesten

  • Flick
  • Präsenz
  • Reichweite
  • Wischen

9 zu 5 Google hat eine Analyse des Pokemon Wave Hello-Spiels durchgeführt, das im Lieferumfang der Pixel 4-Telefone enthalten ist, und ein Unity-Plug-In im Spiel entdeckt, das mit einer auf dem Telefon ausgeführten „Motion Sense Bridge“ -Anwendung verbunden war, mit der die Spieleentwickler Zugriff auf verschiedene Gestenparameter hatten:

Flick

  • flickConfidence
  • flickDirection
  • flickPrediction
  • flickRange
  • flickVelocity

Präsenz

  • presenceConfidence
  • presencePrediction
  • presenceRange
  • presenceVelocity

Reichweite

  • Reichweiteazimut
  • Reichweiteconfidence
  • reachElevation
  • reachPrediction
  • reachRange
  • reachVelocity

Wischen

  • swipeAmplitude
  • swipeConfidence
  • swipeDirection
  • swipeIntensity
  • swipePrediction
  • swipeTheta

Derzeit haben Drittanbieter keinen Zugriff auf die MotionSense-Gesten, es sei denn, sie haben von Google Zugriff auf die interne Android MotionSense Bridge-App erhalten. Hoffentlich wird Google vollen Zugriff auf den Soli-Sensor eröffnen, damit Entwickler erkunden können, wie sie die Gestenerkennungsfunktionen auf neue und innovative Weise nutzen können.

( Der Soli-Sensor des Pixel 4; von iFixit Pixel 4 XL Teardown https://www.ifixit.com/Teardown/Google+Pixel+4+XL+Teardown/127320)

Die Position des Soli-Sensors auf dem Pixel 4 (von https://ai.googleblog.com/2020/03/Soli-radar-based-perception-and.html)

Herausforderungen beim Erstellen eines Trainings ein Datensatz für die radarbasierte Gestenerkennung

In einem Beitrag im Google AI-Blog beschreiben die Google ATAP-Ingenieure einige der Herausforderungen und Überlegungen zum Einbetten von Radar in ein Smartphone, z. B. die Herstellung des Radarchip klein und modular genug, dass er oben auf ein Telefon passt, und das Hinzufügen von Filtern, um Vibrationsgeräusche zu berücksichtigen, die beim musik wird vom Telefon abgespielt, und Algorithmen für maschinelles Lernen, die mit geringer Leistung ausgeführt werden können.

Eine der Herausforderungen bei der Erstellung eines robusten maschinellen Lernmodells, insbesondere eines, das sich in einem Gerät in den Händen von Millionen von Verbrauchern befindet, besteht darin, sicherzustellen, dass das Modell in der Lage ist, eine Geste für eine breite und vielfältige Benutzerpopulation genau vorherzusagen. Auf der semantischen Ebene ist es für Menschen leicht zu unterscheiden, was eine Wisch- oder Flick-Geste ist. Da jedoch jede Person diese Gesten auf leicht unterschiedliche Weise durch Variationen in Geschwindigkeit, Handwinkel und Länge der Geste ausführt; Das maschinelle Lernmodell zum Ableiten der Geste muss robust genug sein, um die Geste des Benutzers unabhängig von diesen Unterschieden korrekt ableiten zu können.

Um sicherzustellen, dass ihre Modelle korrekt waren, trainierte das Soli-Team ihr TensorFlow-Modell mit Millionen von Gesten, die von Tausenden von Freiwilligen gemacht wurden. Diese Modelle wurden dann optimiert, um direkt auf der DSP-Einheit des Pixel 4 zu laufen; aktivieren des Telefons, um Gesten zu erkennen, auch wenn der Hauptprozessor ausgeschaltet ist — so kann das Pixel 4 erkennen, ob sich jemand mit MotionSense auf das Telefon zubewegt, und dann die FaceUnlock-Sensoren einschalten, um das Telefon zu entsperren.

Partnerschaft mit Infineon

Während Google die Algorithmen für maschinelles Lernen, Signalverarbeitung und UX-Muster für die Interaktion mit Soli entwickelte, entwickelte das deutsche Unternehmen Infineon den Radarchip, der Teil des Project Soli-Systems ist. Es ist zwar möglich, Entwicklungskits von Infineon zu erwerben, sie streamen jedoch nur rohe Radardaten — keine verarbeiteten Signalfunktionen, mit denen ein maschinelles Lernmodell zur Erkennung von Gesten oder Anwesenheit trainiert werden könnte.

In ihrem SSIGRAPH-Papier Soli: Ubiquitous Gesture Sensing with Millimeter Wave Radar beschreiben die ATAP-Autoren eine HAL (Hardware Abstraction Layer) als eine Reihe von Abstraktionen, die es Project Soli ermöglichen würden, über verschiedene Radarsensorarchitekturen verschiedener Hersteller hinweg zu arbeiten. Dies würde es Google ermöglichen, die Flexibilität zu haben, den gleichen Satz von Soli-Feature-Primitiven für verschiedene Radartypen zu verwenden und gleichzeitig die gleichen Interaktionsmuster auf hoher Ebene beizubehalten.

Beispielanwendungen aus dem Alpha Dev-Programm

Teilnehmer des Soli Alpha Dev-Programms wurden ermutigt, unsere Arbeit in akademischen Publikationen zu veröffentlichen; Einige Mitglieder erstellten auch Demos für die Präsentation in verschiedenen Blogs, darunter:

  • New musical Interfaces (Demo Video)
  • Eine gestische Tastatur in der Luft
  • Die kleinste Violine der Welt
  • Mit Soli Objekte für die Roboterarmsteuerung identifizieren

Die HCI-Abteilung der Universität St. Andrews hat als Mitglieder des Alpha Dev-Programms eine solide Arbeit geleistet, darunter

  • Radarkategorisierung zur Eingabeerkennung – die Autoren stellen RadarCat vor, ein System, das in der Lage ist, zwischen „26 Materialien (einschließlich komplexer zusammengesetzter Objekte)“ zu unterscheiden, als nächstes mit 16 transparenten Materialien (mit unterschiedlicher Dicke und unterschiedlichen Farbstoffen) und schließlich 10 Körperteilen von 6 Teilnehmern“
  • Greifbare UI nach Objekt- und Materialklassifizierung mit Radar – Fortsetzung ihrer Arbeit von RadarCat; die Autoren beschreiben auch reale Anwendungsszenarien, in denen dieses System eingesetzt werden könnte, einschließlich Self-Checkout-Systemen und intelligenten medizinischen Geräten.
  • Exploring Tangible Interactions with Radar Sensing – exploring „radar als Plattform zur Erfassung der greifbaren Interaktion mit dem Zählen, Ordnen, Identifizieren von Objekten und Verfolgen der Orientierung, Bewegung und Entfernung dieser Objekte“.

Einige der Projekte aus dem Alpha Developer Program wurden in einem Video vorgestellt, das im Update von ATAP auf der I / O-Veranstaltung des folgenden Jahres (2016) vorgestellt wurde:

Google Papiere

Mitglieder von Google ATAP veröffentlichten auch Papiere über ihre Arbeit mit Project Soli:

  • Soli: Ubiquitous Gesture Sensing mit Millimeterwellenradar – SIGGRAPH 2016
  • Ein hochintegrierter 60 GHz 6-Kanal-Transceiver mit Antenne im Gehäuse für Smart Sensing und Kurzstreckenkommunikation – IEEE 2016
  • Interaktion mit Soli: Exploring Fine-Grained Dynamic Gesture Recognition in the Radio-Frequency Spectrum – UIST 2016
  • Ein zweifarbiger Radarsensor zur gleichzeitigen Erkennung von absoluter Entfernung und relativer Bewegung für die Gestenerkennung — IEEE Sensors Letters 2017

Eigenschaften von mm-welle Radar und es der Affordances

Radar sensing ist basierend auf erfassen die ändern muster von motion von ein objekt in raum. Radiowellen werden vom Radar übertragen, von einem Ziel (einer menschlichen Hand in Bewegung) reflektiert und dann von den Antennen des Radars erneut empfangen. Der zeitliche Unterschied zwischen dem Senden und dem Empfangen der Wellen wird verwendet, um ein Profil des Objekts zu erstellen, das sich auf dem Weg des Radars befindet.

Bei menschlichen Gesten bewegt die Hand ihre Position durch den 3D-Raum, während sie sich in der Sichtlinie eines Radarsensors befindet. Die Positionsänderungen erzeugen unterschiedliche Profile für die abgeprallten Radarsignale, so dass unterschiedliche Gesten erkannt werden können.

Da Radar Gesten aufgrund unterschiedlicher Bewegungseigenschaften erkennt, ist es nicht gut geeignet, statische Gesten wie Gebärdensprache oder ein Friedenszeichen zu erkennen. Es eignet sich jedoch gut zum Erkennen dynamischer, bewegungsbasierter Gesten wie eines Fingerschnappens oder einer Schlüsseldrehbewegung.

Im Gegensatz zu optischen Sensoren ist die Leistung des Radars nicht von der Beleuchtung abhängig, kann Materialien durcharbeiten und sogar Gesten erkennen, die auftreten, wenn sich die Finger gegenseitig verschließen.

Mikrogesten können definiert werden als „Interaktionen mit kleinen Bewegungsmengen und solchen, die hauptsächlich von Muskeln ausgeführt werden, die die Finger antreiben und das Handgelenk artikulieren, und nicht von solchen, die größere Muskelgruppen betreffen, um Ermüdung im Laufe der Zeit zu vermeiden“. Einige Beispiele für diese Art von Gesten sind das Drücken einer Taste, indem Sie mit dem Zeigefinger gegen den Daumen tippen, eine Schiebereglerbewegung ausführen, indem Sie Ihren Daumen gegen die Oberfläche Ihres Zeigefingers bewegen, und eine Bewegung ausführen, die dem Drehen eines Zifferblatts mit den Fingern und dem Handgelenk ähnelt.

Diese Gesten können in einer Vielzahl von Kontexten (IoT, AR / VR usw.) für die Interaktion mit Benutzeroberflächenelementen verwendet werden.

Zukünftige Unterhaltungselektronikprodukte von Google

Google scheint an der Integration von Soli in neue Produkte zu arbeiten; eine Stellenausschreibung für einen „Intelligence Sensor Algorithms Engineer, Google Nest“ listet „Erfahrung mit Radar“ als bevorzugte Qualifikation auf. Eine der frühen Demos von Soli zeigte das Radar in einem intelligenten Lautsprecher von JBL integriert; Es wäre nicht verwunderlich, dass Soli in ein Unterhaltungselektronikprodukt oder ein Haushaltsgerät integriert wird.

Eine weitere Projekt-Soli-Demo, die Google während derselben Präsentation wie der ferngesteuerte JBL-Lautsprecher zeigte, war eine Smartwatch mit Soli im Inneren (Google hat sogar ein Patent für eine gestenbasierte Smartwatch angemeldet, die für Videokonferenzen verwendet werden kann).

In einem sehr viel weiter entfernten Szenario hat Google erklärt, dass wir über die Verwendung von Sensoren wie Soli für die Gestenerkennung hinaus „In Zukunft Geräte entwickeln wollen, die Ihre Körpersprache verstehen, damit sie intuitiver zu bedienen und hilfreicher sind“. Obwohl es Spekulationen darüber gibt, was genau das in der Praxis bedeuten und aussehen könnte, ist ein möglicher Anwendungsfall, dass Telefone den emotionalen Zustand von Menschen in der Nähe erkennen könnten. (Eine gründlichere Diskussion über Affective Computing geht über den Rahmen dieses Beitrags hinaus; Ich würde Sie ermutigen, diese bahnbrechende Arbeit von Rosalind Picard zu lesen, die den Begriff geprägt hat, um mehr Hintergrundinformationen zum Thema zu erhalten.

Googles Ambient Computing Future

In der ersten veröffentlichten Arbeit für das Projekt Soli listen die Autoren (von Google ATAP) mehrere mögliche Anwendungsbereiche auf:

  • Virtuelle Realität
  • Wearables und intelligente Kleidungsstücke
  • Internet der Dinge und Gamecontroller
  • „Traditionelle Geräte“ (Mobiltelefone, Tablets, Laptops)

Wenn alle diese Gerätetypen Project Soli integrieren würden, könnte Google einen universellen gestischen Rahmen nutzen, den alle gemeinsam hätten. Dies würde es den Menschen leicht machen, diese neuen Geräte schnell zu nutzen und alle mit den Google-Diensten zu interagieren.

Ben Thompsons Artikel über Stratechery, „Google and Ambient Computing“, analysiert Googles jüngste Verschiebung von der Aussage, dass sie helfen wollen, die Informationen der Welt zu organisieren, zu einer, die Ihnen hilft, Dinge zu erledigen.

In seiner Eröffnungsrede bei Made by Google 2019 skizziert Rick Osterloh, Senior Vice PRESIDENT of Devices and Services bei Google (der früher Leiter von Google ATAP war), eine Vision von Google als Unternehmen, das „Ihnen ein hilfreicheres Google bringen möchte.“ Sundar Pichai erklärte in der Keynote von 20193 I / O, dass „wir uns von einem Unternehmen, das Ihnen hilft, Antworten zu finden, zu einem Unternehmen bewegen, das Ihnen hilft, Dinge zu erledigen“.

Ambient Computing wurde erstmals vom Tech-Journalisten Walt Mossberg in seiner letzten Kolumne „The Disappearing Computer“ geprägt. Es wird auch als Ubiquitous oder Pervasive Computing bezeichnet.

Weitere Informationen zu diesem Bereich des Rechnens finden Sie in der Arbeit von Mark Weiser, einem leitenden Wissenschaftler bei Xerox PARC, insbesondere in seinem 1991 erschienenen Scientific American-Artikel „The Computer for the 21st Century“. Weiser prägte den Begriff Ubiquitous Computing, den er als Computer bezeichnete, der mit „jedem Gerät, an jedem Ort und in jedem Format“ ausgeführt werden kann.

Thompson weist darauf hin, dass Googles Vision von Ambient Computing „nicht mit dem Smartphone konkurriert, sondern es nutzt“. Google versucht nicht, die nächste Hardwareplattform zu finden (wie Facebook mit dem Erwerb von Oculus für VR oder Apples vollem Vorstoß in AR); ratther, sie wollen ein Ökosystem von Umgebungsgeräten schaffen, die alle nahtlos miteinander verbunden sind (möglicherweise mit dem Smartphone als Hub?) und sind intuitiv zu interagieren; alle mit den Diensten verbunden, die Google bereitstellt.

Eine einheitliche Art der Interaktion mit Geräten, die in einer Vielzahl von Kontexten vorhanden sind, wäre für Google von großem Vorteil, um die Übernahme ihrer Ambient Computing-Vision voranzutreiben. Ein kleiner, leicht einbettbarer Sensor, der Gesten von Menschen unabhängig von Beleuchtung oder anderen atmosphärischen Bedingungen erkennen kann, würde diese Vision der Realität viel näher bringen. Dies würde es den Nutzern erleichtern, mit einer Vielzahl von Geräten zu interagieren, die Zugriff auf die Google-Dienste bieten.

Hinweise von Apple zur Einführung von mm-Wellenradar

Mit der jüngsten Veröffentlichung eines LiDAR-fähigen iPad Pro im Dienst der AR-Funktionen scheint Apple bereit zu sein, Sensoren von immer größerer Komplexität (und Nützlichkeit) in ihre Produkte zu integrieren.

Darüber hinaus hat Apple mindestens ein Posting für Rollen im Zusammenhang mit Radar erstellt; Ein jetzt inaktiver Posting auf LinkedIn für einen Radarsignalverarbeitungsingenieur enthält Folgendes in seiner Beschreibung:

Es fühlt sich fair an, das zumindest zu sagen, Apple betrachtet Millimeterwellenradar als Sensormodalität; wann, wie und vor allem; Wenn ein radarfähiges Apple-Produkt jemals die Labors in Cupertino verlässt, wird es nur die Zeit zeigen können.

Meine persönliche Spekulation ist, dass Apple ein AR-Headset mit integriertem Radar für die Erkennung von Mikrogesten herausbringen wird, um die Handverfolgungsfunktionen zu erweitern. Da Radar als mögliche Erfassungsmodalität besser bekannt wird (hauptsächlich dank Project Soli und den Produkten, in die Google und seine Partner es integrieren möchten), werden andere Hersteller von AR- und VR-Headsets mit der Integration von Millimeterwellen-Radarchips in ihre Headsets beginnen, um das zuvor erwähnte Problem der „fehlenden Schnittstelle“ zu lösen; stellen Sie sicher, dass die realen physischen Objekte, mit denen Menschen über AR / VR interagieren, eine Möglichkeit haben, digitale Informationen abzubilden, die über das Headset dargestellt werden.

Wettbewerb

Es gibt mindestens ein Startup, das an Millimeterwellenradar für Mensch-Maschine-Schnittstellen arbeitet; Taiwans KaiKuTek („CoolTech“). Sie behaupten, dass ihr radarbasiertes Gestenerkennungssystem mit Googles Project Soli mithalten, wenn nicht sogar übertreffen kann.

Ein Inferenz-Chip für maschinelles Lernen ist in den Radarsensor integriert; die gesamte Inferenz erfolgt also auf sensorseitiger Rechenebene, im Gegensatz zum MotionSense-System des Pixel 4, bei dem sich der Sensor (Soli) und die Inferenz-Engine auf separaten Chipkomponenten befinden. Das heißt, KaiKuTek behauptet, sie sind in der Lage, eine so niedrige Leistung (1 mW) zu erreichen.

Abschließende Gedanken

Mit Project Soli hat Google die Diskussion darüber, wie wir mit Computern interagieren, in einer Vielzahl von Modalitäten und Kontexten vorangetrieben. Millimeterwellenradar bietet eine vielversprechende Möglichkeit, gestisch mit Computern zu interagieren, ohne sich um Okklusion, Lichtverhältnisse oder ähnliche Grenzbedingungen für kamerabasierte Systeme kümmern zu müssen.

Mit der zunehmenden Geschwindigkeit, mit der Computer in mehr Geräte eingebettet werden, könnte Millimeterwellenradar eine universellere Gestensprache ermöglichen, die auf diesen Geräten vertraut ist. Natürlich wird jeder Hersteller zwangsläufig Unterschiede untereinander haben (obwohl Google das erste ist, das mm-Wellenradar als Sensor für die gestische Interaktion verwendet, bedeutet dies nicht, dass es das letzte sein wird), könnte es am Ende „ähnlich genug“ gestische Interaktionen auf die gleiche Weise wie Touchscreens sind fast universell, aber jeder OEM-Anbieter ermöglicht verschiedene Gesten für die Verwendung mit dem Touchscreen.

Anhang:

Ich habe weitere Publikationen aufgenommen, die sich mit Millimeterwellenradar und seinen Anwendungen in HCI befassen (nicht unbedingt mit Projekt Soli). Ein guter Teil davon konzentriert sich auf die Techniken des maschinellen Lernens, die zur Gestenerkennung mit einer Radar-Pipeline verwendet werden.

  • One-Shot-Lernen für eine robuste Materialklassifizierung mit Millimeterwellenradarsystem
  • Handgestenerkennung mit einem Radarecho-I-Q-Plot und einem Faltungs-neuronalen Netzwerk
  • Robuste Gestenerkennung mit Millimeterwellenradarsystem
  • Handgestenerkennung basierend auf Radar-Mikro-Doppler-Signaturumschlägen
  • Radar neu erfinden: Die Kraft der 4D-Sensorik
  • Gestenerkennung mit MM-Wellen-Sensor für Mensch-Fahrzeug-Schnittstelle
  • Radarbasiertes Gestenerkennungssystem mit kurzer Reichweite unter Verwendung von 3D-CNN mit Triplettverlust
  • Handgestenerkennung basierend auf Radar-Mikro-Doppler-Signaturumschlägen
  • Robuste Gestenerkennung mit Millimeterwellenradarsystem
  • TS-I3D-basierte Handgestenerkennung Erkennungsverfahren mit Radarsensor
  • Zeichenerkennung in Luftschrift basierend auf einem Netzwerk von Radaren für die Mensch-Maschine-Schnittstelle
  • Doppler-Radar-basiertes Handgestenerkennungssystem Convolutional Neural Networks verwenden
  • Kontaktbasierte und kontaktlose Gesten mit radarbasierten Sensoren auslösen
  • Radar neu erfinden: Die Kraft der 4D-Sensorik
  • Bewegungserkennung mit Radar: Gesteninteraktion und darüber hinaus

Patente im Zusammenhang mit Project Soli:

  • Gestenbasierte Eingabe kleiner Geräte
  • Radarbasierte Gestenerkennung durch ein tragbares Gerät
  • Radarerkennungsgestützte Suche
  • Radarbasierte Authentifizierung
  • Radarfähige Sensorfusion
  • Weitfeldradarbasierte Gestenerkennung
  • Verdeckte Gestenerkennung
  • Radarbasierte Gestenerkennung und Datenübertragung
  • Smartphone-basiertes Radarsystem, das die einfache und genaue Benutzerinteraktion mit angezeigten Objekten in einer Augmented-Reality-Oberfläche erleichtert

Presseartikel zum Thema Pixel 4 Launch und Integration mit Project Soli:

  • Gerücht: Googles Project Soli Radar Chip könnte in Google Pixel 4 debütieren
  • GOOGLES PROJECT Soli: DIE TECHNIK HINTER DEM MOTION SENSE RADAR DES PIXEL 4
  • Project Soli ist der heimliche Star des Google Pixel 4 Self-Leak
  • Pixel 4 XL praktische Details ‚Face Unlock‘,’Back Finish‘, mehr
  • Gestensteuerung dank Infineon-Radar-Technologie im Google Pixel 4 Smartphone
  • Ustwo von Monument Valley entwickelt Motion Sense-Spiel ‚Headed South‘ für Google Pixel 4
  • Mit Pixel 4 rückt Googles experimentelle Technologie endlich ins Rampenlicht
  • Google: Soli Dance DJ von Swift

You might also like

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.