Notebookcheck Logo

Google sta lavorando a una nuova tecnologia per dispositivi che leggano il linguaggio del corpo umano

Il sensore radar Soli di Google ha molteplici applicazioni, come la capacità di sapere quando un umano sta guardando un dispositivo. (Fonte: Google)
Il sensore radar Soli di Google ha molteplici applicazioni, come la capacità di sapere quando un umano sta guardando un dispositivo. (Fonte: Google)
In un recente video, Google ha condiviso informazioni sulla sua tecnologia di rilevamento radar Soli che spera di rendere i dispositivi meno interruttivi leggendo sottili segnali umani. La stessa tecnologia è già utilizzata nella funzione Motion Sense del Pixel 4.

Google ha rivelato ulteriori informazioni sulla sua tecnologia radar Soli per le interazioni non verbali tra esseri umani e computer. Per esempio, un'interazione non verbale potrebbe essere interagire con un dispositivo agitando la mano o girando la testa. La tecnologia, che l'azienda sta ancora sviluppando, combina sensori di movimento con algoritmi.

Google spiega come funzionano i sensori e gli algoritmi in un recente video e descrive i casi d'uso futuri. L'azienda suggerisce che i benefici di questa tecnologia includono la riduzione del sovraccarico dei dispositivi e rendere i gadget più utili e meno invadenti.

Gesti come "avvicinare e lasciare" utilizzano algoritmi di apprendimento profondo per determinare se qualcuno è nello "spazio personale" di un dispositivo. Secondo Google, la sovrapposizione dello spazio personale è un buon indicatore del fatto che gli esseri umani interagiranno o semplicemente passeranno

Azioni come "girarsi da una parte o dall'altra" e "sguardo" sono riconosciute da algoritmi di apprendimento automatico che possono capire il linguaggio del corpo più sfumato. Per esempio, questa tecnologia può dire il grado in cui la tua testa è girata, permettendole di prevedere quanto è probabile che tu ti impegni.

Il sensore radar Soli è stato lanciato nel 2015 ed è stato utilizzato in più dispositivi di Google. Google lo ha usato nel Pixel 4 per Motion Sense per rilevare i gesti delle mani, permettendo agli utenti di mettere in pausa la musica o gli allarmi senza bisogno di toccare i loro telefoni. I sensori sono stati utilizzati anche in Sleep Sensing disponibile nel display intelligente Nest Hub di seconda generazione; lo strumento aiuta a monitorare la qualità del sonno rilevando i modelli di respirazione e il movimento.

Acquista il Google Nest Hub (2a generazione) su Amazon

Please share our article, every link counts!
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2022 03 > Google sta lavorando a una nuova tecnologia per dispositivi che leggano il linguaggio del corpo umano
Polly Allcock, 2022-03- 3 (Update: 2022-03- 3)