Suena el celular con una llamada, suena la computadora por una notificación, la tablet hace luces por un juego no terminado y la televisión está a todo volumen pese a que nadie la está viendo. La habitación se inunda de pantallas, luces, sonidos, colores y formas cambiantes. Entrar allí dentro es agobiante: todo es una alerta y todo es primordial. ¿Y si todo eso frenara? ¿Y si los dispositivos fueran más considerados con sus dueños? ¿Y si, de alguna manera, supieran que no estamos en el lugar o que, simplemente, no estamos prestando atención?

Todo ese escenario ya fue imaginado por Google, una de las tantas empresas responsables de la enorme cantidad de dispositivos, notificaciones, alertas, pantallas y contenidos. Y hasta al mismo Google le agobió, por lo que ya hace años trabaja en un "nuevo lenguaje de interacción" para computadoras y televisores, de tal forma que puedan comprender las necesidades o intenciones de los usuarios y luego reaccionar en base a eso.

Este lenguaje se trabaja en ATAP, la división de Tecnología y Productos Avanzados de Google, que entre otras cosas diseñó —aunque nunca lanzó— "jeans inteligentes" o una tarjeta MicroSD que en realidad es una computadora. La idea de una computadora o televisor que detecta y adivina cada movimiento es un tanto perturbadora. ¿Por qué un dispositivo debería ver todo lo que hago? Ese no es el caso de Soli, el sensor que se utilizará en esta tecnología, porque, en vez de una cámara, Google recurre a un radar. Es uno de los métodos más respetuosos de la privacidad —no puede capturar ni enviar datos o imágenes— y no es afectado por la oscuridad, el sonido o la temperatura, entre otros factores externos. 

Soli, un sensor que puede usar las ondas electromagnéticas de un radar para detectar gestos y movimientos precisos, había sido presentado en 2015 junto con otras innovaciones "futuristas" de ATAP. De hecho, ya fue usado en el teléfono Google Pixel 4, donde detecta gestos simples con las manos para que el usuario pueda posponer las alarmas o pausar la música sin tener que tocar físicamente el teléfono inteligente.

Si nadie les presta atención, los dispositivos se apagan

"Los dispositivos que nos rodean... deberían sentirse como un mejor amigo. Deberían tener gracia social", dijo a Engadget Lauren Bedal, diseñadora sénior de interacción de ATAP, que explicó que la idea detrás de este "lenguaje de interacción" es que las máquinas que nos rodean podrían ser más intuitivas y perceptivas de nuestro deseo de interactuar con ellas al comprender mejor nuestras señales no verbales. “Creemos que a medida que la tecnología se vuelve más presente en nuestra vida, es justo comenzar a pedirle a la tecnología que tome algunas señales más de nosotros”, agregó Leonardo Giusti, jefe de diseño de ATAP, en diálogo con Wired. 

El método de Google para sus dispositivos "socialmente inteligentes"

¿Cómo lo hace? ATAP actualmente analiza los movimientos de las personas —y no sus tonos de voz o las expresiones faciales— para ver si están listas para participar. De esta manera, los dispositivos aprenden cuándo permanecer en segundo plano en vez de bombardear con información. Para esta evaluación, ATAP uso a Soli para detectar la proximidad, la dirección y los caminos de las personas a su alrededor. Luego, analizó esos datos para determinar si alguien está mirando, pasando, acercándose o girando hacia el sensor. 

Estos cuatro movimientos fueron denominados Aproximación, Mirada, Giro y Pase, y se pueden usar como  desencadenantes de comandos o reacciones en cosas como pantallas inteligentes u otros tipos de computadoras ambientales. Así, los dispositivos saben cuando una persona —o una parte de ella— está cerca, y solo ahí muestra lo que quiere mostrar. Con esta tecnología, una televisión podría eventualmente pausar la reproducción si el televidente se levanta del sillón, y reanudarla cuando se vuelve a sentar. También una computadora podría cambiar el tamaño de las letras dependiendo de cuán cerca esté el usuario.

"Digamos que estás en una llamada telefónica con alguien y por casualidad miras otro dispositivo en la casa. Dado que sabemos que puede tener su atención en otro dispositivo, podemos ofrecerle una sugerencia para tal vez transferir su conversación a una videollamada", explicó Bedal al medio citado.  "Al girar hacia adelante y hacia atrás, podemos permitir que los dispositivos ayuden a automatizar tareas repetitivas o mundanas", dijo Bedal. Se puede usar para determinar cuándo está listo para el siguiente paso en un proceso de múltiples etapas, como seguir una receta en pantalla, o algo repetitivo, como iniciar y detener un video.

 

Aunque todo esto suena ideal, lejos está de serlo. De hecho, es extremadamente difícil lograr todos estos reconocimientos, y un lenguaje verbal mal interpretado puede ser incluso más agobiante que un bombardeo de notificaciones. Por ejemplo, muchas personas en un mismo cuarto podrían confundir al radar, y si alguien quiere dejar la televisión prendida mientras está en otro cuarto pero el radar no detecta a nadie, se formaría una batalla interesante entre el play la pausa. “A medida que comenzamos a investigar algunos de estos paradigmas de interacción que se sienten muy invisibles, fluidos y fluidos, es necesario que haya un equilibrio adecuado entre el control del usuario y la automatización. Debería ser sencillo, pero deberíamos considerar la cantidad de controles o configuraciones que el usuario puede querer de su lado”, explicó Bedal a Wired.

Todavía queda mucha investigación, y la integración en productos será más adelante, confirmó Google. Por ahora, todos los avances que ATAP realiza se podrán ver en su canal de YouTube, en la serie "In the lab with ATAP" que se lanzó con un capítulo y tendrá otros episodios que  "darán a las personas una mirada interna a algunas de las investigaciones que estamos explorando", confirmó Giusti.