Dino Bekis: «Hemos conseguido poner el poder de procesamiento de un ordenador dentro de un auricular»

Javier Armesto Andrés
Javier Armesto LAHAINA

SOCIEDAD

Dino Bekis atendió a La Voz de Galicia durante el Snapdragon Summit que se celebra en la isla de Maui (Hawái).
Dino Bekis atendió a La Voz de Galicia durante el Snapdragon Summit que se celebra en la isla de Maui (Hawái). JA

La costumbre de llevar siempre el móvil con nosotros puede tener los días contados. No vamos a prescindir de él, pero muchas de sus funciones serán asumidas por dispositivos como relojes, pulseras de actividad, gafas y otros que llevaremos en el cuello o en la ropa. El responsable de «wearables» de Qualcomm habló en exclusiva para La Voz de Galicia sobre esta revolución durante el Snapdragon Summit.

25 sep 2025 . Actualizado a las 17:20 h.

Dino Bekis (Troy, Nueva York, 1966) es vicepresidente y manager general de la división de wearables y señal mixta de Qualcomm. Hijo de inmigrantes griegos, Bekis analiza la complejidad y la revolución que van a suponer estos pequeños dispositivos que ya usamos, desde auriculares inalámbricos a relojes inteligentes, y que ahora podrán ejecutar directamente modelos de inteligencia artificial sin depender del smartphone.

Cristiano Amon predijo que todos los dispositivos, no solo los smartphones, contarán con agentes de IA. ¿Cómo afectará esto a los wearables?

La gente quiere hacer más cosas con sus dispositivos. Y la forma principal en que interactúa con ellos consiste en escribir indicaciones, en vez de simplemente hablar de forma natural. Esto ya se hace con los auriculares inalámbricos y se está implementando también en nuevos factores de forma como las gafas. Hay solo audio y una cámara, y todos ellos usan el habla natural como vehículo para comunicarse con los agentes de IA. Lo que hacemos es superponer modelos que se pueden ejecutar en el dispositivo. Por ejemplo, para la cancelación de eco y supresión de ruido en el micrófono (ANC adaptativo) estos modelos pueden ejecutarse de forma nativa en los auriculares y ajustarse dinámicamente: en una cafetería pueden entender que estoy hablando con alguien para pedir algo y hace unos ajustes para poder comunicarme, pero luego me siento y los cambia para ignorar todo lo que hay alrededor, y después salgo a la calle y de repente tengo conciencia de quién está detrás de mí, del tráfico… Solo necesitamos una batería y conexión directa a la nube, para poder acceder a servicios o a agentes de IA.

¿Y en el caso de un smartwatch?

La gente está imaginando un mundo donde un reloj u otro tipo de dispositivo portátil le proporcione las funciones del teléfono. Todo el mundo ama su móvil pero para algunas actividades, como hacer recados, ir al supermercado o encontrarme con un amigo, no siempre tengo que llevarlo. Con la posibilidad de ejecutar modelos de IA y la colección de sensores que tienen estos dispositivos se podría hacer que tengan capacidades generativas, que propongan ideas o detecten necesidades del usuario, mantienendo la privacidad.

¿Todo esto será independiente del móvil? ¿Podremos dejarlo entonces en un cajón y olvidarnos de él?

Depende de la complejidad de lo que quieras hacer. No estoy sugiriendo que tengamos el teléfono en el armario y solo estemos conectados por el reloj o las gafas. Pero, por ejemplo, si vas a salir a correr, ¿por qué llevar tu teléfono inteligente contigo? Tu reloj tiene conexión celular, recopilación de datos, GPS... Tiene todo lo que necesitas, además de poder interactuar con él y acceder a un agente en la nube o en el dispositivo. En ese escenario no necesitas un teléfono. De momento hay muy pocos casos en los que la gente se sienta cómoda dejando su teléfono en casa, pero ese porcentaje crecerá.

Porque el teléfono ya no es el centro de la tecnología, sino la IA.

Exactamente, es lo que dijo Cristiano en su discurso de apertura del Snapdragon Summit y creo firmemente que estamos pasando de un único dispositivo impulsado por aplicaciones a agentes de IA que pueden ejecutarse en diferentes entornos y dispositivos.

Uno de los avances de la IA es la superación de las barreras de comunicación entre idiomas. Sin embargo, no estoy seguro de poder realizar esta entrevista con traducción simultánea al español en tiempo real mediante auriculares inalámbricos. ¿Por qué es tan difícil?

Los dispositivos existentes hoy en día realizan la traducción así: graban el audio, lo transmiten a través de los auriculares a un móvil y luego ese móvil lo envía a la nube; la nube procesa ese idioma y después lo transmite de vuelta. Incluso con la mejor conectividad hay una latencia significativa, por eso no tienes una interacción en tiempo real. Pero podemos hacer que el teléfono administre la traducción directamente para ti, ejecutando el modelo completo en el dispositivo. Ya hay algún dispositivo Android con esa capacidad, todavía no funciona perfecto pero se está logrando de manera gradual. Hay que tener en cuenta que un teléfono tiene baterías de 3.000 a 5.000 miliamperios/hora, mientras que los auriculares solo llegan a 60 u 80. Así que tienes que compaginar el tamaño del modelo con el consumo de energía, y equilibrarlo con la vida útil del dispositivo. Pero si estás dispuesto a reducir la autonomía podrías poner suficiente memoria en los auriculares para ejecutar modelos más grandes que permitan una traducción directa dinámica. Antes, estos modelos necesitaban ejecutar más de 10.000 millones de parámetros y ahora ya estamos en 3.000 millones o menos. Así que no veo muy lejano un futuro en el que puedas ejecutar un par de cientos de millones de parámetros en tu auricular y hacer la traducción directa del español al inglés.

¿Contribuirá el 6G a solucionarlo?

El 6G reducirá la latencia. Esta función no necesita un gran ancho de banda, pero sí una latencia muy baja. En ese escenario, el 6G está diseñado para IoT (internet de las cosas) de menor consumo, así que siempre que se obtenga la latencia adecuada, tanto en la nube como en el dispositivo, se podrán ejecutar las traducciones. En la nube quizá con algo de retraso; no será tan bueno como ejecutarlo en el dispositivo, pero quizá ofrezca un mejor perfil de consumo.

Qualcomm anunció recientemente la próxima generación de Snapdragon W5+ y W5, las primeras plataformas wearables del mundo con soporte satelital. ¿Están preparadas para todas las redes no terrestres o solo para las de banda estrecha (NB-NTN)?

Para cualquiera, no están vinculadas a un proveedor de satélite específico. Por ejemplo, Google se ha aliado con Skylo y están usando satélites de la banda L (frecuencia baja que proporciona comunicaciones extremadamente fiables, se usa por ejemplo en el sistema mundial de Socorro y Seguridad Marítimos), pero también está la banda S (radares meteorológicos, buques de superficie y algunos satélites de comunicaciones como los que utiliza la NASA). No hay nada que impida que ese dispositivo funcione con cualquier constelación de satélites. El desafío es que tienes una señal muy débil proveniente de un satélite y necesitas una sensibilidad de recepción excelente. La banda estrecha te da una mejor capacidad para cerrar el enlace sin tener que hacer contorsiones acrobáticas con tu brazo. Quieres que esta función esté disponible en cualquier momento, porque cuando la vayas a usar probablemente es porque hay una emergencia.

¿Esta función está preparada para cualquier uso o el envío y la recepción de mensajes vía satélite es solo para casos específicos?

La llamada vía satélite está disponible para cualquiera que lo desee y la gente ya está pensando ello como una capacidad de servicio de emergencia. Actualmente ya puedes hacer una llamada sin conexión a emergencias con el teléfono móvil, pero siempre hay advertencias sobre que no se puede garantizar el servicio.

¿Cómo pueden las capacidades de aprendizaje automático mejorar la precisión del GPS en entornos urbanos densos?

La precisión de la ubicación se logra a base de combinar un amplio conjunto de señales entrantes. Cuando observas un receptor GPS, básicamente estás viendo varios satélites, no solo uno, y luego se producen reflejos de la señal en los edificios. Es una ecuación muy complicada. La clave está en cómo determinar qué señales debes escuchar y cuáles ignorar. Nuestra última plataforma agrega capacidad de aprendizaje automático para hacerlo, y además mucho más rápido que con los algoritmos existentes actualmente, porque se basa en modelos de aprendizaje dinámico.

¿Qué funciones afectan más a la autonomía de un wearable?

Lo primero y más importante es la pantalla. Lo segundo, mirar las notificaciones: ¿cuántas de ellas puedes descargar sin tener que activar el potente procesador que está ahí dentro? Pasamos mucho tiempo trabajando con Google en Wear OS y mirando lo que llamamos descargas de hardware, que es básicamente mover las respuestas o reacciones a las notificaciones entrantes al firmware o hardware de nivel inferior, sin tener que activar todo el chip o todo el reloj para procesar una notificación.

Ya tenemos anillos inteligentes: ¿veremos también wearables en pendientes o botones de camisa?

Por supuesto, ya los estamos viendo. Hay una serie de empresas que están tomando nuestras soluciones, como los Snapdragon W5+ y W5 de los que hablábamos antes, y creando algunos dispositivos interesantes que se pueden poner en el cuello o en la camisa, con una cámara integrada, micrófono y acceso a un agente de IA. Es experimental, pero esta plataforma tan flexible brinda a la gente la oportunidad de probar cosas nuevas.

¿Qué opina de los chips integrados debajo de la piel?

Supongo que es como hacerse un tatuaje, creo que es una elección individual. Pero la preguntas es:¿cómo lo alimentas? ¿Puedes hacerlo a través del calor corporal? ¿Por medio del movimiento? No hay nada que nos impida ir por ese camino. Realmente se trata de un compromiso, el individuo tiene que aceptar integrar esa tecnología en su cuerpo. Pero hay muchos ejemplos en la industria médica hoy en día donde las personas incorporan sensores o dispositivos debajo de la piel.

El nuevo Google Pixel 10 Series tiene un sensor de huellas dactilares ultrasónico en pantalla desarrollado por Qualcomm. ¿En qué consiste?

Es una tecnología líder, permite hacer un registro de la huella con un solo toque. Es un sensor más grande en comparación con los de la competencia que permite obtener la imagen completa de tu huella dactilar. Hoy, para registrarla tienes que pulsar como unas veinte veces y nosotros podemos hacerlo con muchos menos pasos. En segundo lugar, la tasa de detección o rechazo falsa se reduce drásticamente. Otra innovación que estamos impulsando es Force Sensing: la presión que haces sobre el sensor puede ejecutar diferentes acciones. Si lo haces ligeramente puedes activar la lectura de huella dactilar o leer, pero si presionas con más fuerza puedes indicar que quieres ir a una aplicación previamente configurada por ti. Y otro aspecto clave es cómo hacemos el proceso más sensible y flexible con diferentes protectores de pantalla. Cuantas más capas de protección se colocan disminuye la capacidad de leer la huella dactilar.