Laura G. de Rivera, autora de «Esclavos del algoritmo»: «Una de las fuentes que usan los bancos para crear perfiles de credibilidad a la hora de dar un préstamo es Facebook»

YES

Laura G. de Rivera, periodista.
Laura G. de Rivera, periodista. -

«Nuestros datos personales son el oro del momento», advierte la periodista. «Un chaval pegado a TikTok es un esclavo, mano de obra trabajando gratis para una fábrica de producir datos», asegura esta experta que no usa Bizum, pero sí WhatsApp a su pesar...

19 feb 2025 . Actualizado a las 08:20 h.

Para los que no leen la letra pequeña, para los que minimizan los riesgos de una red social, para los que comentan en Facebook lo que comen y adónde van de vacaciones y le dan al aspa de «aceptar» sin mirar qué, va dirigido Esclavos del algoritmo, el manual de resistencia en la era de la inteligencia artificial que ha elaborado la periodista Laura G. de Rivera, premio ESET de Periodismo sobre Seguridad Informática 2019 y confundadora de Elemento21, laboratorio de investigación y divulgación científica en español, que no tiene Bizum pero sí a su pesar WhatsApp.

«Hablando con López de Mántaras, uno de los grandes expertos en inteligencia artificial en España, me decía que el verdadero peligro no es la inteligencia artificial, sino la estupidez humana», comienza. Quizá son la pareja perfecta. «Sí, porque la inteligencia artificial es muy buena para recabar datos sobre ti y los seres humanos somos perezosos. No comprendemos a qué estamos renunciando cuando dejamos que la inteligencia artificial decida por nosotros», piensa. Quienes mueven los hilos de la IA que te conoce son personas. «Debemos informamos, tomarnos la molestia de saber qué aplicaciones tenemos entre manos, de leer las condiciones antes de darle a ‘aceptar’. Debemos tomar las riendas de nuestras decisiones en la vida digital», insta la experta.

—¿Ignoramos que nada es gratuito en la red y en las redes?

—Pagamos con nuestros datos. ¡Nuestros datos son el oro del momento! Las empresas más ricas del mundo son tecnológicas. Todas, fabricantes de inteligencia artificial. Para que Amazon, Apple, Meta o Google estén entre los más ricos del mundo, algo deben de hacer con lo que nos sale «gratis». La gente tiene que pararse a pensar: «¿Cómo se pueden estar forrando si Gmail es gratis?».

 «Para crear perfiles de credibilidad a la hora de conceder un préstamo una de las fuentes que utilizan es Facebook. Es curioso, porque esta información me la corroboró un artículo que publicaba el BBVA»

—¿Hay una factura invisible que en algún momento tendremos que pagar?

—Es una factura que estamos pagando ya. Cuando usamos un correo electrónico, al aceptar las condiciones del servicio estamos aceptando que el contenido de nuestros mensajes sea almacenado y utilizado, no sabemos para qué.

—Otra de las cuestiones en las que nos invitas a pararnos es en esos curiosos filtros que se hacen para concederte un crédito para comprar un coche o la hipoteca de una vivienda. ¿Miran tus redes para determinar tu solvencia?

—Para crear perfiles de credibilidad a la hora de conceder un préstamo una de las fuentes que utilizan es Facebook. Es curioso, porque esta información me la corroboró un artículo que publicaba el BBVA. En un artículo sobre análisis de mercado y análisis de clientes contaba algo sobre esto; si yo en Facebook estoy poniendo que «estoy a dos velas, me han echado del trabajo» o «mañana me voy de vacaciones a Cancún» o «me acabo de comprar un cochazo», eso da indicios de lo solvente que puedes ser. Quizá tu declaración del IRPF dé pena, pero publicar fotos de tus vacaciones en Cancún puede jugar a favor para un préstamo...

—¿Los perfiles creyentes, o dados a lo místico o lo esotérico, son un peligro en cuanto a amortización de crédito?

—La inteligencia artificial es pura estadística. Buscan perfiles de personas, eso lo cruzan con datos de personas que son buenas pagadoras de sus deudas, y de ahí ven qué características tienen. Una de las características que ha saltado en el sistema que tienen las personas morosas es que son místicas. ¡Es esa, pero podría ser otra! El peligro que tiene generalizar... Tú puedes ser espiritual y pagar puntualmente tus deudas.

«La inteligencia artificial basada en estadística falla, la estadística falla. Si no fallara, la podríamos usar para ganar la lotería»

—La videovigilancia y la tecnología de control facial han dado pie a errores mortales. Algunos están en tu libro.

—Sí. Y la cantidad de gente que han metido en la cárcel y en realidad no habían hecho nada, o a los que han dado una libertad condicional basándose en un algoritmo y luego han resultado ser unos delincuentes peligrosísimos. La inteligencia artificial basada en estadística falla, la estadística falla. Si no fallara, la podríamos usar para ganar la lotería.

—Esto también tiene acomodo en esa pereza vital que sucede a jornadas muy marcadas por la sobreinformación. ¿El valor que damos a las inteligencias artificiales tiene más que ver con la pereza humana de toda la vida que con la fascinación por lo nuevo?

—Sí, es básicamente pereza. Por ejemplo, la gente usa el navegador por pereza. Si te paras a pensar un momento, enseguida puedes asimilar la ruta. Pero esa pereza de no pensar te lleva a preferir que sea Google Maps el que te dé instrucciones. Es una pereza que no entrena habilidades, que te entrena para la satisfacción inmediata.

—Comparas el negocio de las tecnológicas al de la industria tabaquera. Amplios márgenes de beneficio sacando partido, a sabiendas, de la debilidad.

—Claro. El objetivo es el beneficio económico y no hay tamiz ético. El beneficio económico ahora llega por los datos. Y cuanto más tiempo está el usuario pegado a la pantalla más datos me da.

—¿Sirven las inteligencias artificiales para algo bueno?

—Sí, claro. Depende siempre de quién la utilice y el interés que tenga. La inteligencia artificial no es nada, son unos y ceros. Lo que cuenta es quiénes están detrás y los objetivos con que se programan. La inteligencia artificial sirve para calcular el espacio que hay para que aterrice un avión. Todos los aviones aterrizan con un piloto automático que calcula el espacio a la hora de posar las ruedas para que el impacto sea lo más suave posible. Estas cosas claro que son útiles. En ciencia permiten grandes cálculos.

«Está comprobado con técnicas de neuroimagen: en los niños que están más enganchados a los dispositivos las áreas del cerebro relacionadas con la toma de decisiones y el control de los impulsos están menos desarrolladas»

—«Scrollear» es el verbo de moda. ¿Qué le pasa al cerebro cuando pasamos horas «scrolleando»?

—El cerebro es moldeable, están en continua evolución nuestras conexiones neuronales. Si pasamos horas enganchados a la pantalla esto tiene un efecto demostrado en el cerebro. Los estudios que incluyo en el libro hablan de cómo influye en el cerebro de los niños, en el desarrollo. Está comprobado con técnicas de neuroimagen: en los niños que están más enganchados a los dispositivos las áreas del cerebro relacionadas con la toma de decisiones y el control de los impulsos están menos desarrolladas.

—¿Cómo valoras la ley de inteligencia artificial europea?

—Es el primer intento de regular en esta jungla, pero queda mucho por hacer. Esta ley ha tenido que negociar contra la industria. Hablamos de plataformas más poderosas que los estados.

—¿Por qué seguimos pensando que la tecnología nos hace más libres?

—¿Cuánto tiempo estamos a solas con nosotros para reflexionar, para decidir quién soy, hacia dónde voy, qué quiero? El espacio para ser uno cada vez está más invadido por notificaciones, llamadas de atención para comprar tal cosa que Amazon te trae en un día. El ser humano no es un comprador compulsivo.

—¿Cómo lo haces tú, cómo te resistes día a día al poder del algoritmo?

—Rechazo las cookies, intento no dar mis datos, tengo cuidado con mis hijos. Tengo una hija de 11 años que no tiene móvil, porque no me parece que tenga edad, por más que haya niños de 9 años que lo tengan. A TikTok le da igual que tengan un examen mañana o que deban dormir.

—¿Tienes Bizum y WhatsApp? ¿Usas el Google Maps?

—Bizum no tengo. WhatsApp sí, y me da una rabia horrible cuando veo que me paso en tiempo. Google Maps a veces lo pongo, pero tengo una guía Repsol en el coche. Y mirando las señales también se llega... Y a mí una cosa que me gusta mucho es preguntar a la gente. Me he comprado un teléfono hace poco, con sistema operativo Android, que pertenece a Google. Yo no puedo coger el teléfono y llamar. Para usarlo, tengo que registrarme, dar mis datos, aceptar que Google haga actualizaciones automáticas cada vez que le parezca. ¡Pero si el teléfono es mío, no de Google! Como que no tenemos autoridad sobre nuestras propiedades.

—¿Mandar audios es un error?

—Si quiero que haya algo que no se sepa, no puedo ponerlo en un audio en el WhatsApp.

—Pensamos «¿qué pueden interesar mis intimidades?». ¿Interesan?

—Interesan para conocerte. Para saber el perfil de persona que eres, si te preocupas, si vas a lo loco, si te mueve mucho el sentimiento... Esto no sabes quién lo puede utilizar y para qué. Suministrando esta información sobre ti, eres mano de obra gratis. Un chaval pegado a TikTok es un esclavo, mano de obra trabajando para una fábrica de producir datos. Uno de esos datos que recaba es la huella de voz, que es única en cada persona. Esa huella de voz pasa a la base de datos de TikTok, y de ahí puede ser utilizada para cualquier cosa.