Carlos Manuel Sánchez en colaboración con fundación BBVA
Viernes, 4 de julio 2025, 10:20
Los algoritmos de la inteligencia artificial son cajas negras, pero yo no me conformo y busco que sean transparentes», explica Jasone Ramírez Ayerbe (Sevilla, 1995), física y matemática galardonada por la SEIO y la Fundación BBVA por desarrollar 'trampas' que obligan a la IA a revelar por qué toma ciertas decisiones, sobre todo cuando tienen un gran impacto en la vida de las personas.
«Cuando un algoritmo no te concede un préstamo, no te dice por qué; funciona como un oráculo que solo responde 'sí' o 'no'. Esto ... le confiere a la IA un poder enorme y, si no lo contrapesas, terminará empobreciendo la calidad democrática de la sociedad», reflexiona desde la Universidad de Montreal, donde trabaja como investigadora posdoctoral. Su enfoque trasciende lo individual para detectar patrones grupales. «No solamente se trata de ver cómo te trata la IA a ti, sino a todos. Mi método puede detectar si el algoritmo discrimina a mujeres, a mayores de 50, a inmigrantes...».
Ahora, en Canadá, se está aplicando la misma idea a problemas más complejos. «Por ejemplo, cuando se usa un algoritmo para decidir dónde abrir nuevos hospitales o cuál es la mejor ruta de reparto –explica–. Si al final no se abre un hospital en tu distrito, podemos decirles a los residentes qué habría que cambiar para conseguir que no sea así». El gran desafío llega con las dimensiones gigantescas de algunos algoritmos. «Estamos hablando de miles de millones de operaciones. Vamos muy por detrás», se lamenta. «Europa ya está tomando cartas en el asunto con su ley de inteligencia artificial. Pero la IA funciona globalmente y la responsabilidad es de todos».
Ramírez reconoce que mucha gente usa la IA a escondidas. «En la academia está mal visto. Yo solo utilizo ChatGPT para tareas burocráticas». Otro problema es que estos sistemas «por defecto te dan la razón». «Si es algo opinativo, te 'cala' enseguida y te da argumentos alineados con lo que tú piensas. Entonces le tienes que decir: 'No, espera, hazme una crítica, ¡no me hagas la pelota!'». ¿Puede un algoritmo en el futuro llegar a tener conciencia? «No me lo imagino, sabiendo lo que sé. Es una función matemática, pero no tiene ideas de verdad».
«Las tecnológicas procuran que sus algoritmos sean cajas negras; yo intento que sean transpa-rentes. Mis matemáticas obligan a la IA a explicar sus decisiones».
«Lo que hago es ponerle 'anzuelos' a la IA… Son las llamadas 'explicaciones contrafácticas': métodos que revelan qué habría que cambiar para obtener una respuesta diferente».
«Cuando un algoritmo decide no darme algo, busco qué habría que cambiar. Por ejemplo, si tuvieras 200 euros más de ingresos mensuales, ¿me habría aprobado el préstamo?».
«Ahora trabajo con decisiones más complejas: dónde ubicar hospitales, cómo optimizar rutas de reparto o planificar horarios. Quiero que los algoritmos sean cada vez más justos».
Noticias relacionadas
Sobre la firma
Carlos Manuel Sánchez en colaboración con fundación BBVA
Publicidad
Noticia Patrocinada
Más de
Las Voces de XLSemanal
Fátima Uribarri
Una herramienta eficaz para una mejor vejez
Por Jeff Bergen | Imagen: Mekakushi
En otros medios
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia