Volver
';

Talento Joven Fundación BBVA Marc Serramià, ingeniero en inteligencia artificial: «La IA no va a traer el apocalipsis. El problema es mitificarla»

La inteligencia artificial está automatizando decisiones que hasta ahora tomaban los seres humanos. Marc Serramià diseña sistemas para que se ajusten a los valores éticos de la humanidad. Por ello ha recibido el premio de la Fundación BBVA y la Sociedad Científica Informática de España.

Fundación BBVA.

Viernes, 14 de Junio 2024, 10:56h

Tiempo de lectura: 2 min

«El desarrollo de la inteligencia artificial avanza muy rápido y sin control. Los algoritmos ya influyen en decisiones que afectan a nuestras vidas, como el acceso a un trabajo o a un crédito, pero solo es el principio», afirma Marc Serramià (Barcelona, 1994). «Es necesario regular la IA, pero no es fácil. Nuestra brújula debería ser el humanismo, pero los algoritmos toman decisiones basadas en datos y proyecciones estadísticas. No obstante, el ser humano no es tan racional ni fácil de predecir. ¿Cuál es la fórmula matemática de la compasión, cómo se computa el bien común?», se pregunta este joven investigador, cuyo trabajo le ha valido el premio (2023) de la Fundación BBVA y la Sociedad Científica Informática de España.

«Los problemas no han hecho más que empezar. Sin embargo, no creo que la IA vaya a desencadenar un apocalipsis; por ahora... El verdadero peligro es que la hemos mitificado», señala Serramià, que es profesor de la Universidad de la City de Londres. «Le suponemos más capacidades de las que tiene. Nos creemos el discurso de las compañías que la desarrollan, que la presentan como si fuera milagrosa. Ahora bien, por mucho que OpenAI o Google quieran vendernos que estos productos generan conocimiento, no es así. Se limitan a sintetizar cosas que no siempre tienen sentido ni son veraces. Pero el usuario medio las toma como una verdad absoluta o lo que le diría un experto», explica.

«Estos sistemas se equivocan menos que nosotros, pero sus errores suelen tener un gran impacto. Además, nos está robando una parte importante de la enseñanza, que se basa en aprender de nuestros propios errores», reflexiona Serramià. «El sistema educativo debería ser más severo. Los que usan ChatGPT son los médicos e ingenieros de mañana. Incluso los estudiantes de Informática, que saben cómo funciona, copian y pegan sin comprobar si los resultados son correctos». Hay otro aspecto de la inteligencia artificial que le inquieta especialmente y en el que su trabajo también será relevante: «La automatización de la guerra es muy peligrosa. Europa puede prohibir las armas autónomas, ¿pero cómo se defiende si hay países que están dispuestos a usarlas?», advierte.

Las claves de mi investigación

1

«La IA no tiene moral. Es tan ética como aquel que la usa. Desarrollo técnicas para que se comporte de acuerdo con valores humanos y evitar que tome decisiones dañinas».

2

«Para poner un fármaco en el mercado no solo hay que demostrar que funciona, sino que los efectos secundarios no son peores que el remedio. Esto no pasa con la IA».

3

«Codifico los algoritmos para que se ajusten a unas normas éticas en un escenario con múltiples agentes, porque el día de mañana la IA estará en todas partes».

4

«Habrá certificados para distinguir los algoritmos que son seguros, igual que tenemos límites de velocidad en la carretera porque valoramos más la vida que llegar rápido».

MÁS DE XLSEMANAL