Inteligencia artificial: entre la amenaza y la esperanza

Fernando Peña López CONSEJERO ACADÉMICO EN VALES Y ASOCIADOS. CATEDRÁTICO DE DERECHO CIVIL

OPINIÓN

María Pedreda

13 dic 2023 . Actualizado a las 08:53 h.

Hace apenas un par de semanas, el planeta entero asistió con interés a una lucha de poder en la cúpula de la empresa OpenAI, la creadora del famoso ChatGPT. En esa trifulca entre grandes magnates de la tecnología, que provocó primero el derrocamiento y después la vuelta al poder de la última estrella de Silicon Valley, Sam Altman, casi pasó desapercibido el objeto de uno de los proyectos que generaron la controversia entre Altman, el consejo de administración y el principal inversor de la compañía, Microsoft. Ese proyecto se llama Q* y constituiría el primer éxito de OpenAI en el camino hacia una inteligencia artificial general. Una información que resulta muy poco tranquilizadora si consideramos que Altman fue cesado, entre otros motivos, por diferencias de opinión acerca de la seguridad de los productos que la empresa ha estado poniendo a disposición del público.

La IA general o fuerte, frente a las específicas o débiles que actualmente están en funcionamiento, es una tecnología capaz de realizar cualquiera de las tareas intelectuales que pueden desarrollar los seres humanos. Ya no se trataría de robots que diagnostican enfermedades, que conducen coches o que se ocupan de ayudar a los clientes a hacer una reclamación, sino de ingenios capaces de emular la actividad multifuncional del cerebro humano. Lo peor del asunto —o lo mejor, depende de cómo se vea— es que cabe esperar que lo hagan todo infinitamente mejor y más rápido que nosotros. Es difícil no echarse a temblar pensando en esa IA general, más potente que cualquier mente humana por varios órdenes de magnitud, en manos de nuestro país, político o empresario internacional menos favorito. Algo que puede suceder no en décadas o generaciones, sino en muy pocos años, a poco que proyectos como Q* tengan éxito. Al mismo tiempo, es fácil darse cuenta de que una tecnología de este tipo, con su inimaginable capacidad de análisis inteligente de la realidad, podría encontrar la solución para esos grandes problemas globales que los humanos somos incapaces de solventar de modo colectivo.

Ante semejante panorama, entre distópico y utópico, ¿qué hace el derecho? Pues, por ahora, la verdad, muy poco. Incluso en Europa, pese al acuerdo del viernes pasado, a la famosa ley de IA aún le quedan dos años, como mínimo, para entrar en vigor. Y con más retraso todavía vendrán las futuras directivas sobre responsabilidad por los daños derivados del uso de la IA. La sensación tan habitual de que el derecho va por detrás de los avances tecnológicos es, en este caso, abrumadora. El problema es, naturalmente, que imponer requisitos, condiciones y deberes a las empresas es un coste que ralentiza la innovación y el rápido desarrollo de la tecnología, y nadie quiere perder el paso en la carrera de la inteligencia artificial. Una muestra más de que, hoy por hoy, por desgracia, la humanidad no tiene instrumentos adecuados para responder a retos globales capaces de ponernos en jaque como especie. No deja de ser una paradoja que el próximo de los retos que parecemos incapaces de confrontar sea convertir en segura la tecnología que, quizá, podría conseguirnos esas herramientas.