Los líderes mundiales se comprometen a regular las ventajas y los riesgos de la inteligencia artificial

Juan Ventura Lado Alvela
j. v. lado REDACCIÓN / LA VOZ

SOCIEDAD

La primera ministra italiana, Giorgia Meloni, y el secretario general de la ONU, Antonio Guterres, durante la cumbre de Bletchley
La primera ministra italiana, Giorgia Meloni, y el secretario general de la ONU, Antonio Guterres, durante la cumbre de Bletchley POOL | REUTERS

La ONU advierte de que se puede llegar a «perder el control» de los sistemas

03 nov 2023 . Actualizado a las 08:52 h.

El martes fue el presidente de Estados Unidos, Joe Biden, anunciando una ley propia y por un procedimiento urgente que se usa en contadas ocasiones. El miércoles, 27 de los países más avanzados del mundo —entre ellos el propio Estados Unidos, China, India y también España— firmaron una declaración para comprometerse a trabajar juntos frente a las potenciales consecuencias «catastróficas» de la inteligencia artificial (IA). Y ayer, al margen del secretario general de la ONU y del primer ministro británico; Elon Musk, dueño de X y otro buen puñado de empresas, calificó esta tecnología en la Cumbre de Seguridad sobre IA de Bletchley Park (Reino Unido) como una de las «principales amenazas para la humanidad».

La conferencia británica, en contra de lo que ocurre habitualmente con este tipo de encuentros, se ha convertido en una exclamación, prácticamente un grito, de varios de los principales líderes políticos y empresariales del mundo para regular esta tecnología disruptiva. Se han comprometido a que un nuevo panel internacional de expertos, al estilo del IPCC del cambio climático, fiscalice los avances y vele por la seguridad.

El secretario general de la Organización de Naciones Unidas (ONU), Antonio Guterres, alertó de la posibilidad que existe de que el desarrollo avance «en direcciones imprevistas» hasta el punto de que «pueda llegar a perderse el control de los sistemas».

Guterres puso el acento en que durante el año pasado se lanzaron poderosas herramientas «con pocas consideraciones respecto a la seguridad y las salvaguardas para los usuarios», y «cada vez que eso ocurre se incrementa el riesgo de que esa tecnología se utilice de manera maligna por criminales, o incluso por terroristas».

Por su parte, el primer ministro británico, Rishi Sunak, fue todavía más lejos al afirmar que los riesgos pueden tener el alcance de «una pandemia o una guerra nuclear». Destacó que los propios desarrolladores han advertido de los peligros y los representantes de la industria «no se ponen de acuerdo y no podemos estar seguros». Por tanto, entiende que los líderes políticos como él tienen «la responsabilidad de actuar y dar los pasos necesarios para proteger a la gente».

Y la primera potencia mundial, sede de la práctica totalidad de las principales empresas tecnológicas ha recogido el guante. Ya lo había hecho su presidente, Joe Biden, que de una manera un tanto apresurada firmó el martes la ley con la que se anticipaba a la Unión Europea. Pero la vicepresidenta estadounidense, Kamala Harris, fue la encargada de recalcarlo en Bletchley Park. Cree que la IA podría llevar los «ciberataques a una escala más allá de lo que hemos visto hasta ahora». Y en lugar de eso quiere que sirva «para avanzar en los derechos y la dignidad humana».

Por parte de la delegación española, la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, invitó a mirar un poco más allá y no centrarse solo en una tecnología para poder tener una visión global, porque «ahora estamos poniendo el énfasis en la inteligencia artificial, pero mañana lo tenemos que seguir poniendo en la computación cuántica, las neurotecnologías o la biología sintética».

Von der Leyen invita a fijarse en lo que pasó con la energía nuclear y la bomba atómica 

La presidenta de la Comisión Europea (CE), Ursula von der Leyen, afirmó en su intervención de ayer que es necesario aplicar las lecciones del desarrollo de la energía atómica en el siglo XX para controlar los avances de la inteligencia artificial (IA).

«Mi deseo para los próximos cinco años es que aprendamos del pasado y actuemos deprisa», dijo durante la cumbre de seguridad de la IA que se celebra en Bletlchley Park (Reino Unido) Von der Leyen, que alertó de la «complejidad» de los nuevos sistemas inteligentes.

«La experiencia de otras tecnologías puede ser, por lo tanto, nuestra guía. Tomemos la historia de la energía atómica y la bomba nuclear. Los científicos descubrieron la física cuántica, lo que llevó a la energía nuclear, buena, pero también con riesgos para la sociedad y también con la bomba atómica», dijo la mandataria comunitaria. «Eso nos enseña una lección importante: la independencia de la comunidad científica es esencial. Necesitamos un sistema de controles y comprobaciones objetivo», agregó la presidenta.

Von der Leyen defendió la necesidad de impulsar una «comunidad de científicos excelentes e independientes», con «acceso a recursos que les permitan evaluar los riesgos de la IA y alertar con libertad sobre esos riesgos».