
La aprobación de la ley de la Inteligencia Artificial en el Parlamento europeo es una muy buena noticia para los ciudadanos, los tecnólogos, las empresas y los organismos públicos. La IA no es inteligente, hace lo que el humano le dice sin entender si es arriesgado, bueno o malo. Por eso, esta ley define los controles básicos que una compañía deberá implantar para evitar un uso negativo, exigiendo que las soluciones que se construyan con IA sean transparentes. Permite conocer su trazabilidad, saber de dónde han salido los datos que nos ofrece. Regula la seguridad, porque obliga a que los algoritmos no puedan ser manipulados por terceros en su propio beneficio. Y también obliga a mantener la equidad para que un algoritmo creado con datos incompletos o parciales no pueda tomar decisiones de tipo racista, por ejemplo. Además, la ley prohíbe utilizar la IA para aspectos no éticos como el scoring social, que consiste en etiquetar a los ciudadanos usando su cara u otros factores biométricos. Y la ley también ayuda a las organizaciones a diferenciar entre usos inaceptables, de alto riesgo, de riesgo limitado o de riesgo mínimo para que puedan añadir más control.
Esta nueva ley es una buena noticia. Pero decepcionante que la UE sea quien la lidere. No es suficiente regular y multar por los efectos negativos que puede tener una fantástica tecnología cuando esta se ha desarrollado y nos viene proporcionada por otras regiones del mundo. La administración tiene que apoyar a las empresas que las crean y no solo añadir marcos regulatorios. Sería fantástico que Europa liderase políticas de innovación que fomentasen nuevas tecnologías y pudiésemos disponer de un Google propio, de nuestro servicio de nube, nuestro servicio de IA o nuestro fabricante de chips. Le toca a Europa aceptar que la tecnología está entrando en la vida del ciudadano, en su seguridad, en su salud, en su economía y en su calidad de vida, y acelerar la creación de tecnologías con presupuestos serios para la innovación.