Amparo Alonso: «ChatGPT ya no contesta a cómo suicidarse o fabricar explosivos»

m. carneiro A CORUÑA / LA VOZ

A CORUÑA

CESAR QUIAN

La catedrática de la UDC hablará este viernes en la Cidade das TIC de los mitos, realidad y urgencias de la inteligencia artificial

27 oct 2023 . Actualizado a las 05:00 h.

La catedrática de Computación e Inteligencia Artificial de la UDC Amparo Alonso Betanzos (Vigo, 1961) cerrará esta tarde en la Cidade das TIC las jornadas Corunna Innovate Summit en las que reputados investigadores analizan los desafíos de la inteligencia artificial, la ciencia de datos y el internet de las cosas. «El congreso de las mentes que están cambiando el mundo», se publicita el evento al que pondrá broche la catedrática —siempre llamando la atención sobre la ausencia de mujeres en los centros de poder tecnológico— con una conferencia titulada «IA, mito y realidad».

—Empezamos por el mito. La IA va a acabar gobernándonos a todos.

—Sí, se habla de la singularidad tecnológica, de una inteligencia artificial general como la humana que nos va a acabar sustituyendo, y de escenarios catastrofistas que yo espero que nunca lleguen a producirse y de los que, desde luego, estamos muy lejos. Pero hay otras cuestiones que urge regular y por eso es importante la supervisión ética y la agencia que se abrirá en A Coruña.

—¿Puede poner algún ejemplo de las consecuencias de los sesgos en los algoritmos?

—Podemos tener sistemas de reconocimiento facial que funcionan muy bien con hombres de raza blanca, con los que fueron entrenados, pero muy mal con mujeres de raza negra. O de otro tipo, aplicaciones que detectan socavones en las carreteras para las que son necesarios determinados teléfonos móviles y que lógicamente crean una brecha en zonas donde la población no se puede permitir ese tipo de tecnología.

—El acceso a la tecnología no es universal.

—No lo es. El acceso a la tecnología y la información crea una brecha enorme entre unos países y otros. Y está el monopolio de las cuatro empresas que controlan la IA.

—¿Qué otras fallas hay que corregir?

—La poca diversidad en los equipos de desarrollo (el perfil mayoritario sigue siendo un hombre de raza blanca de nivel económico medio-alto), la discriminación algorítmica a la que puede estar sometida una mujer de un entorno pobre a la que se le concede un crédito en función de un algoritmo, o los enfermos oncológicos para los que se reclama derecho al olvido porque cuando ya están curados siguen teniendo problemas, por ejemplo, para que les hagan un seguro por la información que queda de ellos en internet.

—¿Cómo va la tramitación de la ley europea de IA?

—Teóricamente se está discutiendo en el Parlamento europeo y a finales de año habría avances, pero es posible que se posponga. Se basa en perfiles de riesgo: intolerable, como las aplicaciones que usan sistemas biométricos o ránking de personas, como en China; alto, que son las que se regularán, y bajo o inexistente. La cuestión es que en plena discusión ha aparecido la IA generativa, el ChatGPT, que no estaba previsto en la ley y son sistemas que pueden incurrir en riesgos. Un adolescente le preguntó formas de suicidarse, por ejemplo. Otros pueden preguntar cómo fabricar explosivos. Ya no contesta, pero están las falsificaciones, las deepfakes, imágenes, vídeos, textos falsos que hay que identificar y para los que se habla de marcas de agua. O el dinero, cada vez más digital, menos físico, y que abre incógnitas, como si tributarán los regalos de Navidad, las propinas, etcétera.