Intelixencia artificial feminista

SANDRA M.ª PIÑEIRO RIVAS PRESIDENTA DA AUDIENCIA PROVINCIAL DE LUGO

OPINIÓN

María Pedreda

23 sep 2025 . Actualizado a las 05:00 h.

A irrupción da intelixencia artificial abriu novas posibilidades de intervención en problemas sociais complexos, mais a súa aplicación require unha mirada crítica. Lonxe de seren neutras, as tecnoloxías dixitais replican os nesgos e desigualdades estruturais das sociedades que as producen, polo que o seu uso pode reforzar exclusións e inxustizas.

O algoritmo de contratación de Amazon penalizaba as mulleres ao empregar datos históricos con nesgos. Esta ferramenta experimental de selección de persoal baseada na IA desvalorizaba automaticamente os currículos de mulleres, especialmente se incluían palabras como «muller» ou «feminino», favorecendo candidatos que usaban verbos máis frecuentes en currículos masculinos, como «executar» ou «capturar».

Civio descubriu no 2018 que o algoritmo Bosco utilizado pola Administración española para xestionar o bono social eléctrico decidía a elixibilidade das solicitudes de forma descoñecida para a cidadanía, provocando denegacións indebidas e que as axudas estatais a familias vulnerables para pagar a factura da luz non chegaban a persoas que reunían os requisitos para recibilas, como vítimas de violencia de xénero ou de violencia terrorista, viúvas sen pensión mínima ou familias numerosas sen documentación. Civio pediu acceso ao código fonte, negado por propiedade intelectual e protección de datos, e interpuxo recurso de casación no Tribunal Supremo para que o Goberno abra o código fonte de Bosco ante a negativa obtida en instancias previas, de forma que recaerá a primeira sentenza sobre transparencia algorítmica e indefensión cidadá fronte a decisións automatizadas que afectan dereitos básicos.

Tamén o sistema Compas, utilizado nos Estados Unidos para predicir riscos de reincidencia penal, revelou discriminacións contra persoas racializadas e con poucos recursos, evidenciando os perigos de delegar decisións sensibles a modelos opacos.

Estes casos ilustran que os algoritmos non só procesan datos, senón que participan na produción de coñecemento e no establecemento de «verdades» que inflúen na vida das persoas. A súa aparente obxectividade oculta relacións de poder que deben ser cuestionadas. Donna Haraway ou Sandra Harding sinalan que non existen coñecementos neutros: toda tecnoloxía encarna valores e visións do mundo. O problema subxacente é que os sistemas de IA se presentan como obxectivos e neutrais á hora de tomar decisións, en lugar de estar inscritos con preferencias e valores masculinos, e doutros tipos (Wajcman e Young). As máquinas adestradas utilizando conxuntos de datos xerados nunha sociedade desigual tenden a amplificar as iniquidades existentes, convertendo os prexuízos humanos en feitos aparentemente obxectivos. Neste sentido, a IA tende a consolidar unha epistemoloxía androcéntrica, branca e occidental, que exclúe outras experiencias e saberes.

Por iso, resulta urxente desenvolver unha aproximación feminista á IA. A chamada «intelixencia artificial feminista» propón cuestionar criticamente os fundamentos técnicos e epistémicos da IA convencional, visibilizar as exclusións que perpetúa e deseñar modelos alternativos baseados na xustiza social, a inclusión e a equidade. Non se trata só de corrixir nesgos, senón de transformar profundamente as formas de producir e aplicar estas tecnoloxías.

A intelixencia artificial pode ser unha ferramenta útil sempre que se desenvolva desde un enfoque feminista e interseccional, capaz de cuestionar os nesgos, redistribuír o poder e recoñecer a diversidade de voces. A innovación tecnolóxica, lonxe de ser un fin en si mesma, debe converterse nun acto de resistencia e de transformación social.