A xornalista especializada en intelixencia artificial, Raquel Holgado, explica que « este algoritmo faise a partir do pensamento das sociedades, coa información que vai recompilando, e é ás sociedades ás que corresponde corrixir as condutas machistas para que poidamos ter máquinas que non reproduzan eses patróns ».

Escrito por Ángela Precedo

A intelixencia artificial (IA) chegou para quedarse. Xa é unha realidade que está a impregnar todos os espazos. E hai que ter moi en conta que a IA bebe directamente dos nosos pensamentos e das nosas manifestacións como humanos. Non é unha entidade con vontade propia, realmente intelixente, senón que a súa intelixencia se constrúe a partir do noso coñecemento. Así as cousas, nunha sociedade na que a violencia contra a muller e os micromachismos seguen moi presentes, como non vai ter a IA sesgos de xénero? É imposible que no momento da súa creación non os teña, outra cousa é que logo poidan ir corrixíndose. Así o explica Raquel Holgado, redactora de Tecnoloxía do diario dixital ‘20 minutos, no Congreso ‘Intelixencia artificial: unha ferramenta para a igualdade?, organizado este martes pola Asociación de Xornalistas de Galicia.

« É o algoritmo que usa o tradutor de Google machista? », plantexa Holgado, que exemplifica varios casos de como traduce idiomas con palabras sen xénero para demostrar que, en certo modo, está sesgado. En húngaro, a palabra ‘szép‘, non ten xénero, polo que se usa tanto para dicir que ‘el é guapo’ como ‘ela é guapa’, pero o tradutor de Google sempre arroxaba o mesmo resultado: ‘ela é guapa’. Por outra banda, ‘okos‘ significaba tanto ‘el é intelixente’ como ‘ela é intelixente’, pero o resultado escollido polo tradutor sempre era ‘el é intelixente’. O mesmo sucedía con outros idiomas como o eúskaro ou o inglés, onde hai palabras que tampouco se asocian a un xénero en concreto. Así, ‘coser’ sempre o asociaba a ‘elas’ e ‘conducir’ a ‘eles’. « Un usuario do tradutor deuse de conta e este problema se solucionou, de tal maneira que agora Google cambiou a forma en que traduce unha palabra neutra e arroxa nos resultados as dúas versións », afirma Holgado.

Por que sucedía isto? Era o algoritmo do tradutor de Google conscientemente machista? Non. Tal e como explica a xornalista, « este algoritmo faise a partir do pensamento das sociedades, coa información que vai recompilando, e é ás sociedades ás que corresponde corrixir as condutas machistas para que poidamos ter máquinas que non reproduzan eses patróns ». E é que isto non é algo exclusivo de Google, senón que tamén hai outros exemplos onde as tecnoloxías que usan intelixencia artificial amosan tintes racistas e homofóbicos. Holgado expón o caso dos propios filtros de Instagram ou Tik Tok, que usan a IA para cambiar un rostro real por un debuxo animado, por exemplo, e « ás veces non recoñecen a persoas racializadas, asiáticas ou negras ». Ademais, outros filtros que usan o recoñecemento facial para mellorar a imaxe da persoa e facela máis guapa, tamén se basean en sesgos machistas, pois son maioritariamente usados por mulleres. « Como no caso no tradutor de Google, as queixas da xente poden facer que as empresas traballen por cambialo », prevé Holgado.

A SUBSTITUCIÓN DE TRABALLADORES COMEZARA POLAS MULLERES?

Ademais, no mundo actual a maior preocupación que supón a intelixencia artificial para a poboación en xeral é a substitución de traballos. Pero, é realmente o avance da IA un perigo para a muller neste senso? « Que a IA estea en boca de todos fai que moitas persoas teman polos seus postos de traballo, e hai quen teme que modelos de xeración conversacional como Chat GPT comecen a quitar empregos á xente », evidencia a xornalista, que aporta unha serie de datos ao respecto. O pasado ano 2018 o Fondo Monetario Internacional (FMI) concluíu que as mulleres se enfrontaban a un risco dun 11 % de perder o seu traballo debido á automatización do emprego, fronte ao risco do 9 % que tiñan os homes. A explicación atopábase en que as mulleres tiñan un 15 % menos de probabilidades de ser xerentes ou altos cargos nas súas profesións, mentres que ocupaban un 19 % máis de funcións administrativos e de prestación de servizos, máis rutineiras e, polo tanto, máis facilmente substituíbles por unha intelixencia artificial.

Estes son datos de fai cinco anos e, « aínda que o normal sería pensar que eses sesgos, ao igual que ocorreu co caso do tradutor de Google, fóronse eliminando », o certo é que « non é así », lamenta Holgado. Un estudo da Universidade de Carolina do Norte, en Estados Unidos, dicía que o 79 % da man de obra feminina se verá afectada polos avances da intelixencia artificial, fronte a un 58 % da masculina. Outro recente estudo da Organización Internacional do Traballo (OIT) temía que os postos administrativos e outros ocupados por mulleres serían os máis afectados pola IA, aínda que, como concede a xornalista, « tamén lanzaba un mensaxe de tranquilidade, pois dicía que non se destruiría o traballo, senón que melloraría a calidade do mesmo ». Ademais, Holgado considera que, « polo momento, o desenvolvemento da IA só está dando os seus primeiros pasos, a pesares de que xa as empresas levan moito tempo traballando nela, o que nos levaría a pensar que ao mellor o avance vai ser máis lento do que a sociedade cre ».

É NECESARIA UNHA LEXISLACIÓN SOBRE INTELIXENCIA ARTIFICIAL XA

Aínda que non é menos certo que é necesario crear xa lexislación ao respecto, porque « os estudos son só suposicións, e están lonxe de cuantificar cales son as consecuencias reais ». Así que, mentres se analizan as perspectivas de futuro, na Unión Europea xa se está a redactar un borrador de lei sobre a IA, pendente de aprobación na actualidade, que Holgado cre que « está á volta da esquina, porque é evidente que precisamos unha lei ». Cando esta se aprobe para a Unión Europea, España tamén estará amparada por ela. A xornalista cre que este documento é « moi importante para que o avance se faga sen riscos, sen os que se están previndo, e que sexa beneficioso para o conxunto da sociedade e non só para uns poucos, non só para os homes ». Deste xeito, o que se coñece xa do borrador desta lei marca como « inaceptable » que « o modelo supoña un risco para as persoas » e « evita que se usen técnicas subliminares que manipulen ou se aproveiten das vulnerabilidades das persoas ».

 

[Fonte: http://www.galiciaconfidencial.com]