L’auditori de Banc Sabadell a Sant Cugat va acollir una nova edició del cicle de conferències DisruptIA, que la nostra entitat està organitzant durant aquest any per analitzar com la Intel·ligència Artificial impactarà el nostre dia a dia en el futur immediat, posant especial atenció en els aspectes ètics d’aquesta tecnologia. Aquesta nova xerrada va anar a càrrec de Lorena Fernández, enginyera informàtica, directora de comunicació digital de la Universitat de Deusto i membre de diversos fòrums internacionals impulsats, entre d’altres, per la Comissió Europea, centrats a analitzar l’impacte de no incorporar la perspectiva de gènere a la Intel·ligència Artificial.
Durant el seu parlament, va voler deixar clar que ella és optimista respecte a les aportacions que la IA portarà al nostre dia a dia, malgrat el contingut de la xerrada, que se centraria a comentar alguns dels problemes que cal resoldre per assegurar un òptim aprofitament d’aquesta. “La tecnologia no és neutra”, va dir, “ni sempre pren les millors decisions, per més que sovint puguem pensar el contrari”. Ja fa anys que s’ha comprovat com l’arribada de noves tecnologies o eines provoca a la societat efectes negatius que inicialment no havien pogut ser previstos pels seus creadors. Un bon exemple és el ja famós “Efecte Google”. Ja està àmpliament comprovat que els nostres cervells s’han adaptat a l’arribada d’internet i els cercadors, i han començat a no emmagatzemar aquella informació que sabem que podrem trobar fàcilment a internet o en algun altre recurs. Com a mostra només cal que ens preguntem quants números de telèfon memoritzem actualment, i quants ens sabíem de memòria abans de l’arribada d’internet o dels mòbils amb les agendes telefòniques incorporades.
El mateix passarà ara amb la Intel·ligència Artificial. Una eina extraordinàriament poderosa, que ja s’utilitza de manera habitual per prendre moltes decisions que ens afecten de forma directa, encara que no en siguem conscients, i que funciona amb algoritmes als quals s’ha alimentat amb una quantitat ingent de dades. I ara, després d’un temps d’utilització recurrent d’aquest tipus d’eines, s’està començant a detectar algunes errades que caldrà corregir per assegurar que els seus beneficis arribin de manera igualitària a tots nosaltres.
“Els biaixos o errors no són culpa de la IA. La IA només reprodueix els biaixos o problemes de la societat”
En aquest sentit, segons ha afirmat, els biaixos negatius o problemes de funcionament que la IA pugui estar experimentant no es poden atribuir a aquesta tecnologia. Aquesta, de fet, l’únic que fa és reproduir (o, de vegades, amplificar) els biaixos negatius de les dades amb els quals ha estat alimentada. Així, per exemple, ja s’ha vist com la Intel·ligència Artificial pot donar, de vegades, respostes o instruccions que podrien considerar-se masclistes o que perjudiquen minories demogràfiques. Però això és així perquè les dades amb les quals se l’ha alimentada ja incloïen, d’entrada, aquests biaixos negatius. Com a exemples de mals funcionaments que ja s’han detectat va citar, entre d’altres, els següents:
- Al camp sanitari, als EUA, s’ha vist que els models que ja existeixen per detectar o prevenir malalties no funcionaven correctament per a les persones afroamericanes. En tenir aquestes, en general, menys poder adquisitiu i no existir en aquell país una sanitat universal gratuïta, van menys al metge. Per tant, els seus historials mèdics són relativament escassos i algunes malalties que podrien afectar-los de forma més habitual no eren correctament detectades, ja que al sistema hi havia menys dades amb les quals alimentar els sistemes d’IA.
- A Espanya, i continuant amb el sistema sanitari, també s’han detectat errors de funcionament en alguns sistemes dissenyats per ajudar a diagnosticar malalties. En tenir —en general— les dones, més tolerància al dolor, van menys al metge que els homes. Fet que, segons s’ha comprovat, ja ocasiona que els diagnòstics realitzats amb intervenció de la IA siguin menys exactes en el cas de les dones que en el dels homes. Un cop més, perquè hi havia menys dades estadístiques per alimentar els sistemes. Això ha estat especialment clar a l’hora de detectar patologies com els infarts, que es detecta amb molta més fiabilitat en el cas dels homes.
- A Àustria, el govern va posar en marxa un sistema d’assessorament per ajudar els joves del país a decidir quina professió escollir, tenint en compte les seves aptituds personals. Després d’un temps, es va veure que les carreres relacionades amb el camp de la tecnologia o d’un nivell professional més elevat eren suggerides majoritàriament a homes. A les dones, per la seva banda, se’ls recomanava de manera més habitual professions d’un nivell menor.
- Si ens centrem en els sistemes d’IA de reconeixement d’imatge, ja s’ha vist que molt sovint els objectes de fotografies fetes a països del sud global no es reconeixen de manera tan fiable com els objectes que apareixen en fotografies que han estat captades als països industrialitzats.
- En el camp policial o penal, va fer referència als problemes detectats en sistemes que ja estan en funcionament a les presons, per ajudar a decidir si un pres pot ser posat en règim de llibertat condicional o no, o un altre sistema que s’utilitza per alguns cossos policials quan han de prendre determinades decisions relacionades amb la violència de gènere.
Per una altra banda, va citar altres possibles problemes que podríem trobar en el futur. Com el de les “profecies autocomplides”. Així, per exemple, si com ja passa en alguns llocs, els sistemes d’IA assenyalen alguns barris com a punts més conflictius, lògicament es destinaran a aquests barris un nombre més gran d’efectius policials. Que acabaran realitzant, lògicament, un nombre més gran de detencions… en gran part, perquè allà hi ha més policies treballant. El que acabarà reforçant, cada vegada més, la qualificació d’aquell barri com a zona més conflictiva, iniciant “una mena de bucle infinit”.
Infrarepresentació de la dona en l’àmbit tecnològic
Va fer també un èmfasi especial en la infrarepresentació de les dones en els àmbits tecnològics. Una infrarepresentació que no es produeix tan sols a escala professional (el percentatge de dones que actualment treballen per alimentar i dissenyar els sistemes d’IA és molt petit) sinó també a escala d’usuari. Segons va afirmar, només un 30 % dels usuaris que utilitzen de manera regular els sistemes d’IA són dones. Això, evidentment, també influeix a l’hora d’introduir, encara que sigui de forma involuntària, “biaixos de gènere” que penalitzen la dona en aquest tipus de sistemes.
Com se soluciona el problema?
Entre les principals solucions a aquests problemes ha citat la necessitat de fer auditories independents als algoritmes que es vagin llançant. “Per sort”, va dir, “cada cop són més les empreses o entitats que publiquen en obert els seus algoritmes”. Es va referir com a referent en aquest sentit a la tasca de l’Eticas Foundation (https://eticasfoundation.org/), liderada per Gemma Galdón. Va tancar la xerrada reafirmant, una vegada més, el seu “optimisme” respecte als beneficis que, a escala global, ens aportarà la IA. “El que no implica”, va finalitzar, “tancar els ulls als problemes que, com tota tecnologia, pot comportar la seva aplicació, i la necessitat de posar el màxim esforç per contrarestar-los”.
Podeu visionar la conferència, íntegra, al següent vídeo.