El auditorio de Banco Sabadell en Sant Cugat acogió una nueva edición del ciclo de conferencias DisruptIA, que nuestra entidad está organizando durante este año para analizar cómo la Inteligencia Artificial impactará en nuestro día a día en el futuro inmediato, poniendo especial atención en los aspectos éticos de esta tecnología. Esta nueva charla corrió a cargo de Lorena Fernández, ingeniera informática, directora de comunicación digital de la Universidad de Deusto y miembro de diversos foros internacionales impulsados, entre otros, por la Comisión Europea, centrados en analizar el impacto de no incorporar la perspectiva de género en la Inteligencia Artificial.

Imagen de una persona resolviendo una duda sobre la conferencia de inteligencia artificial

Durante su parlamento, quiso dejar claro que ella es optimista respecto a las aportaciones que la IA traerá a nuestro día a día, pese al contenido de la charla, que se centraría en comentar algunos de los problemas que hay que solventar para asegurar un óptimo aprovechamiento de la misma. “La tecnología no es neutra”, dijo, “ni siempre toma las mejores decisiones, por mucho que a menudo podamos pensar lo contrario”. Hace ya años que se ha comprobado cómo la llegada de nuevas tecnologías o herramientas provoca en la sociedad efectos negativos que inicialmente no habían podido ser previstos por sus creadores. Un buen ejemplo es el ya famoso “Efecto Google”. Está ya sobradamente comprobado que nuestros cerebros se han adaptado a la llegada de internet y los buscadores, y han empezado a no almacenar aquella información que sabemos que podremos encontrar fácilmente en internet o en algún otro recurso. Como botón de muestra, solo hace falta que nos preguntemos cuántos números de teléfono memorizamos actualmente, y cuántos nos sabíamos de memoria antes de la llegada de internet o de los móviles con las agendas telefónicas incorporadas.

Lo mismo va a suceder ahora con la Inteligencia Artificial. Una herramienta extraordinariamente poderosa, que se utiliza ya de forma habitual para tomar muchas decisiones que nos afectan de forma directa, aunque no seamos conscientes de ello, y que funciona con algoritmos a los que se ha alimentado con una cantidad ingente de datos. Y ahora, tras un tiempo de utilización recurrente de este tipo de herramientas, se está empezando a detectar algunos fallos en las mismas que habrá que corregir para asegurar que sus beneficios lleguen de forma igualitaria a todos nosotros.

Imagen de la ingeniera Lorena Fernández hablando sobre inteligencia artificial.

“Los sesgos o errores no son culpa de la IA. La IA solo reproduce los sesgos o problemas de la sociedad”

En este sentido, según ha afirmado, los sesgos negativos o problemas de funcionamiento que la IA pueda estar experimentando no pueden achacarse a esta tecnología. Esta, de hecho, lo único que hace es reproducir (o, en ocasiones, amplificar) los sesgos negativos de los datos con los cuales ha sido alimentada. Así, por ejemplo, ya se ha visto cómo la Inteligencia Artificial puede dar, en ocasiones, respuestas o instrucciones que podrían considerarse machistas o que perjudican a minorías demográficas. Pero esto es así porque los datos con las que se la ha alimentado ya incluían, de entrada, esos sesgos negativos. Como ejemplos de malos funcionamientos que ya se han detectado citó, entre otros, los siguientes:

  • En el campo sanitario, en EE.UU., se ha visto que los modelos que ya existen para detectar o prevenir enfermedades no funcionaban de forma correcta para las personas afroamericanas. Al tener estas, en general, menor poder adquisitivo y no existir en aquel país una sanidad universal gratuita, van menos al médico. Por tanto, sus historiales médicos son relativamente escasos y algunas enfermedades que podrían afectarles de forma más habitual no eran correctamente detectadas, puesto que en el sistema había menos datos con los que alimentar a los sistemas de IA.
  • En España, y siguiendo con el sistema sanitario, también se han detectado errores de funcionamiento en algunos sistemas diseñados para ayudar a diagnosticar enfermedades. Al tener -en general- las mujeres, una mayor tolerancia al dolor, van menos al médico que los hombres. Hecho que, según se ha comprobado, está ya ocasionando que los diagnósticos realizados con intervención de la IA sean menos exactos en el caso de las mujeres que en el de los hombres. Una vez más, porque había menos datos estadísticos para alimentar los sistemas. Eso ha sido especialmente claro a la hora de detectar patologías como los infartos, que se detecta con mucha mayor fiabilidad en el caso de los hombres.
  • En Austria, el gobierno puso en marcha un sistema de asesoramiento para ayudar a los jóvenes del país a decidir qué profesión elegir, teniendo en cuenta sus aptitudes personales. Tras un tiempo, se vio que las carreras relacionadas con el campo de la tecnología o de un nivel profesional más elevado eran sugeridas, mayoritariamente, a hombres. A las mujeres, por su parte, se les recomendaba de forma más habitual profesiones de un menor nivel.
  • Si nos centramos en los sistemas de IA de reconocimiento de imagen, se ha visto ya que muy a menudo los objetos de fotografías tomadas en países del sur global no se reconocen de forma tan fiable como los objetos que aparecen en fotografías que han sido captadas en los países industrializados.
  • En el campo policial o penal, hizo referencia a los problemas detectados en sistemas que ya están en funcionamiento en las prisiones, para ayudar a decidir si un preso puede o no ser puesto en régimen de libertad condicional, u otro sistema que se utiliza por algunos cuerpos policiales cuando deben tomar determinadas decisiones relacionadas con la violencia de género.

Por tanto, los sesgos en los sistemas de inteligencia artificial también pueden ser causados por el uso de datos sesgados o no representativos. Para evitar esto, es importante utilizar conjuntos de datos que sean inclusivos y representativos de la población objetivo. Esto puede ser un desafío, ya que a menudo es difícil recopilar datos de alta calidad de grupos minoritarios o marginados. Sin embargo, es esencial hacer un esfuerzo para recopilar datos inclusivos y así intentar garantizar que los sistemas de IA sean justos y precisos.

En otro orden de cosas, citó otros posibles problemas que podríamos encontrar en el futuro. Como el de las “profecías autocumplidas”. Así, por ejemplo, si como ya sucede en algunos lugares, los sistemas de IA señalan a algunos barrios como puntos más conflictivos, lógicamente se destinarán a esos barrios un mayor número de efectivos policiales. Que acabarán realizando, lógicamente, un mayor número de detenciones… en gran parte, porque allí hay más policías trabajando. Lo que acabará reforzando, cada vez más, la calificación de aquel barrio como zona más conflictiva, iniciando “una especie de bucle infinito”.

Infra-representación de la mujer en el ámbito tecnológico

Hizo también especial hincapié en la infrarrepresentación de las mujeres en los ámbitos tecnológicos. Una infrarrepresentación que no se produce tan sólo a nivel profesional (el porcentaje de mujeres que actualmente están trabajando para alimentar y diseñar los sistemas de IA es muy pequeño) sino también a nivel de usuarias. Según afirmó, solo un 30 % de los usuarios que utilizan de forma regular los sistemas de IA son mujeres. Esto, evidentemente, también influye a la hora de introducir, aunque sea de forma involuntaria, “sesgos de género” que penalizan a la mujer en este tipo de sistemas.

¿Cómo se soluciona el problema?

Entre las principales soluciones a estos problemas ha citado la necesidad de realizar auditorías independientes a los algoritmos que se vayan lanzando. “Por suerte”, dijo, “cada vez son más las empresas o entidades que publican en abierto sus algoritmos. Se refirió como referente en este sentido a la labor de la Eticas Foundation (https://eticasfoundation.org/), liderada por Gemma Galdón. Cerró su charla reafirmando, una vez más, su “optimismo” respecto a los beneficios que, a nivel global, la IA nos aportará. “Lo que no implica”, finalizó, “cerrar los ojos a los problemas que, como toda tecnología, su aplicación puede comportar, y la necesidad de poner el máximo esfuerzo para contrarrestarlos”.

Podéis visionar la conferencia, íntegra, en el siguiente vídeo.

Las aplicaciones de la inteligencia artificial son muchas, por ello esta nueva tecnología tiene el potencial de transformar nuestra sociedad de muchas maneras positivas. Puede ayudarnos a mejorar la atención médica, la educación, el transporte y muchos otros aspectos de nuestras vidas. Sin embargo, es importante recordar que la IA es una herramienta, y como cualquier herramienta, puede ser utilizada para muchos fines.

Para asegurarnos de que la revolución de la inteligencia artificial nos lleve a un futuro mejor, es esencial que seamos conscientes de los sesgos que pueden existir en los sistemas de IA y que tomemos medidas para mitigarlos. Debemos asegurarnos de que los equipos de desarrollo de inteligencia artificial sean diversos y que los datos utilizados para entrenar los sistemas sean inclusivos y representativos, entre otros.