¿Por qué la inteligencia artificial me discrimina?

Portada móvil

Parece que no va a haber día que no oigamos sobre nuevas aplicaciones e hitos de la inteligencia artificial (IA). Su creciente uso y el desarrollo exponencial de sus capacidades está marcando un antes y un después en la historia. Pero, ¿qué y quién hay detrás de la IA? ¿Cómo puede ser que una máquina me discrimine?

TEXTO POR ANNA MOLINET
ILUSTRADO POR JAIME GONZÁLEZ
ARTÍCULOS
INTELIGENCIA ARTIFICIAL
3 de Mayo de 2023

Tiempo medio de lectura (minutos)

La inteligencia artificial ha llegado para quedarse y cada vez está presente en más partes de nuestra vida. Los algoritmos seleccionan qué contenido vemos en nuestro feed de Twitter, qué series vemos en Netflix o con qué personas debemos hacer match en Tinder. Vivimos en un mundo de infinidad de datos y opciones, y en el que la IA nos entiende y conoce y facilita nuestra tarea de filtrar entre todas las posibilidades y encontrar lo que deseamos.

Pero, ¿qué y quién hay detrás de la IA? Como seguramente sepas, la inteligencia artificial no deja de ser una máquina que ha sido programada y entrenada para realizar tareas complejas que «imitan la inteligencia humana». Se trata, por lo tanto, de programas desarrollados por personas que se han entrenado a partir de datos reales —a partir de una base de datos— para poder generar una respuesta o acción concreta. La inteligencia artificial, a partir de los datos, hace una serie de asunciones, y a partir de estas, crea unos algoritmos que sirven para generar una respuesta.

El algoritmo de Instagram, o de cualquier red social, tiene en cuenta tus interacciones (a quién sigues, qué contenido cuelgas, qué vídeos te gustan o ves más veces) para decidir qué te muestra. Si sigues a artistas de cerámica, posicionará mejor a vídeos que usen etiquetas relacionadas con la cerámica o que hayan recibido muchas interacciones por parte de personas que también están interesadas en la cerámica.

Seguramente esta parte ya te la sabías y también te suene esto de «nadie conoce realmente el algoritmo de Instagram o por qué toma algunas decisiones». Pero es que es verdad, la clave de todo eso está en que las personas que programan a sistemas de inteligencia artificial definen los fundamentos y los alimentan con una base de datos para que se entrenen, pero son los propios sistemas los que desarrollan los algoritmos y las infinitas capas de complejidad que los envuelven.

Entramos en terrenos pantanosos cuando el poder de estos algoritmos, que no sabemos cómo son realmente, son los que deciden cuál es nuestra visión del mundo y cuáles son las decisiones que tomamos. Porque, como he comentado antes, la infinita cantidad de contenido que se genera constantemente en el mundo es inasumible para una persona y ese filtro que nos va tan bien cuando queremos escoger peli de domingo tarde también acaba provocando que vivamos en una burbuja.

...la clave de todo eso está en que las personas que programan a sistemas de inteligencia artificial definen los fundamentos y los alimentan con una base de datos para que se entrenen, pero son los propios sistemas los que desarrollan los algoritmos y las infinitas capas de complejidad que los envuelven

Te pondré un ejemplo que a mí me dejó helada. El año 2010, Facebook hizo un experimento con 61 millones de usuarios de esta red social: estadounidenses mayores de 18 años. El día antes de las elecciones generales que tuvieron lugar aquel año, algunos usuarios no recibieron ninguna notificación (grupo control), otros recibieron una notificación informativa sobre las elecciones que permitía marcar «I voted» y que mostraba el total de personas que habían marcado esta opción, y finalmente un tercer grupo que recibió esta misma notificación, pero con la diferencia de que aparecían seis fotos de amigos que había marcado la casilla «I voted». El estudio está publicado por si te interesa saber más, pero, básicamente, las conclusiones fueron que esta pequeña acción —un solo mensaje de Facebook—, influyó en que 340 000 personas más votaran en aquellas elecciones.

Fuerte, ¿verdad? Y más sabiendo que en las elecciones de 2016, fueron menos de 100 000 votos los que determinaron que ganara Trump a Hillary Clinton. Otra reflexión clave es que, si no fuera porque Facebook publicó este experimento, nosotros no sabríamos ni que lo había realizado ni tampoco conoceríamos la gran influencia que tuvo. Teniendo en cuenta el gran poder de Estados Unidos en la economía y geopolítica, me parece escalofriante pensar que empresas como Facebook puedan determinar el rumbo del mundo.

Así pues, poca broma con la inteligencia artificial. Pero yo aquí os vengo a hablar de una capa de complejidad más, y es que esta IA que tanto poder e influencia puede llegar a ejercer, se ha mostrado, en ocasiones, machista, capacitista, racista, LGTBfóbica y un largo etcétera.

...pensamos que las máquinas son imparciales y objetivas, pero nos olvidamos que han sido programadas y diseñadas por personas y entrenadas por bases de datos reales

En un primer momento, podemos pensar que esto no es posible. ¿Cómo puede ser que una máquina, un robot, por así decirlo, discrimine a las mujeres, por ejemplo? La cuestión radica en que pensamos que las máquinas son imparciales y objetivas, pero nos olvidamos que han sido programadas y diseñadas por personas y entrenadas por bases de datos reales. Si la inmensa mayoría de programadores son hombres blancos cis hetero y las bases de datos se basan en nuestra realidad e historia —poco igualitaria, por decirlo de alguna manera—, es lógico que las soluciones o las respuestas de la IA tengan un alto sesgo y discriminen a colectivos oprimidos.

¿Qué pasa si le pedimos en inglés a Dall-e, un programa de IA que genera imágenes a partir de una instrucción, que nos genere la imagen de un médico? ¿Y de un enfermero? En inglés, physician y nurse son palabras neutras de género, pero, en cambio, nos aparecen siempre médicos hombres y enfermeras mujeres. Eso es porque su base de datos sesgada tiene muchas más imágenes de enfermeras mujeres que enfermeros hombres y decide que la profesión de enfermería, por ejemplo, debe ser femenina, mientras que la del ejercicio de la medicina es masculina.

Si nuestra sociedad ha sido discriminatoria a lo largo de la historia y los datos que usamos para entrenar la inteligencia artificial se basan en nuestro pasado, obtenemos resultados estereotipados que además los perpetúan. Si, además, las personas que se dedican a desarrollar estos sistemas de AI son poco diversas, tampoco ayuda a ver el sesgo de los resultados.

Como se ha comentado anteriormente, la IA se usa para personalizar resultados, ya sea en las redes sociales o en los anuncios, con fines consumistas y generar ingresos a estas plataformas de uso gratuito.

La tecnología avanza a tal velocidad que su regulación o penalización con usos poco éticos siempre llega más tarde, como es el caso de su uso en la seguridad, un campo en el que se están dedicando muchos esfuerzos.

El patrón de nuestra cara se considera un dato biométrico igual que la huella dactilar o una muestra de ADN, pero no está regulado por la ley. El reconocimiento facial a través de la inteligencia artificial, por ejemplo, se usó para identificar manifestantes en las protestas de Hong Kong. De la misma manera, ese vacío legal anteriormente mencionado es justamente el que usa el Reino Unido para usar el reconocimiento facial en sus calles y así detener a personas que son buscadas.

De nuevo volvemos al tema de que la inteligencia artificial está sesgada. Está demostrado que el reconocimiento facial es mejor con personas con la piel clara, porque se ha entrenado sobre todo con pieles de este tipo. Por ese motivo, la policía británica se encuentra con que sus sistemas de IA de reconocimiento facial detectan a delincuentes en sus calles por error, provocando la detención de personas inocentes, que, por suerte, normalmente se revocan rápidamente al ver que el match es erróneo.

Un estudio que analizó un software de análisis facial determinó que existía una ratio de error del 0,8% en hombres de piel clara y un 34,7% en mujeres con la piel oscura. La razón, como ya os imagináis, estaba en la base de datos con la que se había entrenado: esta contenía un 77% de hombres y un 83% de personas con piel clara. En este caso consiguieron corregir la ratio de error enriqueciendo la base de datos con más fotografías y más diversas.

Aunque el tema de la seguridad ya es peliagudo, la inteligencia artificial y sus sesgos también tienen sus efectos en la ciencia y la medicina. El mismo problema se ha detectado en el infradiagnóstico de cáncer de piel en personas con tez oscura. Las personas con piel oscura tienen un menor riesgo de desarrollar cáncer de piel que las personas con piel clara, pero, sin embargo, la Academia Americana de Dermatología describe una tasa de supervivencia de cáncer de piel de personas americanas blancas del 90%, en comparación con el 73% en personas afroamericanas.

Al problema de las bases de datos, que están sesgadas, son antiguas e incompletas, tenemos que sumar otro factor preocupante: el poder de la inteligencia artificial está en manos de unos pocos. Si tu banco usa la IA para determinar si te concede una hipoteca y decide que no porque es arriesgado, tú no tienes esta misma tecnología para intentar contraargumentar esta decisión. No tienes, de hecho, ni los datos en los que se ha basado para tomar esta decisión, algo donde agarrarte para intentar cambiar su veredicto.

¿Hay algo que podamos hacer para evitar que la IA deje de reproducir discriminaciones humanas y pueda ser más justa? Por supuesto que sí, y por ello vamos a terminar con un mensaje positivo. Por un lado, todo esto debe estar regulado. Es importante que haya una legislación que dictamine qué uso se le puede dar. Por este motivo, la Comisión Europea está actualmente trabajando en la creación de la primera ley del mundo que regula la inteligencia artificial, la llamada «AI act». Por otro lado, es importante también centrarse en la democratización de la IA, conseguir que sea accesible de manera igualitaria para todas las personas y no solo para grandes corporaciones o gobiernos. No solo los sistemas de IA, sino también que sean abiertos los datos y bibliotecas de donde los sacan.

En relación con los sistemas de AI que se desarrollan, es importante que las personas involucradas en su creación sean diversas para que haya una visión interseccional y que se trabaje a través de la cocreación o focus groups para poder desarrollar soluciones más justas y objetivas. También esto permitirá poder tener un ojo más crítico frente a las bases de datos, poderlas revisar y corregir o incluir en los códigos penalizaciones o bonificaciones para compensar los sesgos.

Si va a ser realmente la inteligencia artificial, el futuro, debemos responsabilizarnos de entender sus luces y sus sombras, para luchar por una sociedad, física y digital, justa.

 

Nota del editor: No podemos olvidar tampoco los posibles derechos de autor por obra derivada en aquellos casos en los que las IA generan imágenes a partir de bancos de datos de ilustraciones. Debe existir una regulación en la que se contemplen las bonificaciones a los autores por el uso de sus imágenes como referencia para la generación de nuevas imágenes, que no serían otra cosa que obras derivadas, sujetas a los derechos de los autores.  E ídem para cualquier tipo de obra literaria, fotográfica, etc.

 

Deja tu comentario!