La Cofa

Observatorio tecnológico

Un espacio dedicado a la vigilancia tecnológica sobre el futuro de Internet, la banda ancha y la movilidad, y otros temas relacionados con la sociedad digital.

Telos

A la caza de los sesgos discriminatorios en los algoritmos

24 septiembre 2018

Imagen Destacada
Una preocupación creciente entre los tecnólogos es la aparición de sesgos discriminatorios generados en el proceso de aprendizaje automático, que llevan a que la inteligencia artificial pueda tratar de forma injusta a determinadas personas y colectivos. Empresas como Facebook o Microsoft están trabajando en sistemas capaces de detectar estos errores de juicio en las máquinas. Imagen de Pixabay.

Pablo Rodríguez Canfranc

Ya hemos hablado en el pasado de los sesgos discriminatorios que pueden desarrollar los algoritmos de inteligencia artificial, que implican entre otras cosas que los programas toman decisiones que perjudican a personas o a colectivos específicos. Son sonados ejemplos como COMPAS, una aplicación informática para evaluar la probabilidad de reincidir de exconvictos que consideraba a las personas de color más proclives a ello, o Beauty AI, una máquina jurado de belleza que otorgaba los galardones principalmente a candidatas blancas.

Un estudio de la Universidad de Boston sobre los datos utilizados para educar a algoritmos de inteligencia artificial descubrió que a menudo aparecían conexiones semánticas sexistas en determinados términos, como, por ejemplo, al asociar “programador” más a los hombres que a las mujeres. Y otro experimento del MIT Media Lab concluyó que los sistemas de reconocimiento facial identifican mal a las personas de piel oscura en un 12% más de casos que a las de piel clara.

A medida que la tecnología es cada vez más perfecta en su funcionamiento, más se tiende a automatizar la toma de decisiones y la elaboración de juicios trascendentales. Y más peligro existe de que las máquinas lleven a cabo dictámenes incorrectos o injustos. A lo mejor el problema no es que las máquinas puedan fallar, sino que no deberían tener la potestad para tomar según qué decisiones.

Ya se han alzado voces en el mundo de la ciencia y de la tecnología advirtiendo sobre el peligro de ceder demasiado poder a la inteligencia artificial, las de Stephen Hawking y Elon Musk, entre muchos otros. La ciborgantropóloga Amber Case expresaba este temor entrevistada el pasado noviembre por la revista Telos:

“Los humanos son muy buenos agregando información, sumando conocimiento e interpretando el contexto en el que nos movemos. Los fundamentos, los valores que tenemos en nuestras culturas podrían convertirse en algo controlado por la inteligencia artificial si no tenemos cuidado.”

También Todd Breyfogle de The Aspen Institute se expresaba de forma similar en una entrevista que concedió para el proyecto Tech & Society:

“Corremos el riesgo, al basarnos en la eficiencia o incluso en la precisión, de abdicar de nuestras responsabilidades como agentes morales cuando descargamos en las llamadas máquinas inteligentes el poder de tomar decisiones que debería quedarse en el reino de la sabiduría humana.”

El sesgo en los algoritmos es un tema que preocupa a los profesionales del sector de la inteligencia artificial, tanto por la posibilidad de que adquiera una escala incontrolable, como porque sea muy difícil de detectar. Por suerte, esta preocupación ya se está transformando en acciones concretas que surgen desde las propias empresas tecnológicas, en un intento de limitar los posibles efectos no deseados derivados de sus productos y servicios.

Una de estas es Facebook, que el pasado mayo anunció el desarrollo del sistema Fairness Flow para detectar sesgos a favor o en contra de determinados grupos de personas. De acuerdo con la investigadora de esta plataforma Isabel Kloumann, una primera aplicación es velar porque las recomendaciones de empleo en esa red no discriminen a colectivos, de forma que Fairness Flow analiza las diferencias de trata entre los hombres y mujeres y entre mayores y menores de 40 años, por poner dos ejemplos.

El objetivo es escalar Fairness Flow para que evalúe todas las implicaciones sociales y personales de cada producto que lanza Facebook y para ello han integrado el sistema en su plataforma de aprendizaje automático interna.

También en mayo de 2018 nos llegó la noticia de que Microsoft ha puesto en marcha una acción para cazar los sesgos discriminatorios en los algoritmos. Se trata de un sistema que los ingenieros de la empresa aplican a los modelos de inteligencia artificial entrenados.

No obstante, hay expertos en este campo que consideran insuficientes acciones como las llevadas a cabo por Microsoft y Facebook. Es el caso de Bin Yu, de la Universidad de Berkeley, que en MIT Technology Review defiende la necesidad de que terceras personas ajenas a la empresa evalúen los posibles sesgos que puedan presentar los algoritmos. Refiriéndose al caso concreto de la empresa de Zuckerberg afirma: “alguien distinto debe investigar los algoritmos de Facebook – no pueden ser un secreto para todos”.

Estaríamos hablando de auditar los sistemas de inteligencia artificial por profesionales sin relación con la empresa propietaria que puedan certificar la existencia o no de sesgos discriminatorios. Parece lógico que sea una idea que vaya cobrando fuerza a medida que los sistemas inteligentes van aumentando su presencia en nuestras vidas. Y de todas formas, no es algo muy distinto a las auditorías de cuentas y de estados financieros a las que se ven obligadas  a someterse la empresas en la actualidad.

Deja un comentario

Tu dirección de correo electrónico no será publicada.