Cuando la inteligencia artificial no es tan lista después de todo

10 Julio 2017

Imagen Destacada
Los avances en el campo de la inteligencia artificial se producen a pasos agigantados y sin embargo no dejan de aparecer noticias sobre errores que cometen las máquinas, algunos dignos de risa, pero otros francamente dramáticos, llegando a costar vidas humanas. Para algunos, este fenómeno se debe a que los sistemas inteligentes “aprenden” errores humanos; para otros las empresas están enfocando erróneamente la innovación en este terreno.

Pablo Rodríguez Canfranc

El año pasado salto la noticia de que Microsoft había retirado a su chatbot Tay porque había comenzado a realizar afirmaciones racistas ofensivas en Twitter y en chats. Tay estaba programada para conversar con los usuarios, podía contar chistes o comentar las fotografías que recibía, pero también podía personalizar sus interacciones con los humanos, respondiendo a sus preguntas. El caso es que al salir a las redes los cibernautas le enseñaron a ser racista, puesto que Tay aprende de las conversaciones con humanos, y comenzó a emitir juicios y opiniones políticamente incorrectos, lo que llevó a sus creadores a apagarla.

Es solamente un caso de mal funcionamiento de la inteligencia artificial o, si se quiere, de la aparición de un efecto no previsto ni deseado. No se trata de que el sistema no esté bien diseñado y desarrollado, sino de que ha adquirido lo que podríamos denominar “malos hábitos”. Roman V. Yampolskiyi (La inteligencia artificial en las empresas falla y fallará, sepa cómo evitar sus peores consecuencias) clasifica este tipo de disfunciones en dos categorías: “errores cometidos durante la fase de aprendizaje” y “errores cometidos durante la fase de funcionamiento”.

Se menciona como ejemplo de lo anterior que los primeros esfuerzos de las empresas en utilizar inteligencia artificial en el sistema de mensajería instantánea Messenger de Facebook arrojan un porcentaje de fracaso del 70% en la gestión de  las demandas de los usuarios.

Tay no es el único robot fracasado. La lista de errores y fallos de funcionamiento es bastante extensa y los casos más sonados son:

  • La empresa  Northpointe desarrolló un algoritmo para predecir la probabilidad de que un delincuente reincidiera y este empezó a juzgar que las personas de color eran más proclives a volver a cometer un crimen que los blancos.
  • Los personajes no controlados por jugadores del videojuego Elite: Dangerous comenzaron a desarrollar por su cuenta armas que no estaban en el diseño original del juego. De esta forma, los jugadores humanos se enfrentaban a naves equipadas con armamento grotesco que les destruía en pedazos.
  • Un robot de seguridad de la compañía Knightscope Inc. arroyó a un niño de 16 meses en un centro comercial de Palo Alto, California.
  • El accidente más renombrado de un coche autónomo se produjo en una autopista de Florida, cuando el vehículo Tesla no detectó la parte trasera de un camión y se empotró contra él con la consecuente muerte del pasajero.
  • El primer concurso de belleza en contar con un jurado no humano, Beauty.AI 2.0, demostró que el algoritmo había desarrollado un sesgo racista que le llevó a puntuar más bajo a las mujeres de color.
  • El programa de inteligencia artificial Alpha Go perdió en 2016 contra un humano al juego Go en una partida nivel campeonato mundial.
  • En 2015 un software de filtrado de contenidos para adultos obvia eliminar contenidos inapropiados y expone a menores a contenidos violentos y sexuales.

La lista sigue y sigue. Para el profesor Yampolskiyi, citado anteriormente, es inevitable que un sistema diseñado para hacer una cosa en un momento dado deje de hacerla y produzca un resultado erróneo. Las empresas pueden reducir los fallos de la inteligencia artificial aplicando medidas como:

  • El control de la información que los usuarios pueden introducir en el sistema y limitar el aprendizaje de este a los datos verificados.
  • Buscar de forma exhaustiva sesgos raciales, de género, de edad y otros tipos habituales en los algoritmos.
  • Analizar de manera explícita cómo podría fallar el software para crear un mecanismo de seguridad para cada problema potencial.
  • Disponer de una versión del producto o servicio “menos inteligente”.
  • Desde la comunicación corporativa, establecer por adelantado un plan de comunicación y crisis para dirigirse a los medios de comunicación en caso de que se produzca cualquier tipo de fallo embarazoso.

Por otro lado, los autores Kartik Hosanagar y Apoorv Saxena prevén el fallo de la primera ola de inteligencia artificial por estar basada en una aproximación errónea por parte de las empresas (The First Wave of Corporate AI Is Doomed to Fail). A su juicio, es más importante introducir la IA en la cultura corporativa que implantar desarrollos rápidamente buscando el éxito espectacular a corto plazo.

El fracaso de una aplicación inteligente, o el hecho de que no ofrezca frutos inmediatos, puede poner en peligro la inversión interna de la empresa en este campo al no producirse resultados satisfactorios. Recomiendan por tanto combinar proyectos a corto plazo que ofrezcan beneficios visibles en temas o actividades concretas con otros a largo plazo de transformación extremo a extremo de los procesos.

Deja un comentario

Tu dirección de correo electrónico no será publicada.