¡Levántate y pelea, androide!

24 Julio 2017

Imagen Destacada
Cada vez son más las voces que se alzan avisando del peligro que supone para el ser humano el desarrollo de sistemas de inteligencia artificial cada vez más perfectos. Si a ello le sumamos la posibilidad de crear algoritmos deliberadamente diseñados para atacar y confundir a sistemas inteligentes, la capacidad para hacer daño crece de forma exponencial. Aunque suene pintoresco, una solución pasa por enseñar a los algoritmos a defenderse y pelear contra atacantes malintencionados. Y para ello ha sido creado una suerte de “club de la lucha” para sistemas de inteligencia artificial.

Pablo Rodríguez Canfranc

Después de que mismísimo Elon Musk, fundador de compañías como Tesla, Space X o Paypal, advirtiese dramáticamente sobre los peligros que entraña la inteligencia artificial en el encuentro de la National Governors Association que tuvo lugar el sábado 15 de julio en Nueva York, parece que la cosa es para tomársela en serio.

El conocido empresario sudafricano comparó el desarrollo de sistemas de inteligencia artificial con “invocar al demonio” y la definió como “el mayor riesgo al que nos enfrentamos como civilización”. A su juicio, es necesario crear una regulación proactiva antes de que sea demasiado tarde, aunque los legisladores no sabrán cómo reaccionar “hasta que la gente no vea a los robots matando personas por las calles”. Curiosa postura para alguien que se gana la vida innovando en campos que tienen a la inteligencia artificial como activo principal.

Musk no es el único que plantea profecías apocalípticas sobre las máquinas. El profesor de filosofía de la Universidad de Oxford Nick Bostrom defendía hace algún tiempo que, de todas las catástrofes a las que nos enfrentamos, la inteligencia artificial es una de las mayores amenazas para la supervivencia de las vida inteligente en la Tierra, por encima del cambio climático y de la guerra nuclear.

Las máquinas inteligentes que aprenden se pueden diseñar para ayudar a las personas, para hacernos la vida más fácil, pero también pueden ser utilizadas para cometer cibercrímenes. Incluso los algoritmos más sofisticados pueden ser engañados. Por ejemplo, un filtro antispam puede ser evitado si se descubren los patrones que utiliza para clasificar el correo electrónico como no deseado. También algoritmos basados en redes neuronales profundas destinados a identificar objetos al reconocerlos en imágenes pueden ser fácilmente confundidos.

Los expertos advierten que tanto los hackers y la ciberseguridad se dirigen hacia la senda de la inteligencia artificial. El investigador de Google Brain Ian Goodfellow lo tiene claro: “los malos utilizaran las máquinas que aprenden (machine learning) para automatizar sus ataques y nosotros utilizaremos el machine learning para defendernos”.

Las posibilidades de delinquir engañando a los sistemas inteligentes son infinitas, desde suplantar la personalidad troleando a los sistemas de reconocimiento facial o de voz, hasta desorientar y confundir a los sensores de los coches autónomos para causar un accidente.

Ante este panorama alarmante, existe una línea de la ciberseguridad que se encarga de entrenar a los algoritmos para defenderse de los ciberataques de los sistemas adversos que intentan engañarles. En suma, les enseñan a pelear.

La plataforma para las competiciones científicas Kaggle ha organizado una curiosa competición que durará varios meses en la que los algoritmos “combaten” entre sí, como si estuviesen subidos en un ring de boxeo (Competition on Adversarial Attacks and Defenses). El objeto de cada uno de los sistemas inteligentes participantes es intentar engañar a los otros y/o defenderse de ataques. De esta forma los investigadores que hay detrás del proyecto pueden analizar su grado de resistencia ante posibles ciberataques y poder fortalecerles en consecuencia.

Por una parte, se trata de descubrir cómo engañar a una red neuronal y por otra cómo construir redes neuronales que no se dejen engañar.

La competición tiene tres categorías, por así decirlo:

  • Ataque de adversario sin objetivo (Non-targeted Adversarial Attack). La meta de este ataque consiste en modificar levemente una imagen para conseguir que un sistema inteligente la clasifique incorrectamente.
  • Ataque de adversario con objetivo (Targeted Adversarial Attack). En este caso la modificación de una imagen persigue que la inteligencia artificial la clasifique incorrectamente como algo concreto previamente definido.
  • Defensa ante ataque de adversario (Defense Against Adversarial Attack). Construir un clasificador inteligente que sea inmune a los ataques adversos.

Kaggle, que es parte de Google Cloud, supone un valioso campo de experimentación en inteligencia artificial. Además, sus responsables consideran que la difusión de este “club de la lucha de algoritmos” puede atraer la atención pública sobre los riesgos asociados a las máquinas inteligentes en un momento en que su presencia se va haciendo cada vez más visible en muchos ámbitos de la sociedad.

photo credit: hey skinny robotboxing via photopin (license)

Deja un comentario

Tu dirección de correo electrónico no será publicada.