Las máquinas que aprenden ya están entre nosotros

08 mayo 2017

Imagen Destacada
A menudo hablamos de las máquinas que aprenden solas en tiempo futuro, como algo que todavía está por llegar. Sin embargo, tanto el machine learning o aprendizaje automático, como el deep learning o aprendizaje profundo, ya forman parte de aplicaciones y servicios que usamos de forma cotidiana.

Pablo Rodríguez Canfranc

Uno de los hitos en el desarrollo de la Inteligencia Artificial (AI en sus siglas en inglés) fue el comprender que resulta más eficiente enseñar a las máquinas “a pensar como humanos” que tener que programarlas para realizar todas las tareas. Y el mundo de las redes y el Big Data suministran en ingentes cantidades el alimento de información que necesitan los sistemas inteligentes para aprender.

La creación de redes neuronales ha permitido generar sistemas que imitan el funcionamiento del cerebro en la forma en que este clasifica la información recibida, por ejemplo, identificando objetos en función de los rasgos que contienen. Se trata de máquinas que realizan sus diagnósticos o predicciones basándose en la probabilidad. Su forma de aprendizaje contempla la retroalimentación; en sucesivas vueltas reciben el grado de acierto de sus dictámenes y realizan las correcciones oportunas. Un sistema de prueba y error similar al que empleamos los humanos al realizar una tarea nueva.

Actualmente, al hablar de Inteligencia Artificial surge el concepto de aprendizaje profundo o deep learning que hace referencia a que las redes neuronales tienen una estructura basada en numerosas capas, en general más de 10, aunque se están probando algunas con más de 100.

Este tipo de sistemas inteligentes está siendo aplicado en áreas como el reconocimiento de imagen, el reconocimiento del habla y el reconocimiento de señales de audio o música.

Disponer de máquinas inteligentes que aprenden solas ya supera los límites de la ciencia ficción y podemos señalar una nutrida lista de servicios que utilizan hoy en día, aunque sea en parte, sistemas basados en el deep learning. Y algunos son muy familiares.

Una de las funciones más exitosas y utilizadas de Google es su traductor de idiomas. Desde aproximadamente noviembre de 2016, Google Translate está utilizando sistemas de deep learning y de reconocimiento de imágenes para traducir idiomas hablados o escritos. El algoritmo nuevo se conoce como arXiv y parece ser que ha conseguido reducir los errores de su predecesor en un 60%, según fuentes de la empresa.

La aplicación para móvil CamFind identifica objetos con sólo fotografiarlos y automáticamente ofrece al usuario todo tipo de información sobre el tema en cuestión. Por ejemplo, si sacamos una foto a un producto que vemos a nuestro alrededor, CamFind nos dirá los distintos sitios donde podemos adquirirlo comparando los precios.

Otros elementos cada vez más cotidianos en nuestras vidas, como son los asistentes personales, también se basan en las redes neuronales para ofrecer funciones basadas en el reconocimiento del lenguaje y el procesamiento de lenguajes naturales. Siri de Apple, Cortana de Microsoft o Alexa de Amazon, constituyen sistemas inteligentes que aprenden de su interacción con nosotros.

También aprenden a conocernos a través de sus relaciones con nosotros los servicios de búsqueda de Netflix, Amazon o Spotify. Analizando nuestro comportamiento y toda la información que reciben de nosotros son capaces de ofrecernos contenidos personalizados a la medida de nuestros gustos.

Volviendo al gigante Google, su producto PlaNet es capaz de identificar dónde fue tomada una fotografía. Según los desarrolladores del sistema, las fotos a menudo ofrecen pistas, como detalles del terreno, patrones meteorológicos, vegetación, carreteras o detalles arquitectónicos, que combinados pueden ayudar a determinar una localización. PlaNet trabaja con información sobre la superficie de la tierra, que está dividida en celdas geográficas, y el sistema ha memorizado millones de imágenes georreferenciadas. De esta forma, determinadas características que aparecen en una foto pueden llevarle a saber qué lugar físico refleja.

DeepStereo, es un sistema capaz de crear visitas virtuales a lugares físicos a partir de una serie de imágenes, calculando y rellenando los “vacíos digitales” con bastante precisión. En función de la información gráfica que posee, es capaz de predecir cómo es la totalidad de un espacio en tres dimensiones.

En el campo del sonido, DeepMind WaveNet puede  imitar cualquier voz humana haciendo que suene de una forma bastante natural, y en cualquier caso,  mejorando la calidad de los conversores texto voz actuales. También puede imitar otros sonidos, como por ejemplo, la música.

Finalmente, un viejo conocido en el campo del comercio electrónico en Internet, Paypal, también utiliza redes neuronales para reforzar la seguridad de las transacciones electrónicas. Los algoritmos estudian la información del historial de compras del cliente y la cruzan con los patrones de comportamiento fraudulento que guardan en sus bases de datos. Así pueden identificar operaciones que en principio pueden ser sospechosas.

Deja un comentario

Tu dirección de correo electrónico no será publicada.