Deep Learning: qué es y por qué va a ser una tecnología clave en el futuro de la inteligencia artificial

Deep Learning: qué es y por qué va a ser una tecnología clave en el futuro de la inteligencia artificial

Desde los años 50 del siglo pasado y hasta hace muy pocos años el terreno habitual de la Inteligencia Artificial (IA) avanzada era mayoritariamente el laboratorio de investigación y la ciencia ficción.
10 April 2017

A excepción de casos contados, la práctica totalidad de sistemas con una inteligencia similar a la humana han aparecido en películas futurísticas u obras como las de Isaac Asimov. Sin embargo, este panorama está cambiando radicalmente en los últimos años.

El gran impulso tecnológico al que solemos referirnos bajo el término Big Data ha revolucionado el entorno empresarial. Las organizaciones sometidas a la necesidad de la transformación digital se han convertido en criaturas sedientas de cantidades ingentes de datos; y por primera vez en la historia de la IA existe una demanda generalizada de sistemas con una inteligencia avanzada, equivalente a la de un humano, que sean capaces de procesar esos datos. Esto está ocurriendo en prácticamente todos los sectores, pues es rara la actividad empresarial o de la administración pública que no se pueda beneficiar de un análisis inteligente y automatizado de los datos.

Vivimos un momento histórico, no porque las organizaciones quieran incorporar algo radicalmente nuevo, sino porque ahora son conscientes de que existe tecnología capaz de procesar todos los datos de los que disponen, hacerlo en escalas de tiempo inferiores a las humanas e incluso proporcionar la inteligencia necesaria.

Podríamos decir que el Big Data ha sido simplemente la primera ola y el gran tsunami está a punto de llegar. Las nuevas arquitecturas Big Data han aparecido de la mano de las grandes compañías de Internet, organizaciones nativas digitales y completamente conectadas desde su concepción. En la actualidad estamos viendo como el Big Data prolifera rápidamente para abarcar todas las organizaciones y todos los sectores, pues en un ecosistema digital y global las compañías que no son nativas digitales también necesitan convertirse en devoradoras de datos.

Machine Learning, el aprendizaje automático

Una de las claves de la IA avanzada está en el aprendizaje. Es cada vez más habitual que les pidamos a las máquinas que aprendan por sí solas. No podemos permitirnos el lujo de pre-programar reglas para lidiar con las infinitas combinaciones de datos de entrada y situaciones que aparecen en el mundo real.

En vez de hacer eso, necesitamos que las máquinas sean capaces de auto-programarse, en otras palabras, queremos máquinas que aprendan de su propia experiencia. La disciplina del Aprendizaje Automático (Machine Learning) se ocupa de este reto y gracias a la tormenta perfecta en la que nos acabamos de adentrar todos los gigantes de Internet han entrado de lleno en el mundo del aprendizaje automático, ofreciendo servicios en la nube para construir aplicaciones que aprenden a partir de los datos que ingieren.

Hoy en día el aprendizaje automático está más que nunca al alcance de cualquier programador. Para experimentar con estos servicios tenemos plataformas como IBM Watson Developer CloudAmazon Machine LearningAzure Machine LearningTensorFlow o BigML.

Entender los algoritmos de aprendizaje es fácil si nos fijamos en cómo aprendemos nosotros mismos desde niños. El aprendizaje por refuerzo engloba un grupo de técnicas de aprendizaje automático que a menudo usamos en los sistemas artificiales. En estos sistemas, al igual que en los niños, las conductas que se premian tienden a aumentar su probabilidad de ocurrencia, mientras que las conductas que se castigan tienden a desaparecer.

Este tipo de enfoques se denominan aprendizaje supervisado, pues requiere de la intervención de los humanos para indicar qué está bien y qué está mal (es decir, para proporcional el refuerzo). En muchas otras aplicaciones de la computación cognitiva los humanos, aparte del refuerzo, también proporcionan parte de la semántica necesaria para que los algoritmos aprendan. Por ejemplo, en el caso de un software que debe aprender a diferenciar los diferentes tipos de documentos que recibe una oficina, son los humanos los que inicialmente han de etiquetar un conjunto significativo de ejemplos para que posteriormente la máquina pueda aprender.

Es decir, los humanos son lo que inicialmente saben realmente si un documento es una queja, una instancia, una reclamación, una solicitud de registro, una petición de cambio, etc. Una vez que los algoritmos cuentan con un conjunto de entrenamiento proporcionado por los humanos, entonces son capaces de generalizar y empezar a clasificar documentos de forma automática sin intervención humana.

En la actualidad son estas restricciones o limitaciones de entrenamiento de los algoritmos las que en buena medida limitan su potencia, pues se requieren buenos conjuntos de datos de entrenamiento (a menudo, etiquetados de forma manual por humanos) para que los algoritmos aprendan de forma efectiva. En el ámbito de la visión artificial, para que los algoritmos aprendan a detectar objetos en las imágenes de forma automática han de entrenarse previamente con un buen conjunto de imágenes etiquetadas, como por ejemplo Microsoft COCO.

Deep Learning: la aproximación a la percepción humana

Posiblemente el futuro del aprendizaje automático pase por un giro hacia el aprendizaje no supervisado. En este paradigma los algoritmos son capaces de aprender sin intervención humana previa, sacando ellos mismos las conclusiones acerca de la semántica embebida en los datos. Ya existen compañías que se centran completamente en enfoques de aprendizaje automático no supervisado, como Loop AI Labs, cuya plataforma cognitiva es capaz de procesar millones de documentos no estructurados y construir de forma autónoma representaciones estructuradas.

La disciplina del aprendizaje automático está en plena ebullición gracias a su aplicación en el mundo del Big Data y el IoT. No dejan de aparecer avances y mejoras de los algoritmos más tradicionales, desde los conjuntos de clasificadores (ensemble learning) hasta el Deep Learning, que está muy de moda en la actualidad por sus capacidad de acercarse cada vez más a la potencia perceptiva humana.

Posiblemente el futuro del aprendizaje automático pase por un giro hacia el aprendizaje no supervisado

En el enfoque Deep Learning se usan estructuras lógicas que se asemejan en mayor medida a la organización del sistema nervioso de los mamíferos, teniendo capas de unidades de proceso (neuronas artificiales) que se especializan en detectar determinadas características existentes en los objetos percibidos. La visión artificial es una de las áreas donde el Deep Learning proporciona una mejora considerable en comparación con algoritmos más tradicionales. Existen varios entornos y bibliotecas de código de Deep Learning que se ejecutan en las potentes GPUs modernas tipo CUDA, como por ejemplo NVIDIA cuDNN.

El Deep Learning representa un acercamiento más íntimo al modo de funcionamiento del sistema nervioso humano. Nuestro encéfalo tiene una microarquitectura de gran complejidad, en la que se han descubierto núcleos y áreas diferenciados cuyas redes de neuronas están especializadas para realizar tareas específicas.

Gracias a la neurociencia, el estudio de casos clínicos de daño cerebral sobrevenido y los avances en diagnóstico por imagen sabemos por ejemplo que hay centros específicos del lenguaje (como las áreas de Broca o Wernicke), o que existen redes especializadas en detectar diferentes aspectos de la visión, como los bordes, la inclinación de las líneas, la simetría e incluso áreas íntimamente relacionadas con el reconocimiento de rostros y la expresión emocional de los mismos (el giro fusiforme en colaboración con la amígdala).

Los modelos computacionales de Deep Learning imitan estas características arquitecturales del sistema nervioso, permitiendo que dentro del sistema global haya redes de unidades de proceso que se especialicen en la detección de determinadas características ocultas en los datos. Este enfoque ha permitido mejores resultados en tareas de percepción computacional, si las comparamos con las redes monolíticas de neuronas artificiales.

Hasta ahora hemos visto que la computación cognitiva se basa en la integración de procesos psicológicos típicamente humanos como el aprendizaje o el lenguaje. En los próximos años veremos como los sistemas cognitivos artificiales se expanden en múltiples aplicaciones en el ecosistema digital.

Además, veremos como el aprendizaje y el lenguaje empiezan a integrarse con más funciones psicológicas como la memoria semántica, el razonamiento, la atención, la motivación y la emoción, de forma que los sistemas artificiales vayan acercándose más y más al nivel humano de inteligencia, o quizás, como ya se adelantaba en ConsScale (una escala para medir el desarrollo cognitivo), las máquinas puedan alcanzar niveles superiores a los humanos.

¿Qué opinas de este artículo?