Nuevos diseños de computación no convencional para mejorar la eficiencia energética en la inteligencia artificial

La tesis doctoral de Alejandro Morán Costoya propone diferentes diseños de redes neuronales que reducen el consumo energético 

En los últimos años, la demanda cada vez mayor de capacidad de computación ha ido acompañada de la exigencia de un menor consumo energético, sobre todo para la implementación de mecanismos de inteligencia artificial, tanto en grandes servidores informáticos como en los dispositivos más pequeños. Es por ello que vale la pena explorar paradigmas de computación alternativos, con los que es posible seguir aumentando la capacidad de cómputo y reducir el consumo sin requerir una nueva tecnología para la implementación de chips integrados.

Hoy en día, la mayoría de dispositivos digitales se basan en el diseño del llamado sistema en un chip (system on chip, SoC), que consiste en un entramado de bloques con funcionalidades específicas conectados entre sí por buses de datos. Si bien algunos de estos bloques deben ser destinados a implementar protocolos de comunicación y otros pueden ser memorias, microcontroladores o microprocesadores, también puede haber bloques destinados a acelerar tareas específicas. Estos últimos no están necesariamente basados en una arquitectura estándar y pueden ser utilizados para implementar inteligencia artificial de manera eficiente, que es el tema principal de la tesis de Alejandro Morán Costoya, defendida en la Universidad de las Illes Balears.

Si bien es cierto que este tipo de tareas pueden ser llevadas a cabo por un microcontrolador o microprocesador, cabe destacar que su consumo energético sería más elevado. Esto se debe a que cada instrucción ejecutada por el mismo pasa por una serie de etapas (lectura, decodificación, ejecución, acceso a memoria y escritura de registros) que pueden ser evitadas en una implementación óptima. En cambio, se exploran diseños digitales basados en paradigmas de computación no convencional. Aunque el término «computación no convencional» puede referirse al hecho de realizar cálculos en sistemas físicos, químicos o biológicos, no es el caso de este trabajo, que se limita a la implementación de circuitos digitales. En cambio, los diseños propuestos sí que se basan en paradigmas de computación no convencionales en tres aspectos. En primer lugar, el uso de métodos de computación genéricos como el reservoir computing. En segundo lugar, el uso de métodos matemáticos aproximados como la computación estocástica para simplificar la implementación de operaciones aritméticas. En tercer y último lugar, el uso de arquitecturas no de Von Neumann, como es el caso de algunos diseños digitales implementados en paralelo para evitar cuellos de botella con la memoria.

En este sentido, la contribución de la tesis consiste en explorar diseños digitales específicos basados en paradigmas de computación no convencional, así como su implementación en placas de desarrollo de matriz de puertas programable in situ (FPGA, del inglés field programmable gate array), que son utilizadas para el prototipado de circuitos digitales. Para realizar dichas implementaciones, se utilizan lenguajes de descripción de hardware, que también nos permiten simular y verificar el circuito en cuestión antes de ser finalmente implementado. Para cada diseño propuesto, se han marcado tres objetivos comunes. Primero, el modelado numérico y el diseño digital eficiente y paralelo de redes neuronales y sistemas de reservoir computing. Segundo, el uso de algoritmos de cuantización para maximizar la ratio de acierto en la implementación de hardware. Tercero, la implementación de FPGA.

Los diseños propuestos son cuatro y se dividen en dos grupos. Los dos primeros son diseños basados en la aritmética lógica tradicional y ambos están relacionados con el paradigma del reservoir computing; uno de ellos es una red neuronal recurrente aplicada al reconocimiento de eventos de audio, y el otro se basa en el uso de autómatas celulares para la clasificación de imágenes en escala de grises. Los otros dos tienen que ver con la implementación en paralelo de redes neuronales artificiales de alimentación directa basadas en computación estocástica; uno de ellos es una red neuronal con activaciones de base radial, y el otro es una red neuronal convolucional, ambas aplicadas al reconocimiento de imágenes en escala de grises. En los cuatro casos se utiliza algún tipo de computación aproximada y simplificación en la arquitectura que permite incrementar drásticamente la cantidad de operaciones realizadas en paralelo, lo cual permite obtener mejoras en cuanto a la eficiencia energética sin que ello afecte significativamente el rendimiento del sistema.

Los resultados presentados en la tesis están directamente alineados con los objetivos preestablecidos. En cada caso, se muestran los detalles del diseño digital equivalente, se aplican los algoritmos de cuantización pertinentes para obtener los parámetros que definen cada modelo, y se realiza la implementación de FPGA. Si bien estos resultados ya son relevantes en cuanto a la descripción del diseño digital y el uso de métodos de entrenamiento orientados a la cuantización, cabe destacar los beneficios obtenidos en cuanto a la eficiencia energética, que pueden ser mejorados en, al menos, un orden de magnitud pasando del prototipo de FPGA a la fabricación de un chip integrado, lo que resulta viable puesto que ambos tipos de implementación comparten el uso de los mismos lenguajes de descripción de hardware.

Ficha de la tesis doctoral

  • Autor: Alejandro Morán Costoya
  • Título: Compact Machine Learning Systems with Reconfigurable Computing
  • Directores: José Luis Rosselló Sanz y Vicente José Canals Guinand
  • Programa de Doctorado  en Ingeniería Electrónica 

Fecha del evento: 15/02/2022

Fecha de publicación: 15/02/2022