Microsoft se suma así a una tendencia cada vez más generalizada en el sector que ha llevado a diversos gigantes tecnológicos como Apple o Google a desarrollar su propio hardware específico para inteligencia artificial, con el fin de mejorar el rendimiento de estas tecnologías.
Google ha desarrollado sus Tensor Processing Units (TPU), unos procesadores ASIC diseñado específicamente para acelerar el entrenamiento y ejecución de los modelos de aprendizaje automático y Apple ha desvelado estar trabajando en unos procesadores específicos para la gestión de tareas de IA en dispositivos móviles, apodados de momento, a nivel interno, Apple Neural Engine.
El nuevo sistema de hardware dedicado de Microsoft, desarrollado como parte del Proyecto Brainwave, permitirá servir modelos de aprendizaje profundo a gran velocidad y con latencia ultra baja, ofreciendo, a los desarrolladores, mejores rendimientos que con las ya conocidas GPU.
La presentación se llevó a cabo en el congreso Hot Chips 2017 celebrado en Cupertino, California, del 20 al 22 de agosto de 2017.
En ella, los asistentes pudieron ver un modelo GRU (Gated Recurrent Unit) ejecutándose sobre un procesador Stratix 10 FPGA (Field Programmable Gate Array) de 14 nm de Intel a una velocidad de 39,5 teraflops y sin ninguna operación por lotes, al procesar cada solicitud en un milisegundo.
El motivo de que no haya operaciones por lotes es que el nuevo hardware de Microsoft es capaz de gestionar todas las solicitudes a medida que van entrando, proporcionando, a los sistemas de aprendizaje automático, información en tiempo real.
Según Doug Burger, ingeniero de Microsoft, el procesamiento en tiempo real en los sistemas de IA “se está volviendo cada vez más importante, a medida que las infraestructuras en la nube procesan flujos de datos en vivo, ya sean consultas de búsqueda, vídeos, flujos de información procedentes de sensores o interacciones con usuarios.
En este sentido, “el Proyecto Brainwave supone un gran salto adelante, tanto en rendimiento como en flexibilidad, para la utilización de modelos de aprendizaje profundo basados en la nube”.
El sistema del Proyecto Brainwave consta de tres capas principales:
- Una arquitectura de sistema distribuido de alto rendimiento.
- Un motor de red neuronal profunda (Deep Neural Network o DNN) de hardware sintetizado sobre infraestructuras FPGA.
- Y un compilador y tiempo de ejecución para el despliegue con baja fricción de modelos entrenados.
A diferencia de los sistemas desarrollados anteriormente por otra empresas, el de Microsoft es capaz de gestionar modelos complejos con importantes necesidades de memoria, como los LSTM (Long Short Term Memory), sin utilizar operaciones por lotes, señala Burner.
A continuación, se puede ver la presentación del Proyecto Brainwave, realizada en Hot Chips 2017:
El modelo GRU utilizado por Microsoft para probar su sistema es varias veces mayor que las redes neuronales convolucionales (CNN) como Alexnet o Resnet-50, utilizadas por otras compañías para probar sus sistemas de hardware. Aún así, el sistema del Proyecto Brainwave pudo ejecutarlo sin operaciones por lotes y con un rendimiento récord.
Además, según Burner, el equipo de investigación espera lograr mejoras todavía más importantes en el rendimiento del sistema, a medida que vayan realizando algunos ajustes.
“Estamos trabajando para llevar este poderoso sistema de IA en tiempo real a los usuarios de Azure, para que nuestros clientes puedan beneficiarse directamente del Proyecto Brainwave”, señaló Burner.
“Con el sistema Brainwave incorporado a escala y disponible para nuestros clientes, Microsoft Azure dispondrá de capacidades de IA en tiempo real líderes en el sector”.
Fuente: Microsoft
Seguir leyendo:
- Informe de McKinsey: urge que las empresas adopten la IA si no quieren quedarse atrás
- Google Brain: nuevas vías metodológicas para el desarrollo de la IA
- Kurzweil: la IA será inteligente en 2029 y nos fusionaremos con ella en 2045
- Detección más temprana del melanoma con inteligencia artificial