9 de los más importantes avances en aprendizaje profundo del 2017

2017 ha sido un buen año para la IA, el aprendizaje automático y en especial la rama del aprendizaje profundo dieron muchos de los avances que más han impactado durante el 2017, desde ganadores de juegos hasta arte que compite con la de los humanos.

Los avances en el aprendizaje profundo más importantes del 2017

  1. AlphaZero de DeepMind logró ganar a los campeones de Go, ajedrez y shogy.
    Después de ganar al campeón mundial de Go, AlphaGo un año después, fue actualizada y reconvertida en AlphaZero, que logró sin supervisión humana, solo con las reglas de básicas del juego, aprender a jugar ajedrez como un experto en solo 4 horas; y lo demostró ganando a la IA Stockfish, hasta ese momento mejor jugador de ajedrez basado en IA.
  2. Universe openAI recibió el respaldo de grandes socios
    Universe es una plataforma gratuita donde los desarrolladores pueden entrenar a un agente de inteligencia artificial mediante el aprendizaje por refuerzo en diferentes entornos como sitios web, aplicaciones y juegos. Lanzada en diciembre de 2016, la plataforma ganó fuerza en 2017, atrayendo a socios como EA, Valve y Microsoft Studios aprovechando la oportunidad de que los agentes de IA de Universe naveguen y aprendan de sus juegos.
  3. Sonnet y Tensorflow Eager se unen a los sistemas de código abierto
    Después de que Google lanzara en 2015 su biblioteca de aprendizaje automático de código abierto Tensorflow le siguió Magenta (proyecto de investigación que explora el papel del aprendizaje automático en el proceso de creación de arte y música) también de Google. Facebook AI lanzó un año después PyThorch, una plataforma de aprendizaje profundo python que soporta gráficos de computación dinámica. En 2016 Google también presentó de Tensorflow Eager. En 2017 y a través de su filiar DeepMind, Google lanzó Sonnet, un sistema de código abierto que facilita a los desarrolladores la construcción de módulos de redes neuronales.
  4. Facebook y Microsoft unieron fuerzas para habilitar sistemas de IA combinables
    Los gigante tecnológicos crearon ONNX (formato abierto para representar modelos de aprendizaje profundo) que permite que los modelos se entrenen en un sistema y sean transferidos a otro por inferencia.
  5. UNITY permitió a los desarrolladores crear facilmente agentes inteligentes en juegos
    Una de las principales empresas desarrolladoras de juegos del mundo Unity Technologies creó Unity Machine Learning Agents. Una plataforma que permite a desarrolladores e investigadores de IA usar las simulaciones y juegos como entornos personalizables donde pueden entrenar a agentes inteligentes utilizando estrategias evolutivas, aprendizaje profundo y por refuerzo, entre otros.
  6. Las plataformas de aprendizaje automático como servicio aparecen por todas partes
    Cada vez más empresas se han unido a la carrera para construir plataformas internas de aprendizaje automático y centros de excelencia en aprendizaje profundo. Uber tiene Michelangelo, Facebook tiene FBLearner Flow, Twitter tiene Cortex. Capital One y otras compañías con visión de futuro fuera del entorno tecnológico central también han establecido su propio centro de excelencia en aprendizaje automático.
    Amazon, Microsoft, IBM y Google decidieron abrir sus API´s para intentar democratizar el uso de la IA y compartirla con empresas que no tienen el talento ni la capacidad de crear las propias.
  7. La variedad GAN continuó
    En enero de 2017, un equipo de investigadores de IA publicó un documento sobre las Wasserstein GAN (WGAN), una mejora sustancial de la tradicional GAN ​​(red adversa generativa por sus siglas en inglés). Lo que hizo florecer una gran cantidad de nuevas GAN, desde BEGAN hasta CycleGan y la GAN progresiva a la que se unió también entrenamiento progresivo de las GAN, este último enfoque fue el que permitió a Nvidia generar fotografías  falsas de alta resolución de celebridades.
  8. La recurrencia y la convolución no son necesarias si se tiene atención.
    Las tareas de procesamiento del lenguaje natural como el reconocimiento de voz y la traducción automática se han abordado históricamente con arquitecturas de redes neuronales con componentes de memoria, como LSTM . Un artículo innovador, “La atención es lo único que necesitas”, propuso un nuevo modelo, el Transformer, que prescinde de los aspectos costosos como recurrencia y convolución para lograr un rendimiento de última generación en tareas de traducción automática, al menos para inglés y alemán. Aunque se necesita más investigación para ver si la arquitectura de Transformer se mantiene en todos los casos de uso, la publicación generó toneladas de comentarios en la comunidad y se clasificó como la 4º publicación más popular de todos los tiempos en Arxiv (Archivo en línea propiedad de la Universidad de Cornell)
  9. AutoML simplificó la vida a los científicos de datos y a los ingenieros de aprendizaje automático.
    La mayoría de los desarrolladores suelen encontrar el aprendizaje automático mucho más “difícil”, ya que el proceso de crear y entrenar modelos (y luego implementarlos en la producción) es demasiado complicado y lento.
    Las plataformas que automatizan el procesamiento de grandes cantidades de datos de las fuentes para entrenar el aprendizaje automático, que van desde la limpieza y preparación de los datos, hasta la búsqueda y optimización de parámetros del modelo, hasta la implementación y el escalado, han ayudado a que la parte “difícil” del aprendizaje automático sea un problema menos para estos profesionales. Con plataformas como AutoML de Google, SageMaker de Amazon o DataRobot estas tareas se han agilizado enormemente.

Fuente: Topbots

Seguir leyendo:

X

Añadir Comentario