El gigante mundial de software lanza su chatbot con la tecnología DialoGPT, el chatbot es un generador de texto de noticias de actualidad, el cual está entrenado con inteligencia artificial proporcionada por datos de Reddit.
Microsoft advierte que el hecho de que su chatbot auto-aprenda de los contenidos de Reddit, puede provocar que genere textos ofensivos e inapropiados, ya que se nutre de más de decenas de millones de contenidos muy diversos.
El plan de código abierto de DialoGPT, se basa en un avance en la IA basada en un lenguaje llamado GPT-2, otro programa aparte lanzado a principios de 2019 que puede generar copias aleatorias con un realismo nunca visto, y servir como base para otros programas de IA más personalizados como el chatbot de Microsoft.
Como uno de los primeros intentos de canalizar la tecnología impredecible del GPT-2 en un chatbot, este chatbot de Microsoft incluye una medida de prevención que requiere que los desarrolladores escriban su propio código para que se traduzcas los datos de salidas en textos legibles, ya que los textos son menos formales, a veces un poco troll y en general como muchas partes inservibles que solo hacen ruido.
Las respuestas que se pueden generar usando este modelo sin tomar algunas medidas de prevención alguna podrían ser ofensivas, mostrando expresiones no éticas e imparciales.
A pensar de este contra, algunos desarrolladores piensan que este modelo de aprendizaje podría potenciar los avances del aprendizaje automático, comprendiendo y produciendo lenguaje natural de la misma forma que los modelos análogos del reconocimiento de imágenes, que establecen un escenario de auge continuo en el ámbito de la IA.
Al igual que GPT-2 puede ser la columna vertebral de muchas herramientas de generación de texto, Microsoft invita a los desarrolladores a usar DialoGPT como base para dotar a sus chatbots de datos más personalizados.
“El combo consiste en una línea básica de código y varios modelos de conocimiento pre-entrenados que podrán ajustarse para tener un chatbot con un conjunto de datos personalizados de un tamaño medio en pocas horas, y a partir de ahí, continuar con el desarrollo”, afirman sus creadores.
Sin embargo, la mayoría de desarrolladores han empezado a usar este sistema con mucha precaución.
La organización de investigación Openai, creadores de GPT-2, inicialmente también se negó a lanzar la versión completa del software por temor de que se crearan noticias falsas en masa, finalmente ha accedido a lanzarla esta semana.
Microsoft ya fue penalizado por sus chatbots de Twitter en 2016, ya que Tay se dedicaba a lanzar tweets racistas y ofensivos en respuesta a las interacciones de sus usuarios.
Fuente: Addweek