Seleccionar página

Investigadores de la Universidad de Massachusetts Amherst y Stanford afirman que han desarrollado un marco algorítmico que garantiza que la IA «no se portará mal».

Según la investigación «Preventing undesirable behavior of intelligent machines«, de Philip S. Thomas, Bruno Castro da Silva, Andrew G. Barto, Stephen Giguere, Yuriy Brun y Emma Brunskill, publicada en la revista Science, la arquitectura seldoniana denominada así por el protagonista de la serie «Fundación» de Isaac Asimov) permite a los desarrolladores definir sus propias condiciones de funcionamiento para evitar que los sistemas crucen ciertos umbrales durante el entrenamiento o la optimización. En esencia, esto debería permitir a los desarrolladores evitar que los sistemas de IA perjudiquen o discriminen a los humanos.

https://science.sciencemag.org/content/366/6468/999

Los algoritmos de aprendizaje automático se están utilizando en un número cada vez mayor de aplicaciones, y muchas de estas aplicaciones afectan la calidad de vida. Sin embargo, tales algoritmos a menudo exhiben un comportamiento indeseable, desde varios tipos de sesgos hasta causar pérdidas financieras o retrasar los diagnósticos médicos. En los enfoques estándar de aprendizaje automático, la carga de evitar este comportamiento dañino recae en el usuario del algoritmo, que a menudo no es un informático. Thomas y col. Introducir un marco general para el diseño de algoritmos en el que esta carga se traslada del usuario al diseñador del algoritmo. Los investigadores ilustran los beneficios de su enfoque utilizando ejemplos de equidad de género y manejo de la diabetes.

Resumen de la Investigación en la Revista Science: https://science.sciencemag.org/content/366/6468/999

Las implicaciones para la tecnología a corto plazo, como los automóviles sin conductor y los trabajadores autónomos de robots, son enormes, esto es esencialmente la base para las «Leyes de la robótica» de Asimov. Si los desarrolladores pueden garantizar que las máquinas de aprendizaje no detectarán comportamientos peligrosos o decidirán de repente optimizar Su programación de maneras que implican herir o encarcelar a los humanos, podríamos estar al borde de una edad de oro de la IA.

Ver también: