El Frontier Model Forum, una iniciativa impulsada por Google, Microsoft, OpenAI y Athropic para apoyar a investigadores independientes que desarrollen herramientas para valorar y probar los modelos de IA más potentes, como GPT-4 y ChatGPT, ha anunciado la creación de un fondo de 10 millones de dólares para respaldar la investigación de herramientas destinadas a evaluar estos modelos. Sin embargo, este anuncio no está exento de escepticismo y críticas.
Si bien el anuncio del bautizado como AI Safety Fund es presentado como un avance importante, es importante examinar sus limitaciones y desafíos.
En primer lugar, la fuente de financiamiento inicial proviene de grandes corporaciones tecnológicas como Anthropic, Google, Microsoft y OpenAI, así como de individuos adinerados como Eric Schmidt y Jaan Tallinn. Este financiamiento plantea interrogantes sobre la independencia y objetividad de la investigación que se llevará a cabo, ya que existe la preocupación legítima de que los intereses comerciales puedan influir en los resultados de la investigación.
Además, aunque el Frontier Model Forum menciona la posibilidad de recibir contribuciones adicionales de otros socios, no proporciona detalles concretos sobre cómo se evitarán los posibles conflictos de interés y cómo se garantizará la imparcialidad en la selección de proyectos de investigación.
Otra preocupación radica en la falta de transparencia en la composición del comité asesor que supervisará el Fondo. El comunicado menciona que estará compuesto por “expertos externos independientes, expertos de empresas de IA y personas con experiencia en concesión de subvenciones”, pero no especifica quiénes son estos expertos ni cómo se evitarán posibles sesgos en la toma de decisiones.
En resumen, la creación del AI Safety Fund por parte del Frontier Model Forum es un paso en la dirección correcta para abordar los desafíos de seguridad de la IA de vanguardia. Sin embargo, es necesario abordar con mayor claridad y transparencia las preocupaciones sobre la influencia de los patrocinadores corporativos y la imparcialidad en la investigación. Además, es fundamental considerar si la inversión inicial de 10 millones de dólares (hay quien lo ha calificado de “migajas” teniendo en cuenta quién está detrás del Fondo) será suficiente para abordar eficazmente los desafíos planteados por la IA avanzada.
“Esperamos contribuciones adicionales de otros socios“, reza el comunicado de prensa publicado por el Frontier Model Forum en varios blogs oficiales. “El objetivo principal del fondo será apoyar el desarrollo de nuevas evaluaciones y técnicas de modelos (…) para ayudar a desarrollar y probar técnicas de evaluación de las capacidades potencialmente peligrosas de los sistemas de vanguardia”.