Propuesta para alinear los sesgos de la IA con los usuarios

Dan Hendrycks, asesor de xAI y director del Center for AI Safety, ha desarrollado un nuevo método para medir y manipular los sesgos en modelos de IA. Su técnica utiliza procesos democráticos, como resultados electorales, para alinear las opiniones de la IA con las de los usuarios. Hendrycks argumenta que los modelos más grandes tienen preferencias más arraigadas y propone modificar sus funciones de utilidad para acercarlas a valores específicos, ejemplificando con figuras políticas como Donald Trump. Esta investigación plantea tanto oportunidades como desafíos éticos en la alineación de los modelos de IA con valores humanos y perspectivas políticas.

Fuente: Wired.com

Controversia en el Reino Unido sobre cambios en la ley de derechos de autor para empresas de IA

El Reino Unido estudia una reforma en la legislación de derechos de autor para permitir que las empresas de IA utilicen obras protegidas en el entrenamiento de algoritmos. La propuesta busca un equilibrio, exigiendo transparencia y permitiendo a los creadores optar por no participar. Sin embargo, figuras como Lady Beeban Kidron consideran que la consulta favorece a las grandes tecnológicas en detrimento de la industria creativa. Activistas exigen mayor responsabilidad y transparencia, mientras el Parlamento británico se prepara para la segunda lectura del proyecto de ley de datos, crucial para el futuro de esta regulación.

Fuente: TheGuardian.com

Thomson Reuters gana el primer gran caso de derechos de autor de IA en Estados Unidos

Un tribunal estadounidense ha fallado a favor de Thomson Reuters en su demanda contra Ross Intelligence, una startup de IA legal. El caso, iniciado en 2020, giraba en torno al uso indebido de material de Westlaw por parte de Ross. La decisión judicial destaca el valor de mercado del contenido original y podría influir en futuros litigios sobre el uso justo en IA. Aunque Ross Intelligence cesó operaciones en 2021, empresas como OpenAI y Google enfrentan litigios similares, lo que podría dificultar la defensa del uso justo en el desarrollo de modelos de IA.

Fuente: Wired.com

Universidades del Reino Unido enfrentan candidatos que utilizan deepfakes en entrevistas automatizadas

Algunas universidades británicas han detectado el uso de tecnología deepfake por parte de candidatos internacionales en entrevistas automatizadas. Enroly, una plataforma de software utilizada en el proceso de admisión, ha identificado intentos de fraude en los que los aspirantes manipulaban su imagen y voz para mejorar su desempeño o para que otra persona respondiera en su lugar. Aunque los casos siguen siendo escasos (30 de 20,000 entrevistas), la plataforma considera que este tipo de fraude podría convertirse en una amenaza mayor en el futuro. Las universidades deben reforzar sus medidas de seguridad, ya que el Home Office británico podría revocar su licencia de patrocinio si el fraude alcanza ciertos niveles.

Fuente: TheGuardian.com

Estados Unidos y Reino Unido se niegan a firmar la declaración de la cumbre de París sobre IA inclusiva

Durante una cumbre en París, Estados Unidos y Reino Unido se han negado a firmar una declaración internacional sobre el desarrollo de una inteligencia artificial inclusiva y sostenible. El documento buscaba comprometer a los países a garantizar que la IA beneficie a toda la humanidad y respete los derechos humanos. La negativa de estas dos potencias tecnológicas pone de manifiesto las dificultades para alcanzar un consenso global en la regulación de la IA y subraya las diferencias en las estrategias nacionales de gobernanza tecnológica.

Fuente: TheGuardian.com

NOTICIAS RELACIONADAS: