CBS News ha revelado que ChatGPT proporcionó respuestas incorrectas o incompletas a preguntas sobre cómo votar en estados clave de las próximas elecciones presidenciales de Estados Unidos. Este hallazgo subraya los desafíos y riesgos de depender de modelos de lenguaje para obtener información precisa en contextos críticos como las elecciones.

Problemas detectados en las respuestas de ChatGPT

CBS News realizó una serie de preguntas prácticas que un votante podría tener, como los plazos para enviar votos por correo y otros requisitos de votación en los estados de Carolina del Norte, Pensilvania, Wisconsin y Michigan. Aunque ChatGPT proporcionó algunas respuestas correctas, también cometió errores significativos:

  • Carolina del Norte: ChatGPT afirmó incorrectamente que los votos por correo debían ser matasellados el día de las elecciones y recibidos hasta tres días después. La respuesta correcta es que deben ser recibidos antes de las 7:30 p.m. del día de las elecciones.
  • Pensilvania: Inicialmente, ChatGPT dijo que los votos por correo debían ser matasellados el día de las elecciones y recibidos antes de las 5:00 p.m. del viernes siguiente. La respuesta correcta es que deben ser recibidos antes de las 8:00 p.m. del día de las elecciones.
  • Wisconsin: No mencionó la necesidad de que un testigo firme el voto ausente, un requisito crucial.
  • Michigan: Indicó incorrectamente que la votación anticipada solo se podía realizar mediante votación ausente en persona, omitiendo la disponibilidad de votación anticipada en persona por al menos nueve días consecutivos antes del día de las elecciones.

Un portavoz de la empresa matriz de ChatGPT, OpenAI, dijo: “Evitar que la inteligencia artificial se utilice para interferir en las elecciones de este año es una prioridad para OpenAI. Prohibimos el uso de nuestras herramientas para hacer campaña y hemos incorporado medidas de seguridad a nuestros productos, como rechazar solicitudes para generar imágenes de personas reales, incluidos candidatos políticos. También hemos desarrollado asociaciones para garantizar que las personas que utilizan ChatGPT para obtener información sobre el voto sean dirigidas a fuentes fidedignas. Seguimos de cerca el uso que se hace de nuestra tecnología en el contexto electoral y continuamos desarrollando nuestro enfoque.”.

A pesar de todo, estos errores demuestran las limitaciones de ChatGPT a la hora proporcionar información precisa sobre procesos electorales. Si bien, como afirma su portavoz, OpenAI ha implementado medidas para dirigir a los usuarios a fuentes autorizadas como CanIVote.org, el chatbot no siempre hace esto, y a día de hoy sigue proporcionando respuestas incorrectas a las cuestiones planteadas por CBS News.

Impacto y riesgos de la desinformación

La desinformación en temas electorales no solo puede confundir a los votantes, sino que también puede afectar la participación y la confianza en el proceso democrático, algo que ya ocurrió con el escándalo de Cambridge Analytica, cuando la consultora británica recopiló datos de millones de personas usuarias de Facebook para utilizarlos como herramienta de asistencia analítica en las campañas de Ted Cruz y Donald en las elecciones presidenciales de 2016. Henry Ajder, experto en IA y deepfakes, expresó su preocupación por el uso potencial de modelos de lenguaje como ChatGPT para amplificar narrativas falsas en redes sociales, lo que podría manipular la opinión pública y en última instancia el resultado electoral.

A diferencia de ChatGPT, los chatbots de Microsoft y Google, Copilot y Gemini, no proporcionaron respuestas a las preguntas electorales, indicando que aún están aprendiendo o redirigiendo las consultas a motores de búsqueda, algo que refleja una estrategia más cautelosa frente a los riesgos de desinformación.

NOTICIAS RELACIONADAS