Un estudio reciente publicado en Nature Human Behaviour revela que el modelo de lenguaje GPT-4, desarrollado por OpenAI, puede superar a los humanos en debates en línea, especialmente cuando dispone de información demográfica básica sobre su interlocutor.
Un estudio revelador sobre la capacidad persuasiva de la IA
Investigadores del Instituto Federal Suizo de Tecnología en Lausana (EPFL) y otras instituciones llevaron a cabo un experimento con 900 participantes en Estados Unidos. Cada uno fue emparejado aleatoriamente para debatir con otro humano o con GPT-4 sobre temas sociopolíticos como el uso de uniformes escolares, la prohibición de combustibles fósiles o el impacto de la IA en la sociedad.
El diseño experimental contempló 12 condiciones distintas, combinando variables como el tipo de oponente (humano o IA), el acceso a datos demográficos del interlocutor y la intensidad de la opinión sobre el tema debatido. Los resultados mostraron que, en condiciones donde ni la IA ni los humanos eran igualmente persuasivos, GPT-4 con acceso a información personal fue más convincente en el 64,4% de los casos. Esto representa un aumento relativo del 81,2% en la probabilidad de que los participantes cambiaran de opinión tras el debate, en comparación con debates entre humanos sin personalización.

La importancia de la personalización
El estudio destaca que incluso con información demográfica básica—como edad, género, nivel educativo y afiliación política—GPT-4 logró adaptar sus argumentos de manera más efectiva que los humanos. Sin acceso a estos datos, la capacidad persuasiva de GPT-4 se equiparó a la de los humanos, lo que subraya la relevancia de la personalización en la eficacia de la persuasión.
Además, se observó que los participantes tendían a estar más de acuerdo con los argumentos cuando sabían que debatían con una IA, lo que sugiere que la percepción del interlocutor también influye en la receptividad a los argumentos presentados.
Implicaciones éticas y sociales
Riesgos de la microsegmentación automatizada
La capacidad de GPT-4 para adaptar sus argumentos basándose en información personal plantea preocupaciones sobre su uso en campañas de desinformación, propaganda política o manipulación de opiniones públicas. La facilidad con la que la IA puede obtener y utilizar datos personales disponibles en redes sociales amplifica estos riesgos.
Los autores del estudio advierten que esta tecnología podría ser explotada por actores malintencionados para influir en la opinión pública a gran escala, y enfatizan la necesidad de establecer regulaciones y salvaguardas en plataformas digitales para mitigar estos peligros.
Potencial para el bien común
A pesar de los riesgos, los investigadores también señalan que la misma tecnología podría utilizarse para combatir la desinformación. Por ejemplo, proyectos como AI4TRUST están explorando el uso de modelos de lenguaje para generar contraargumentos personalizados que ayuden a las personas a cuestionar y superar creencias conspirativas
Conclusión
Este estudio pone de manifiesto el poder de la inteligencia artificial en la persuasión personalizada y plantea importantes cuestiones éticas sobre su aplicación. A medida que la IA se integra cada vez más en nuestras interacciones cotidianas, es crucial establecer marcos regulatorios que garanticen un uso responsable y ético de estas tecnologías.