OpenAI quiere que su inteligencia artificial no solo sea más inteligente, sino también más humana. En su última actualización, la empresa ha introducido cambios en ChatGPT para que gestione con mayor sensibilidad las conversaciones sobre temas delicados: salud mental, autolesiones, soledad o dependencia emocional. Un paso para intentar entender mejor las emociones humanas —y saber cuándo no debe fingir que las entiende.

El anuncio, publicado el 27 de octubre de 2025 bajo el título “Strengthening ChatGPT’s responses in sensitive conversations”, marca un punto de inflexión en cómo OpenAI quiere que su modelo interactúe con las personas. Más de 170 profesionales de la salud mental —entre ellos psicólogos, psiquiatras y médicos— colaboraron con la compañía para revisar y entrenar al modelo en criterios éticos y clínicos más sólidos.
El resultado, según datos internos de la empresa, muestra una mejora notable:
- En conversaciones sobre autolesiones o suicidio, las respuestas inadecuadas se redujeron un 65 %.
- En situaciones relacionadas con psicosis o manía, el modelo mejoró su comportamiento en un 39 %.
- Y los casos en los que se detectaba dependencia emocional del usuario hacia la IA bajaron casi un 80 %.
Estas cifras no son anecdóticas. Según The Guardian, más de un millón de personas cada semana muestran señales explícitas de intención suicida al interactuar con ChatGPT. OpenAI ha querido que el modelo sea capaz de reconocer esas señales y responder con empatía, pero también con responsabilidad, redirigiendo al usuario hacia ayuda profesional real en lugar de ofrecer consejos automáticos.
Sam Altman y el peligro de “confiar demasiado” en una IA
Sam Altman, CEO de OpenAI, ha expresado abiertamente su preocupación por cómo algunas personas están empezando a usar la inteligencia artificial como apoyo emocional. En una entrevista con Business Insider, confesó que lo inquieta la creciente dependencia emocional hacia el chatbot:
“Algunos jóvenes dicen que no pueden tomar decisiones sin contarle todo a ChatGPT. Algo en esa idea de vivir la vida según lo que diga una IA me parece peligroso.”
La reflexión de Altman conecta con un cambio de enfoque dentro de OpenAI: la compañía quiere que ChatGPT sea más empático, sí, pero también que los usuarios entiendan sus límites. La inteligencia artificial puede simular comprensión, pero no siente; puede acompañar, pero no sustituir la empatía humana.
Por eso el modelo ahora intenta, cuando detecta apego excesivo o angustia emocional, recordar al usuario que la IA no puede reemplazar la ayuda humana y ofrecer recursos reales de asistencia psicológica.
Otras empresas siguen el mismo camino
OpenAI no está sola en este intento de “humanizar” la tecnología.
- Anthropic, creadora de Claude, ha adoptado una política para cerrar conversaciones dañinas o abusivas, incluso si el usuario insiste en continuarlas. Sus modelos Claude Opus 4 y 4.1 pueden terminar un chat en casos extremos para proteger al usuario. Además, la empresa ha implementado un sistema de “AI Safety Level 3” que limita usos peligrosos del modelo en contextos como la biotecnología o la seguridad.
- Google , por su parte, ha reforzado la seguridad de su modelo Gemini con filtros automáticos que bloquean contenido inapropiado, consejos médicos o psicológicos erróneos y cualquier salida que pueda causar daño físico o emocional. En sus guías oficiales, Google señala que Gemini, al haber sido entrenado con lenguaje humano, puede dar la impresión de tener emociones u opiniones. Por eso, ha desarrollado directrices para definir cómo el modelo se representa a sí mismo y asegurar que mantenga un tono objetivo y neutral, especialmente en temas sensibles.
Estas medidas reflejan un cambio de mentalidad común en el sector: la carrera por la inteligencia artificial más potente ha dado paso a la búsqueda de una inteligencia artificial más segura, empática y responsable.
Los colectivos más sensibles
Los datos muestran que no todos los usuarios se relacionan con la IA del mismo modo y hay algunos más vuelnerables:
- Jóvenes y adolescentes (16-25 años): según Common Sense Media (2025), son los más propensos a usar chatbots de forma emocional a los que denomina “compañeros de IA” y a desarrollar apego hacia ellos. El informe Así somos. El estado de la adolescencia en España, que defiende los derechos de la infancia y la igualdad de las niñas recoge la voz de 3.500 adolescentes, chicos y chicas de entre 12 y 21 años, con el objetivo de visibilizar sus preocupaciones, retos y aspiraciones. Según datos recogidos en la investigación el 62% de las chicas y el 59% de los chicos encuestados ha usado la IA en el mes previo a la encuesta para resolver dudas sobre sus estudios, y una de cada cuatro chicas de entre 17 y 21 años la usó para conversar o compartir cuestiones personales”. De entre los encuestados: “El 68% de las chicas y un 61% de los chicos teme desarrollar cierta dependencia a esta tecnología y un 17% de las personas adolescentes reconoce adicción al móvil y a las redes sociales, que afecta por igual a ambos géneros”.
- Individuos en situación de soledad o aislamiento: el informe Gallup Global Emotions Report (2024) señala que uno de cada cuatro adultos jóvenes en países desarrollados se siente “frecuentemente solo”, y en ese contexto los chatbots pueden convertirse en un refugio digital que, a la larga, refuerza el aislamiento.
OpenAI reconoce que esta actualización también tiene un objetivo educativo: ayudar a los usuarios a entender qué es y qué no es una IA. ChatGPT no tiene emociones, y aunque puede sonar comprensivo, su empatía es sintética. Aprender a usarlo de manera consciente es tan importante como mejorarlo técnicamente.
La empatía digital no sustituye la empatía humana
La nueva versión de ChatGPT representa un avance en la forma en que las máquinas entienden (o al menos interpretan) nuestras emociones. Pero su mayor valor no está en lo que siente —porque no siente nada—, sino en lo que evita: respuestas que puedan causar daño.
OpenAI, Anthropic y Google están demostrando que el futuro de la inteligencia artificial no pasa solo por hacerla más potente, sino más segura, ética y emocionalmente responsable.
La inteligencia artificial está entrando en espacios cada vez más íntimos de la vida cotidiana: el trabajo, la salud, la conversación. Por eso resulta imprescindible acompañar su avance con una educación que fomente el pensamiento crítico y la responsabilidad digital. OpenAI, Google y Anthropic pueden mejorar los filtros, el tono y la sensibilidad de sus modelos, pero ningún algoritmo sustituirá la conciencia humana sobre cómo y por qué usamos estas herramientas.
Educar en el uso responsable de la IA no significa solo enseñar a evitar riesgos técnicos, sino también entender su naturaleza simbólica. ChatGPT o Gemini no “piensan” ni “sienten”; interpretan patrones. Lo que parece empatía es una construcción estadística del lenguaje, no una emoción real. Cuanto más conscientes seamos de esa diferencia, menos probable será que deleguemos en una máquina nuestra salud emocional o nuestras decisiones personales.
Como señala el propio Sam Altman, el reto no es que la inteligencia artificial sea demasiado poderosa, sino que los humanos olviden dónde terminan sus límites. En una época en la que los jóvenes pueden conversar más con un chatbot que con una persona, la educación digital se convierte en una forma de salud mental colectiva.
El futuro de la inteligencia artificial no dependerá solo de los avances técnicos, sino de la madurez con la que la sociedad aprenda a convivir con ella. No basta con que las máquinas sean más empáticas; necesitamos ciudadanos más críticos, informados y conscientes del papel que la tecnología debe ocupar: una herramienta útil, no un espejo emocional.