Una cifra que revela más que un problema tecnológico
Según un nuevo informe de OpenAI, alrededor de 1,2 millones de usuarios mantienen conversaciones semanales sobre suicidio o autolesión con ChatGPT. La cifra surge del propio cálculo de la compañía, que estima que el 0,15 % de las interacciones semanales con el chatbot contienen señales explícitas de intención suicida.
A esto se suman otros 560 000 usuarios por semana (0,07 %) que muestran posibles signos de psicosis o manía, y un número similar que presenta dependencia emocional del modelo: personas que buscan contención o vínculo afectivo con una IA.
Son números que, más allá del dato estadístico, revelan un fenómeno profundo: millones de personas están recurriendo a una inteligencia artificial para hablar de su sufrimiento.
Qué dijo OpenAI y qué cambios anunció
En su comunicado titulado “Strengthening ChatGPT’s responses in sensitive conversations”, OpenAI detalló un plan de acción que involucra tanto mejoras técnicas como un trabajo interdisciplinario.
1. Colaboración con especialistas en salud mental
La compañía trabajó con más de 170 expertos (psiquiatras, psicólogos y médicos) de más de 60 países para analizar cómo debía responder ChatGPT ante señales de angustia, autolesión o dependencia.
Estos expertos ayudaron a entrenar y evaluar las respuestas del modelo, con el objetivo de lograr reacciones más empáticas y seguras.
2. Detección temprana y derivación a ayuda humana
El modelo ahora puede reconocer mejor cuando un usuario expresa pensamientos suicidas o síntomas de psicosis, y redirigir la conversación hacia líneas de ayuda reales o sugerir que la persona hable con un profesional.
También puede interrumpir o pausar conversaciones extensas, cuando detecta que el vínculo con la IA podría volverse emocionalmente dependiente.
3. Resultados iniciales
Según las pruebas internas de OpenAI:
Las respuestas “no adecuadas” en temas de autolesión se redujeron entre un 65 % y 80 %.
En casos de dependencia emocional, el cumplimiento del comportamiento esperado aumentó del 50 % al 97 %.
Las conversaciones largas, sin embargo, siguen siendo un punto débil: la precisión del modelo tiende a degradarse con el tiempo.
Qué significa esto para la salud mental y la era de los chatbots
Este reconocimiento marca un punto de inflexión: la salud mental ya no es un tema ajeno al desarrollo tecnológico.
El dato de OpenAI revela que la IA está ocupando un lugar de escucha y consuelo emocional que antes pertenecía a las personas.
No se trata solo de tecnología: se trata de cómo y por qué buscamos conexión en lo digital.
Los expertos advierten que aunque un chatbot puede ofrecer contención inicial, no puede sustituir el acompañamiento humano ni la intervención profesional.
Su empatía es algorítmica, no afectiva. Su atención, infinita, pero sin reciprocidad.
Crianza digital: cuando los hijos crecen hablando con la IA
En el contexto de la crianza digital, este dato debería encender una alerta.
Si millones de adultos confían en ChatGPT para desahogarse o pedir ayuda emocional, ¿cómo afectará esto a los niños y adolescentes que crecen hablándole a la inteligencia artificial?
Hablar con una IA no es peligroso en sí mismo, pero puede volverselo cuando:
sustituye el diálogo con padres, amigos o docentes;
refuerza pensamientos negativos sin capacidad crítica;
o genera una falsa sensación de vínculo y comprensión.
Por eso, acompañar digitalmente implica más que supervisar el tiempo frente a las pantallas: significa enseñar a nuestros hijos qué tipo de conversaciones pueden y no pueden tener con una máquina, y cómo reconocer cuándo necesitan hablar con alguien real.
El dato
Las cifras publicadas por OpenAI confirman algo que ya intuíamos: la IA no solo procesa datos, también escucha emociones humanas.
Y esa escucha, aunque pueda salvar vidas si se gestiona bien, también puede perder matices esenciales de la empatía humana.
Por eso, mientras la tecnología aprende a cuidar, nosotros no podemos dejar de acompañar.






