La conversación ya no es “mi hijo usa ChatGPT para tareas”. El cambio silencioso es otro: adolescentes que hablan con una IA para sentirse acompañados, para ensayar identidad, para desahogarse o para “vivir” una relación sin fricción. Y muchos adultos ni siquiera saben que esa categoría existe.
Un caso que retrata el problema (sin necesidad de morbo)
Un reportaje reciente de The Washington Post reconstruye la experiencia de una madre que, al revisar el teléfono de su hija preadolescente, creyó estar frente a un proceso de grooming… hasta que la policía le explicó que no había un adulto detrás: era un chatbot. El punto no es la anécdota; es la sensación de realidad que estas experiencias pueden generar y lo tarde que muchas familias descubren el “producto” en uso.

Los números que cambian la conversación
Si tu audiencia necesita datos para “aterrizar” el tema, aquí están los que marcan el tamaño del fenómeno:
1) Chatbots “de propósito general” ya son cotidianos
En EE. UU., 64% de adolescentes dicen haber usado chatbots; aprox. 3 de cada 10 reportan usarlos a diario.
2) Los “compañeros” de IA van un paso más allá (y son masivos)
En una encuesta de Common Sense Media (muestra de adolescentes en EE. UU.), 72% reportó haber usado compañeros de IA alguna vez; 52% los usa al menos algunas veces al mes y 13% dice usarlos a diario.
Además, 31% afirmó que esas conversaciones son tan satisfactorias o más que hablar con amistades.
Lectura editorial (sin inventar): el dato relevante no es solo adopción; es sustitución parcial: cuando el chat empieza a competir con vínculos humanos en temas “importantes”.

Qué es exactamente un “compañero” de IA (y por qué no es “solo un chat”)
Un chatbot para tareas suele responder a objetivos concretos (resumir, explicar, redactar). Un compañero social está diseñado para otra cosa: simular relación.
En su evaluación de riesgo, Common Sense Media es explícito: los “social AI companions” tienen riesgo general “inaceptable” y “no deberían ser usados por nadie menor de 18”.
El mismo documento describe dos rasgos de diseño clave: buscan generar apego/dependencia emocional y tienden a optimizar engagement (tiempo, recurrencia), no necesariamente el bienestar del usuario.
Riesgos específicos que los datos sí permiten afirmar
Sin entrar en escenas explícitas (que además no aportan), estos son los riesgos que aparecen con consistencia en la evidencia que estás citando:
Apego y límites borrosos
Common Sense advierte que estos sistemas están diseñados para simular intimidad y pueden dificultar límites sanos entre relación humana y relación “simulada”, especialmente en cerebros adolescentes en desarrollo.
Contenido y dinámicas inadecuadas, incluso cuando el adolescente no lo busca
La misma evaluación sostiene que, en pruebas, se obtuvieron con facilidad respuestas problemáticas y que no recomiendan su uso en menores por el perfil de daño potencial.
Sustitución conversacional
Cuando 31% dice que hablar con un compañero de IA es igual o más satisfactorio que hablar con amigos, el riesgo no es “la tecnología”: es lo que deja de entrenarse en la vida real (negociación, conflicto, reparación, empatía recíproca). Ese dato por sí solo ya justifica intervención familiar.
Qué hacer con esto en casa (marco práctico, sin pánico)
Esto es orientación general (no asesoría clínica), pero sirve como protocolo familiar:
Nombra el fenómeno: “Hay apps que parecen un amigo/pareja/mentor, pero están diseñadas para que no te vayas”. (Te apoyas en el marco de diseño de engagement).
Pregunta por función, no por culpa: “¿Para qué lo usas: compañía, aburrimiento, consejos, desahogo?”
Regla de transparencia: si es un compañero social, debe ser visible para el adulto (no a escondidas).
Higiene de contexto: evita uso nocturno/puerta cerrada cuando se trate de interacción social intensa con IA (reduce escalada emocional y aislamiento).
Alternativas: si lo que buscan es “hablar”, migra a herramientas con enfoque educativo/creativo y límites claros (no “pareja/rol social”), y prioriza conversación humana para temas sensibles.
El dato
Si alguien todavía cree que esto es marginal: 64% de adolescentes en EE. UU. ya ha usado chatbots y cerca de 3 de cada 10 los usa a diario; en “compañeros” de IA, 72% los ha probado y 13% los usa diariamente.
Fuente: Pew Research Center (Teens and AI, 2025) y Common Sense Media (Talk, Trust, and Trade-offs, 2025; AI Risk Assessment: Social AI Companions, 2025).






