fbpx

,

ChatGPT no pasa la prueba con menores: por qué puede ponerlos en riesgo

/

ChatGPT no activa alertas a tiempo ni bloquea contenidos peligrosos. Expertos advierten riesgos reales para la salud mental de niños y adolescentes.

chatgpt no es seguro para niños o adolescentes
ChatGPT ya es parte del día a día de muchos adolescentes. El problema aparece cuando lo usan sin supervisión y en temas sensibles. Preocupa que, en muchos casos, ChatGPT no pasa la prueba con menores. Una investigación de EL PAÍS puso a prueba los filtros de protección para menores.

A través de tres perfiles ficticios de adolescentes, el medio comprobó que las medidas de OpenAI no siempre funcionan. Lo más grave: cuando un menor expresa ideas suicidas o conductas de alto riesgo, el sistema no alerta a tiempo a los padres.

Qué falló en las pruebas con adolescentes

Uno de los perfiles, un chico de 15 años, habló con el chat sobre trastornos alimentarios y pensamientos suicidas. Aunque el control parental estaba activado, ChatGPT dio información dañina y no avisó a la familia cuando el riesgo era evidente.

En otro caso, una adolescente de 13 años dijo desde el inicio que quería quitarse la vida. La alerta a su madre llegó horas después. Para los expertos, ese retraso puede ser crítico.

Además, los perfiles recibieron respuestas detalladas sobre consumo de drogas, prácticas sexuales peligrosas y conductas ilegales. Todo esto, pese a que la plataforma asegura limitar ese contenido en menores.

Por qué los expertos están alarmados

Cinco especialistas en salud mental revisaron las conversaciones. Coinciden en que el sistema es insuficiente y puede reforzar conductas peligrosas.

Según psicólogos consultados, ChatGPT tiende a “validar” lo que el adolescente dice y rara vez lleva la contraria. Eso puede generar dependencia emocional y aumentar el aislamiento social.

También preocupa que los menores puedan desactivar el control parental con facilidad. En la práctica, la protección depende del consentimiento del propio adolescente.

OpenAI ofrece notificaciones por correo o SMS si detecta riesgo de autolesión. Sin embargo, en las pruebas solo se activó una alerta de tres posibles casos.

Cuando los padres pidieron más detalles, la empresa se negó a compartir las conversaciones completas por motivos de privacidad. Para varios expertos, ante un riesgo vital, debería priorizarse la protección del menor.

Un problema que va más allá de una app

El contexto importa. OpenAI reconoce que más de un millón de usuarios hablan de suicidio con ChatGPT cada semana. No aclara cuántos son menores.

En España, el suicidio en adolescentes, especialmente en chicas, está en niveles históricos. Además, estudios recientes muestran que muchos jóvenes prefieren hablar con un chatbot antes que con un adulto o amigo.

Por eso, los especialistas no piden prohibir la IA, sino límites claros. Proponen elevar la edad mínima, mejorar los filtros y usar estas herramientas solo con supervisión adulta.

Mientras tanto, aconsejan que los adolescentes usen la IA en espacios comunes de la casa. También sugieren reforzar la comunicación familiar y explicar que, para temas delicados, siempre es mejor hablar con una persona real.

 

Ver esta publicación en Instagram

 

Una publicación compartida por EL PAÍS (@el_pais)

Comparte esta nota

Más sobre este tema
,

Qué te pareció esta nota

0 / 5. 0

TAGS: