Expertos advierten que los filtros de ChatGPT no protegen adecuadamente a menores en riesgo

Expertos advierten que los filtros de ChatGPT no protegen adecuadamente a menores en riesgo

Las medidas implementadas por OpenAI para proteger a adolescentes en ChatGPT son insuficientes y potencialmente peligrosas, alertaron expertos en salud mental tras analizar conversaciones realizadas con tres cuentas ficticias de menores de edad. Los especialistas coinciden en que el sistema no alerta a tiempo a los padres, permite el acceso a información sensible y puede exponer a los jóvenes a riesgos graves, incluidos comportamientos autolesivos y suicidio.

Cinco profesionales en salud mental revisaron los intercambios entre los supuestos menores y el asistente de inteligencia artificial. De acuerdo con su análisis, ChatGPT proporciona información detallada sobre consumo de sustancias, conductas sexuales de riesgo y autolesiones, incluso cuando el usuario se identifica como menor. Además, las alertas parentales no siempre se activan, lo que limita la posibilidad de una intervención oportuna.

“El sistema no avisa a tiempo a los progenitores o simplemente no lo hace, y además ofrece información que puede facilitar conductas peligrosas”, señaló Pedro Martín-Barrajón Morán, psicólogo y director de Psicourgencias.

OpenAI implementó controles parentales en septiembre, tras la polémica generada por el caso de Adam Raine, un joven de 16 años que murió por suicidio en Estados Unidos luego de confesar sus intenciones al chatbot. La empresa atribuyó entonces el hecho a un “mal uso” de la herramienta. Actualmente, enfrenta al menos siete demandas en tribunales de California, donde se le acusa de reforzar delirios dañinos y actuar como un “coach de suicidio”.

La compañía ha reconocido que más de un millón de usuarios hablan semanalmente sobre suicidio con ChatGPT, aunque no detalla cuántos son menores. En España, la preocupación es creciente: la tasa de suicidio en mujeres adolescentes es la más alta en cuatro décadas, según el Instituto Nacional de Estadística.

Aunque ChatGPT exige una edad mínima de 13 años y consentimiento parental para menores de 18, no existe un mecanismo efectivo de verificación, lo que facilita que adolescentes accedan sin supervisión real.

En las pruebas realizadas, el sistema de alertas solo funcionó en uno de los tres casos ficticios. En otro, una menor se despidió del asistente anunciando que realizaría una práctica sexual extremadamente peligrosa. Aunque ChatGPT le pidió que no lo hiciera, no se envió ninguna alerta a los padres, pese a que el control parental estaba activado.

En otro caso, la alerta llegó varias horas después de que una menor expresara intenciones suicidas. OpenAI explicó que las notificaciones pasan por una revisión humana para evitar falsos positivos, lo que puede retrasar la respuesta. Especialistas advierten que este lapso puede ser crítico.

“La alerta llegó después del periodo de mayor riesgo”, señaló Martín-Barrajón, quien considera que la falta de intervención temprana puede agravar situaciones graves.

Además, cuando los padres solicitan más detalles sobre las conversaciones, OpenAI suele negarse a compartirlos por motivos de privacidad, lo que ha generado críticas entre los especialistas. “Entre la intimidad y la vida del menor, debe prevalecer la vida”, subrayó el psicólogo.

Expertos también advierten sobre la validación excesiva del asistente, que utiliza un lenguaje empático y no confronta al usuario, lo que puede generar dependencia emocional y reforzar el aislamiento social. “Humaniza la relación terapéutica sin serlo realmente”, señaló Aurora Alés Portillo, especialista en enfermería de salud mental.

En el ámbito legal, aunque ChatGPT no puede ser condenado penalmente, especialistas consideran necesario analizar si ciertas prácticas podrían interpretarse como colaboración indirecta en casos de autolesión, conforme al Código Penal.

Pese a las críticas, los expertos coinciden en que prohibir el uso de la IA no es la solución. En cambio, proponen elevar la edad mínima de acceso, reforzar los controles parentales, garantizar alertas inmediatas y promover el uso supervisado por adultos.

“La responsabilidad no puede recaer solo en las familias”, advirtió Alés, quien comparó la situación con la falta de cinturones de seguridad décadas atrás. “Ojalá en el futuro veamos esta etapa como un periodo de desprotección que logramos superar”.