
Nota publicada: 2025-10-16
OpenAI ha anunciado la implementación de un sistema de verificación de edad y controles parentales para proteger a los menores que utilizan ChatGPT y su generador de video, Sora 2. Estas medidas se introducen tras una denuncia por homicidio culposo presentada contra la compañía, relacionada con el suicidio de un adolescente de 16 años que había compartido pensamientos autodestructivos con el chatbot de inteligencia artificial.
Según la empresa, el nuevo sistema redirigirá a los menores de 18 años hacia una versión "más segura" de los servicios, con filtros contra contenidos sexuales o violentos y herramientas para intervenir en casos de angustia emocional. Además, se contempla la posibilidad de exigir documentos de identidad en determinados países para verificar la edad.
Sin embargo, expertos en ciberseguridad, psicología y mediación parental han expresado dudas sobre la eficacia de estas medidas. Riana Pfefferkorn, investigadora del Instituto de Inteligencia Artificial Centrada en el Humano (HAI) de la Universidad de Stanford, rechaza el uso de sistemas que obligan a escanear rostros o subir identificaciones oficiales, argumentando que pueden tener implicaciones serias para la privacidad. Además, señala que la falta de transparencia sobre qué datos recopila OpenAI y cómo los utiliza es un problema fundamental.
Por su parte, Borja Adsuara, abogado experto en derecho digital, cuestiona la capacidad real de los padres para supervisar las interacciones de sus hijos con el chatbot. Aunque los nuevos controles parentales permiten bloquear el uso de datos para entrenar modelos, desactivar la memoria del chatbot y establecer "horas de silencio", entre otras funciones, Adsuara considera que estas herramientas no garantizan una protección efectiva.
Además, se teme que los adolescentes continúen accediendo a versiones no filtradas del servicio, lo que podría poner en riesgo su salud mental. Especialistas en salud mental advierten que, aunque las medidas implementadas por OpenAI son un paso en la dirección correcta, no son suficientes para abordar los problemas subyacentes relacionados con el uso de la inteligencia artificial por parte de menores.
En resumen, aunque OpenAI ha tomado medidas para proteger a los menores en ChatGPT, expertos advierten que la seguridad ofrecida es insuficiente y que se deben considerar alternativas más efectivas para garantizar el bienestar de los usuarios jóvenes.