ChatGPT multiplicó por 80 sus reportes de explotación infantil en 2025

Durante el primer semestre de 2025, OpenAI envió 80 veces más informes de incidentes de explotación infantil al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) que en un periodo similar de 2024, según una actualización reciente de la empresa. La CyberTipline del NCMEC es un centro de intercambio de información autorizado por el Congreso para denunciar material de abuso sexual infantil (CSAM) y otras formas de explotación infantil.
Las empresas están obligadas por ley a informar a la CyberTipline sobre casos aparentes de explotación infantil. Cuando envían una denuncia, el NCMEC la revisa y la remite al organismo policial competente para su investigación.
Las estadísticas del NCMEC pueden tener matices
A veces, el aumento de denuncias puede reflejar cambios en la moderación automática de una plataforma o en los criterios que esta usa para decidir si una denuncia es necesaria, y no necesariamente un incremento de la actividad nefasta. Además, un mismo contenido puede ser objeto de varias denuncias, y una denuncia puede abarcar varios contenidos. Algunas plataformas, como OpenAI, publican tanto el número de denuncias como el total de contenidos sobre los que versan para ofrecer una imagen más completa.
El portavoz de OpenAI, Gaby Raila, declaró que la compañía realizó inversiones hacia finales de 2024 «para aumentar su capacidad de revisión y acción de informes y mantener el ritmo de crecimiento actual y futuro de los usuarios». También indicó que este aumento coincide con «la introducción de más superficies de productos que permitían subir imágenes y la creciente popularidad de nuestros productos», lo que contribuyó al alza de los informes. En agosto, Nick Turley, vicepresidente y responsable de ChatGPT, anunció que la aplicación tenía cuatro veces más usuarios activos semanales que el año anterior.
Durante la primera mitad de 2025, el número de informes de CyberTipline enviados por OpenAI fue prácticamente igual al de contenidos denunciados: 75,027 frente a 74,559. En el mismo periodo de 2024, se enviaron 947 informes sobre 3,252 contenidos. Tanto el número de informes como la cantidad de contenido denunciado aumentaron de manera notable entre ambos periodos.
En este contexto, «contenido» puede significar varias cosas. OpenAI informa al NCMEC de todos los casos de CSAM, incluidas cargas y solicitudes. Además de ChatGPT, que permite a los usuarios subir archivos, incluidas imágenes, y generar texto e imágenes como respuesta, OpenAI ofrece acceso a sus modelos a través de la API. El recuento más reciente del NCMEC no incluiría informes relacionados con la aplicación de generación de video Sora, cuyo lanzamiento en septiembre fue posterior al periodo cubierto por la actualización.
El aumento de las denuncias sigue un patrón similar al observado por el NCMEC con el auge de la IA generativa. Un análisis del centro sobre todos los datos de CyberTipline reveló que los informes relacionados con IA generativa crecieron un 1,325 % entre 2023 y 2024. Aunque el NCMEC aún no ha publicado los datos de 2025, otros laboratorios de IA como Google sí informan sobre los informes que han realizado, sin detallar qué porcentaje está relacionado con IA.
OpenAI cierra el año bajo escrutinio por seguridad infantil
Durante el verano, 44 fiscales generales estatales enviaron una carta conjunta a múltiples empresas de IA, incluidas OpenAI, Meta, Character.AI y Google, advirtiendo que «utilizarían todas las facetas de nuestra autoridad para proteger a los niños de la explotación por parte de productos de inteligencia artificial depredadores». Tanto OpenAI como Character.AI han enfrentado múltiples demandas de familias o de particulares que alegan que los chatbots contribuyeron a la muerte de sus hijos. En otoño, el Comité Judicial del Senado de EE UU celebró una audiencia sobre los daños de los chatbots de IA, y la Comisión Federal de Comercio inició un estudio de mercado sobre los bots de compañía, incluyendo preguntas sobre cómo las empresas mitigan impactos negativos, especialmente para los niños.
En los últimos meses, OpenAI ha lanzado nuevas herramientas centradas en la seguridad. En septiembre, la compañía introdujo funciones para ChatGPT, incluido control parental, como parte de su trabajo «para dar a las familias herramientas que apoyen el uso de la IA por parte de sus hijos adolescentes». Los padres y sus hijos adolescentes pueden vincular sus cuentas, y los padres pueden ajustar la configuración de sus hijos, desactivando el modo de voz y la memoria, eliminando la capacidad de ChatGPT para generar imágenes y optando por excluirlos de la formación de modelos. OpenAI señaló que también podría notificar a los padres si las conversaciones de sus hijos muestran signos de autolesión, e incluso a las fuerzas del orden si detecta una amenaza inminente y no logra contactar a los padres.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/chatgpt-multiplico-por-80-sus-reportes-de-explotacion-infantil-en-2025




