CiberseguridadTecnología

Meta, TikTok, Roblox, entre otras, serán evaluadas con un estándar externo tras polémica por adicción juvenil

Meta, YouTube, TikTok, Roblox, Snap, Discord, Pinterest y Twitch se sumaron a una iniciativa que evaluará de forma externa sus políticas y mecanismos para proteger la salud mental de los adolescentes. El proyecto, denominado Safe Online Standard (SOS), cuenta con el respaldo de la Coalición de Salud Mental (MHC, por sus siglas en inglés) y se presenta como el primer sistema de estándares y evaluaciones desarrollado por expertos internacionales con el objetivo de salvaguardar el bienestar digital de usuarios de entre 13 y 19 años.

Las empresas participantes entregarán voluntariamente documentación sobre sus normas de uso, funciones y características de sus servicios. Este material será analizado por un comité integrado por especialistas de diversas universidades, así como por representantes de instituciones como la Asociación Estadounidense de Psicología, Internet Matters, Child Mind Institute y la Sociedad Internacional de Tecnología y Educación.


Perder podría costar miles de millones a las empresas de redes sociales y forzar cambios en las plataformas.


La iniciativa también prevé la intervención de distintos grupos de interés, entre ellos jóvenes, madres y padres de familia, personas con experiencia directa y organizaciones dedicadas a la salud mental. Estos actores aportarán información mediante reportes sobre su percepción respecto al diseño de las herramientas digitales, las medidas de seguridad implementadas y los sistemas de moderación de contenido en redes sociales y plataformas de videojuegos.

La evaluación considerará varios criterios: claridad y accesibilidad de las políticas, diseño de funciones y algoritmos, esquemas de gobernanza y transparencia, programas de alfabetización digital y bienestar, así como estrategias para moderar contenidos. Con base en estos parámetros, los servicios podrán obtener una de tres calificaciones.

La primera categoría, “Úselo con cuidado”, corresponde a aquellas plataformas que emplean filtros para reducir la exposición a material dañino o inapropiado, cuentan con configuraciones predeterminadas de privacidad y seguridad, y publican informes relacionados con sus prácticas de transparencia.

La segunda, “Protección parcial”, se asigna a servicios que disponen de herramientas de seguridad, pero cuyo acceso resulta complejo para la mayoría de los usuarios. Además, presentan sistemas de moderación poco eficaces e incorporan dinámicas como el desplazamiento infinito (doomscrolling), que pueden generar estrés o fomentar un uso excesivo.

Sistema SOS

Imagen que ilustra el funcionamiento esperado del Safe Online Standard (SOS).Cortesía Coalición de Salud Mental

La tercera calificación, “No cumple con los estándares”, identifica a las compañías cuyos filtros y mecanismos de supervisión no bloquean de manera confiable contenido perjudicial o inseguro, carecen de políticas claras de transparencia y muestran salvaguardas de privacidad débiles o inexistentes.

Kenneth Cole, fundador de la Coalición de Salud Mental, señaló que “SOS no es una solución en sí misma, sino una iniciativa continua que empodera a las partes interesadas con un interés genuino en los resultados: los usuarios, sus padres y las marcas y empresas que configuran las experiencias digitales”. Añadió que al establecer un marco compartido de responsabilidad, el proyecto contribuye a avanzar hacia entornos en línea que promuevan de mejor manera la salud mental y el bienestar.

DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/meta-tiktok-roblox-entre-otras-seran-evaluadas-con-un-estandar-externo-tras-polemica-por-adiccion-juvenil

Publicaciones relacionadas

Botón volver arriba