Reconocimiento facial en México avanza sin regulación y pone en riesgo derechos ciudadanos, según R3D

Otro caso señalado en el informe es el del sistema Fan ID, implementado por la Liga MX y la Federación Mexicana de Futbol desde 2023, el cual exige a los aficionados registrar sus datos biométricos para ingresar a los estadios. Esta tecnología, operada por la empresa Incode Technologies, no solo compara los rostros de los asistentes con información previamente almacenada, sino que también cuenta con capacidad de búsqueda masiva, lo que permite identificar personas entre multitudes.
Pese a su supuesta finalidad de seguridad, este sistema ha demostrado ser ineficiente y vulnerable, con casos documentados de accesos fraudulentos y fallas en los bloqueos. Aun así, la recolección de datos persiste sin transparencia sobre su tratamiento, posible transferencia a autoridades ni mecanismos para impugnar decisiones automatizadas, denuncia R3D.
“El reconocimiento facial en el espacio público representa una grave amenaza a los derechos a la privacidad, la libertad de expresión y de reunión pacífica. Su implementación en estadios, aeropuertos o calles ha sido promovida como una solución tecnológica sin pruebas de eficacia ni análisis de sus impactos sociales”, sostiene el informe.
Los graves errores de los sistemas de reconocimiento facial
El documento define la tecnología de reconocimiento facial como un sistema biométrico que permite identificar o verificar la identidad de una persona mediante el análisis de su rostro. En este proceso intervienen algoritmos de inteligencia artificial, aprendizaje automático y visión computacional, capaces de detectar rostros en imágenes o videos a partir de características físicas como la distancia entre los ojos, la nariz y las orejas o el color de las pupilas.
Estos sistemas también pueden comparar el rostro capturado con uno o varios registros previamente almacenados. Según sus defensores, esto permite localizar en segundos a personas desaparecidas o a sospechosos de algún delito.
Sin embargo, R3D subraya que, a pesar de emplear tecnologías sofisticadas, estos sistemas son intrusivos, poco fiables y discriminatorios. Además de afectar la privacidad de las personas, pueden vulnerar la libertad de expresión y el principio de presunción de inocencia.
Los cuestionamientos se respaldan en fallas ampliamente documentadas que afectan de forma desproporcionada a ciertos grupos. “No hay evidencia concluyente de que alguna TRF sea completamente precisa. [Esta tecnología] es propensa a errores y sus imprecisiones afectan especialmente a personas de color, indígenas, mujeres o integrantes de la comunidad LGBTTTIQ+”, señala el informe.
El Instituto Nacional de Estándares y Tecnología de Estados Unidos (NIST) encontró que las tasas de error en sistemas de reconocimiento facial pueden ser hasta 30 veces más altas cuando se comparan rostros con características demográficas similares, como género o nacionalidad. Además, se ha documentado que estos sistemas cometen entre 10 y 100 veces más errores al identificar a personas afroamericanas o asiáticas que a personas blancas. En la misma línea, un estudio del Instituto Tecnológico de Massachusetts reveló que la tasa de error en personas con piel más oscura puede ser hasta 19% mayor que en personas con piel clara.
Entre las fallas más comunes se encuentran los falsos positivos (cuando el sistema identifica erróneamente a alguien como otra persona) y los falsos negativos (cuando no reconoce a quien debería). Estos errores tienen múltiples causas: condiciones técnicas como mala iluminación o baja calidad de imagen; cámaras mal ubicadas; bases de datos sesgadas con baja diversidad racial y de género, y técnicas de sobreajuste de algoritmos que funcionan bien en pruebas controladas, pero fallan en escenarios reales.
Estas deficiencias han derivado en errores judiciales que han perjudicado a decenas de personas en el mundo. El informe de R3D recuerda el caso de Robert Julian-Borchak Williams, arrestado en Estados Unidos por una coincidencia facial errónea. “El simple hecho de caminar por la calle bajo estas tecnologías convierte a cualquier persona en potencial sospechosa”, advierte el informe.
Ante este panorama, R3D propone establecer marcos legales actualizados y mecanismos de supervisión independientes que limiten el riesgo de vigilancia masiva, uso indebido de datos biométricos y discriminación. También exhorta a la sociedad a informarse sobre el funcionamiento e implicaciones de estas tecnologías para defender sus derechos.
“Es urgente que la población y las personas tomadoras de decisiones cuestionen las narrativas que existen alrededor de estas tecnologías. No podemos permitir que nos orillen a intercambiar nuestras libertades por falsas promesas de seguridad o soluciones a problemas inexistentes”, concluye el informe.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/reconocimiento-facial-en-mexico-avanza-sin-regulacion-y-pone-en-riesgo-derechos-ciudadanos-segun-r3d




