México presenta decálogo ético para regular el uso de la IA en el país

La Agencia de Transformación Digital y Telecomunicaciones (ATDT) y la Secretaría de Ciencia, Humanidades, Tecnología e Innovación (Secihti) presentaron la Declaración de Ética y Buenas Prácticas para el Uso de la Inteligencia Artificial en México, un decálogo que establece principios éticos destinados a orientar el desarrollo, adopción y uso de esta tecnología en el país.
Rosaura Ruiz Gutiérrez, titular de la Secihti, señaló que la inteligencia artificial (IA) representa uno de los avances científicos y tecnológicos más disruptivos de la actualidad, con un amplio potencial para contribuir al bienestar social y atender diversas problemáticas públicas. Sin embargo, subrayó que estos avances no son inherentemente neutros desde el punto de vista social.
“La tecnología nunca es socialmente neutral”, advirtió la funcionaria. En ese sentido, alertó que el desarrollo y la implementación de sistemas de IA sin criterios éticos claros pueden generar efectos negativos, reproducir o profundizar desigualdades existentes, crear nuevas formas de discriminación y vulnerar derechos fundamentales.
10 principios éticos para el desarrollo de la IA en México
Ante este escenario, la Declaración de Ética y Buenas Prácticas para el Uso de la Inteligencia Artificial en México busca atender estos riesgos mediante la formulación de diez principios orientadores. El objetivo es que este marco sirva como base para la construcción de políticas públicas, regulaciones y herramientas institucionales que garanticen un desarrollo seguro, responsable y socialmente benéfico de los sistemas de inteligencia artificial. El decálogo establece los siguientes lineamientos:
- La IA debe ampliar los derechos, nunca restringirlos. Los algoritmos deberán diseñarse y emplearse de manera que protejan los derechos humanos, evitando decisiones automatizadas que, por su concepción o entrenamiento, reproduzcan prejuicios sociales, generen exclusión o atenten contra el derecho a la información.
- El uso de la IA debe contar siempre con supervisión humana. Las decisiones en el ámbito público apoyadas por sistemas automatizados deberán ser monitoreadas, evaluadas y, en su caso, corregidas por las autoridades competentes. Esto deberá realizarse dentro de marcos institucionales que definan responsabilidades claras sobre el uso de la tecnología.
- Si una decisión no puede explicarse, no debe automatizarse. La utilización de la IA en la investigación científica y en la producción de conocimiento requiere prácticas abiertas y responsables que permitan verificar resultados, reproducir procesos y delimitar de forma explícita el grado de intervención de la inteligencia artificial.
- Gobernanza colectiva. Los mecanismos de gobernanza en torno a la IA no deben definirse de manera aislada ni limitarse a consideraciones técnicas. Se propone la creación de espacios permanentes de diálogo y participación que incluyan a la ciudadanía, la academia, las comunidades, las organizaciones sociales y el sector empresarial.
- La IA debe generar valor social. Los sistemas inteligentes no deben evaluarse únicamente por su desempeño técnico. En el ámbito gubernamental, su adopción debe traducirse en bienestar social, mediante la reducción de desigualdades y la mejora en el acceso a servicios esenciales.
- Desarrollo sustentable. Antes de incorporar sistemas de automatización, se deberán analizar los impactos secundarios que la tecnología pueda tener en los ámbitos social, territorial y ambiental. “La inteligencia artificial no es solo software: depende de infraestructuras físicas, consumo energético y recursos naturales, por lo que su desarrollo debe ser sustentable”, enfatizó Ruiz Gutiérrez.
- IA alineada con las necesidades nacionales. El desarrollo de infraestructuras públicas dedicadas a la inteligencia artificial deberá responder a los objetivos de crecimiento de largo plazo del país, fortalecer las capacidades tecnológicas nacionales y garantizar la autonomía tecnológica.
- Establecimiento de programas formativos. Un desarrollo equitativo de la IA exige la implementación de programas educativos que fortalezcan capacidades en todos los niveles de formación. Esto permitirá contar con perfiles profesionales capaces de aprovechar la tecnología para resolver problemas nacionales, comprender sus impactos sociales, éticos y culturales, y comunicar al público sus beneficios e implicaciones.
- Consideración de la diversidad cultural. Los sistemas inteligentes deberán alinearse con la diversidad cultural y lingüística del país. Para ello, se plantea la necesidad de recuperar y fortalecer las lenguas indígenas, así como construir acervos lingüísticos que integren estas identidades en el desarrollo tecnológico.
- Protección de datos. La inteligencia artificial se construye a partir del uso de datos personales, imágenes, documentos y diversos tipos de texto. Su aplicación ética debe garantizar la calidad, representatividad y seguridad de esta información, así como el respeto a la privacidad y al interés público. Las regulaciones deberán prevenir usos indebidos, proteger datos sensibles y fortalecer la ciberseguridad durante todo el ciclo de vida de los sistemas de IA.
De acuerdo con Ruiz Gutiérrez, la adopción de estos principios tiene un carácter orientador y busca asegurar que la innovación tecnológica avance en armonía con la dignidad humana, la justicia social y el bien común.
Actualmente, México carece de un marco regulatorio específico para la inteligencia artificial. No obstante, en años recientes se han presentado diversas iniciativas y proyectos legislativos para regular esta tecnología. La presidenta de México, Claudia Sheinbaum, ha reiterado la necesidad de establecer normas claras en esta materia, y el decálogo presentado podría representar un primer paso hacia la construcción de ese marco normativo.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/mexico-presenta-decalogo-etico-para-regular-el-uso-de-la-ia-en-el-pais




