Estilo de vidaNegociosTecnología

Cuando la inteligencia artificial deja de predecir y empieza a buscar

Es común —y comprensible— que asociemos la inteligencia artificial con sesgos, extractivismo de datos, desastres ambientales o promesas de productividad que, más que liberar tiempo, parecen agotar todavía más a quienes algunos estudiosos llaman trabajadores cognitivos. En otros casos, el discurso gira hacia un entusiasmo acrítico: la IA como destino inevitable, como el único futuro posible. Ese imaginario oscila entre el temor y el entusiasmo, pero rara vez se detiene en algo más básico: qué hacen realmente las personas con estas tecnologías cuando las necesitan.

La apropiación disruptiva —tal como la planteamos con Cruz Tornay y Edgar Zúñiga— no es una metáfora académica ni un gesto retórico. Es una práctica política, donde una tecnología deja de obedecer a su lógica de mercado y comienza a adquirir sentido social desde los márgenes que nunca fueron pensados sujetos y grupos.

Este Colectivo en Jalisco utiliza algoritmos para crear videos donde los desaparecidos «hablan», cuentan quién son y a quién extrañan.

Para entender la urgencia de ese gesto, basta con mirar las cifras que atraviesan al país. Según registros oficiales y análisis de organizaciones civiles, más de 133 000 personas permanecen desaparecidas o no localizadas en México hasta finales de 2025, una cifra que viene creciendo casi de forma ininterrumpida desde hace años.

Ese número no es un mero estadístico: son seres humanos que no han regresado a casa, cuyas familias enfrentan un vacío institucional que se traduce en dolor cotidiano. En 2025, solo en este país se reportaron más de 14 000 personas desaparecidas, con aumentos interanuales significativos según el registro nacional.

Se superan las brechas —de acceso, de uso, de apropiación tecnológica— que no son una abstracción académica: lo que Cruz Tornay ha sistematizado en nuestro trabajo conjunto es cómo esas brechas no son sólo numéricas, sino políticas y sociales. No es lo mismo enfrentarse a interfaces que entregan un diagnóstico médico que hacerlo cuando se trata de encontrar a un hijo que no está. Para muchas madres en México, alfabetización digital no fue un curso en línea: fue aprender en la marcha, con otras, compartiendo saberes en redes informales, grupos de WhatsApp, encuentros en plazas y espacios comunitarios donde la tecnología se vuelve herramienta de búsqueda antes que de eficiencia.

Qué hacen las fichas vivas y por qué importan

Las fichas de búsqueda vivas son vídeos breves —generalmente de unos dos o tres minutos— producidos por las propias familias con herramientas de generación de imagen y voz. Técnicamente combinan modelos de visión por computadora, síntesis de voz y animación facial. Políticamente, hacen aparecer al desaparecido en un espacio público saturado de información, donde la mirada sobre la violencia estructural suele dispersarse.

Pero más allá de su formato técnico, lo que estas fichas hacen es restituir agencia narrativa a quienes han sido borrados de los circuitos oficiales. Es la familia quien decide qué decir, cuándo y cómo. No hay intermediación narrativa de empresas tecnológicas ni de discursos institucionales distantes. Esto es clave: el relato no es sobre un algoritmo que “predice” una identidad futura, sino sobre una voz que reclama presencia aquí y ahora.

Usos que escapan a la lógica instrumental

Las fichas vivas no sustituyen las fichas en papel que se pegan en muros y postes —esas que las autoridades suelen retirar con argumentos administrativos o de “imagen urbana”—, sino que las expanden, las potencian y les dan una vida digital difícil de borrar por completo. A veces, bajan una publicación; aparece en otra red. Se replica. Se vuelve un fenómeno transaccional que ha alcanzado incluso audiencias en Estados Unidos y otras latitudes, donde se suma solidaridad y atención a la crisis que, en México, muchas veces se normaliza.

Este uso no es meramente instrumental. Es una reconfiguración política del sentido de la inteligencia artificial: no para optimizar procesos, sino para interrumpir la invisibilidad, producir memoria viva y sostener la presencia de las ausencias.

Y, sin embargo, como nos recuerda Edgar Zúñiga, esta apropiación ocurre en tensión: las madres son conscientes de que están exponiéndose a dispositivos de vigilancia, a la extracción de datos personales, incluso a intentos de extorsión. Todo eso está ahí. Pero en su balance, la necesidad de encontrar pesa más que el riesgo de ser vigiladas por algoritmos.

Este texto se construyó a partir de una investigación desarrollada junto con Edgar Ramón Zúñiga Gómez y María Cruz Tornay-Márquez, a quienes agradezco profundamente su colaboración, discusión crítica y trabajo sostenido. Pero, sobre todo, este trabajo es impensable sin el aprendizaje, la apertura y la generosidad del Colectivo Luz de Esperanza – Desaparecidos Jalisco, convirtiendo la investigación en un ejercicio de escucha y responsabilidad compartida.

DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/cuando-la-inteligencia-artificial-deja-de-predecir-y-empieza-a-buscar

Publicaciones relacionadas

Mira también
Cerrar
Botón volver arriba