¿Podrá la IA escapar a la tendencia de las plataformas a volverse basura digital?

Hace poco estuve de vacaciones en Italia. Como se hace hoy en día, revisé mi itinerario con GPT-5 para obtener sugerencias de lugares de interés y recomendaciones de restaurantes. El robot informó que la mejor opción para cenar cerca de nuestro hotel en Roma estaba a un corto paseo por Via Margutta. Resultó ser una de las mejores comidas que recuerdo. Al llegar a casa, le pregunté al modelo cómo había elegido ese restaurante, algo que dudé en revelar aquí por si acaso necesito mesa en el futuro (¡Quién sabe si volveré! Se llama Babette. Para reservar, llamen con antelación). La respuesta fue compleja e impresionante. Entre los factores se encontraban las excelentes críticas de los lugareños, las reseñas en blogs gastronómicos y la prensa italiana, y la famosa combinación de cocina romana y contemporánea del restaurante. Ah, y el paseo corto.
Yo también necesitaba algo: confianza. Tenía que creerme la idea de que GPT-5 era un intermediario honesto, que elegía mi restaurante sin prejuicios; que el restaurante no se me mostraba como contenido patrocinado y que no se llevaba una buena parte de mi cheque. Podría haber investigado a fondo por mi cuenta para comprobar la recomendación (busqué el sitio web), pero el objetivo de la IA es evitar esa fricción.
La experiencia reforzó mi confianza en los resultados de la IA, pero también me hizo dudar: a medida que empresas como OpenAI se hacen más potentes y tratan de devolver el dinero a sus inversionistas, ¿tendrá la IA la erosión de valor que parece endémica en las aplicaciones tecnológicas que usamos hoy en día?
Juego de palabras
El escritor y crítico tecnológico Cory Doctorow llama a esa tendencia a embasurarse «enshittificación». Su premisa es que plataformas como Google, Amazon, Facebook y TikTok comienzan con el objetivo de complacer a los usuarios, pero una vez que las empresas derrotan a sus competidores, se vuelven intencionalmente menos útiles para obtener mayores beneficios. Después de que WIRED publicara varios artículos sobre el ensayo pionero de Doctorow de 2022 sobre el fenómeno, el término entró en la lengua vernácula, al menos en EE UU, principalmente porque la gente reconoció que daba totalmente en el clavo. “Enshittification” fue elegida palabra del año 2023 por la American Dialect Society. El concepto se ha citado tan a menudo que trasciende su profanidad, apareciendo en lugares que normalmente se taparían la nariz ante tal palabra. Doctorow acaba de publicar un libro homónimo sobre el tema; la imagen de portada es el emoji de… adivina qué: 💩.
Si los chatbots y los agentes de inteligencia artificial se ensucian de ese modo, podría ser peor que la pérdida de utilidad de la búsqueda de Google, que los resultados de Amazon se plagaran de anuncios e incluso que Facebook mostrara menos contenido social en favor de un clickbait generador de ira.
La IA está en camino de convertirse en una compañera constante, dando respuestas puntuales a muchas de nuestras solicitudes. Las personas ya confían en ella para interpretar eventos actuales y obtener consejos sobre todo tipo de decisiones de compra, e incluso decisiones de vida. Debido a los enormes costos de crear un modelo de IA completo, es razonable asumir que solo unas pocas empresas dominarán el campo. Todas ellas planean invertir cientos de miles de millones de dólares en los próximos años para mejorar sus modelos y ponerlos en manos del mayor número de personas posible. En este momento, diría que la IA se encuentra en lo que Doctorow llama la etapa «buena para los usuarios». Pero la presión para recuperar las enormes inversiones de capital será tremenda, especialmente para las empresas cuya base de usuarios está bloqueada. Esas condiciones, como escribe Doctorow, permiten a las empresas abusar de sus usuarios y clientes comerciales «para recuperar todo el valor para sí mismas».
Cuando uno imagina la enshittificación de la IA, lo primero que le viene a la mente es la publicidad. La pesadilla es que los modelos de IA hagan recomendaciones basándose en qué empresas han pagado por colocarse. Eso no está ocurriendo ahora, pero las empresas de IA están explorando activamente el ámbito publicitario. En una entrevista reciente, el CEO de OpenAI, Sam Altman, señaló: «Creo que probablemente haya algún producto publicitario interesante que podamos hacer y que sea una ganancia neta para el usuario y algo positivo para nuestra relación con él». Mientras tanto, OpenAI acaba de anunciar un acuerdo con Walmart para que los clientes del minorista puedan comprar dentro de la aplicación ChatGPT. No creo que haya ningún conflicto. La plataforma de búsqueda de IA Perplexity tiene un programa en el que los resultados patrocinados aparecen en seguimientos claramente etiquetados. Pero, promete, «estos anuncios no cambiarán nuestro compromiso de mantener un servicio de confianza que te proporcione respuestas directas e imparciales a tus preguntas.»
¿Se mantendrán los límites?
El portavoz de Perplexity, Jesse Dwyer, me dice sobre un posible desboco: «Para nosotros, la garantía número uno es que no lo permitiremos». Y en una reciente jornada para desarrolladores de OpenAI, Altman aseguró que la empresa es «hiperconsciente de la necesidad de ser muy cuidadosa» a la hora de servir a sus usuarios en lugar de servirse a sí misma. La doctrina de Doctorow no da mucho crédito a afirmaciones como esa: “Una vez que una empresa puede ‘enshittificar’ sus productos, se enfrentará a la tentación perenne de ‘enshittificar’ sus productos», escribe en su libro.
Poner anuncios en las conversaciones de los chatbots o en los resultados de las búsquedas no es la única forma en que la IA puede degradarse. Doctorow cita ejemplos en los que las empresas, una vez que dominan un mercado, cambian su modelo de negocio y sus tarifas. Por ejemplo, en 2023, Unity, el proveedor más popular de herramientas de desarrollo de videojuegos, decidió cobrar una nueva «tasa de ejecución». Ese mal comportamiento fue tan atroz que los usuarios se rebelaron y consiguieron que se retirara la tasa. Pero miremos lo que ha ocurrido con servicios de streaming como Amazon Prime Video: solía ser un servicio sin anuncios. Ahora te obliga a ver anuncios antes y durante la película. Tienes que pagar para desactivarlos. Ah, y el precio de Amazon Prime sigue subiendo. Así que podría ser una práctica habitual de las grandes tecnológicas bloquear a los usuarios en un servicio y luego cobrar tarifas cada vez más altas. Incluso podría ocurrir que, para mantener el mismo nivel de inteligencia en los resultados de un chatbot, los usuarios tuvieran que pasar a un nivel superior, incluso más caro: otro truco de la enshittificación. Puede que las empresas que antes prometían que las actividades de tu chatbot no se utilizarían para entrenar futuros modelos cambien de opinión al respecto, simplemente porque pueden salirse con la suya.
Lo que me dijo Cory Doctorow
Doctorow no aborda la IA en su libro, así que le llamé para saber si cree que la categoría está destinada a recorrer el camino de la defecación. Esperaba que esbozara las diversas formas en que las empresas de IA caerán presas de su maloliente síndrome. Para mi sorpresa, tenía una opinión diferente. No es un fanático de la IA, y cree que este campo ni siquiera ha alcanzado la fase «buena para los usuarios» que he descrito antes. No obstante, advierte, podría ser que el proceso de ‘enshittificación’ se produjera de todos modos. Como es tan difícil ver lo que ocurre dentro de las «cajas negras» de los LLM, indica, «tienen la capacidad de disfrazar su ‘enshittificación’ de una manera que les permitiría salirse con la suya en muchas cosas». Sobre todo, alerta, la «terrible economía» del sector exige que las empresas no puedan permitirse esperar y ‘enshittifiquen’ incluso antes de aportar valor. «Creo que probarán todas las tácticas sudorosas que se puedan imaginar mientras la economía da vueltas por el desagüe», concluye.
Discrepo con Doctorow sobre el valor de la IA. ¡Me encontró a Babette! Pero me temo que la tecnología podría ser propensa al proceso que él identificó inequívocamente en las gigantes tecnológicas actuales. Y adivina qué: GPT-5 está de acuerdo conmigo. Cuando le planteé la pregunta al chatbot, respondió: “El marco de ‘enshittificación’ de Doctorow (las plataformas empiezan siendo buenas para los usuarios, luego transfieren valor a los clientes empresariales y luego lo extraen para sí mismas) se adapta de forma inquietante a los sistemas de IA si no se controlan los incentivos”. GPT-5 procedió entonces a exponer una serie de métodos mediante los cuales las empresas de IA podrían degradar sus productos para obtener ganancias y poder. Las empresas de IA podrían asegurarnos que no se ‘enshittificarán’. Pero sus propios productos ya han escrito el plan.
Artículo originalmente publicado en WIRED. Adaptado por Mauricio Serfatty Godoy.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/podra-la-ia-escapar-a-la-tendencia-de-las-plataformas-a-volverse-basura-digital