La muerte de Internet...
Los bots superan en número a los humanos y cada vez cuesta más encontrar contenidos de calidad. Asfixiada por la automatización y la IA, la red de redes podría estar rumbo a su extinción. Tecnología, poder y sociedad en la nota de la semana de Revista Acción.
© Escrito el miércoles 15/10/2025 por Esteban Magnani y publicado por la Revista Acción de la Ciudad Autónoma de Buenos Aires, República Argentina.
Hace algunos días Sam Altman reflotó con un
posteo una teoría de hace varios años. «Nunca me tomé muy seriamente la teoría
de la muerte de internet, pero parece que realmente hay muchas cuentas de
Twitter gestionadas por LLM», aseguró el CEO de OpenAI. Los «LLM» son los
«Grandes Modelos de Lenguaje» como el que hace funcionar a ChatGPT y otros
sistemas de IA Generativa. Históricamente, Twitter ha sido un espacio plagado
de bots y cuentas automatizadas que trabajan coordinadamente para promover o
silenciar ciertos temas y voces, algo que empeoró desde la compra de la red
social por parte de Elon Musk, quien redujo los controles. Altman, más allá de
dirigir sus dardos en particular contra X, que es propiedad de su exsocio y
ahora archienemigo, puso a todos a discutir sobre las consecuencias de que las
interacciones automatizadas en internet superarán a las de los humanos.
La teoría había sido planteada en
enero de 2021 por un usuario llamado IlluminatePirate, quien se quejaba de que
cada vez costaba más encontrar contenidos de calidad hechos por humanos. Por
aquel entonces faltaban aún más de dos años para que surgiera ChatGPT y se
popularizaran otras IA Generativas capaces de hacer contenidos automatizados
casi sin participación humana. Por entonces, la sentencia parecía una
exageración pero, como señala Altman, la asfixia de internet empeoró.
Internet es la infraestructura que nace en
1969 cuando se conectan dos computadoras por primera vez. Sobre ella corren
numerosos protocolos que dan vida a diferentes herramientas y plataformas.
Durante sus primeras décadas de existencia, se utilizaba sobre todo para
correos electrónicos y lo que se llamaba «tablones», espacios parecidos a los
foros que se siguen usando hoy en día. Pero fue en 1990 que muchos se enteraron
de su existencia: ese año se lanzó la World Wide Web, que permitió a millones
de personas publicar sus contenidos y navegar libremente por los ajenos de
manera simple. A principios del nuevo siglo, se sumaron formas más
participativas de producir contenidos, como los blogs y los fotologs,
precursores de una intensa actividad de los usuarios que luego capitalizarían
las redes sociales para transformarlas en un enorme negocio publicitario.
Así fue que el dinero metió la cola y
la disputa por la atención de los usuarios se intensificó. Para ganarla, se
requería una actividad más constante que los posteos irregulares de usuarios
aislados; por eso comenzaron a utilizarse cuentas automatizadas que producen
contenidos o amplifican los de otras cuentas. Como era de esperarse, la IA
Generativa facilitó esta automatización, que permite generar la sensación de
que las plataformas cuentan con una comunidad vibrante y activa. De esa manera
se seducía a los anunciantes con promesas de visualizaciones. Hasta tal punto
se explotaron estos recursos que algunos estudios indican que la actividad
automatizada en la web hace tiempo que superó a la de los humanos.
Para acelerar la asfixia, ahora se
suman otros procesos de nombres extraños. Por un lado, aumenta lo que se llama
«AI Slop» o «bazofia de IA»: millones de imágenes, textos y demás productos de
la IA Generativa de muy baja calidad, que se producen a escalas masivas pero
que comienzan a asfixiar los contenidos de calidad que aún pudieran encontrarse
en la web.
Otra de las cuestiones que expulsa a
los humanos de la web es la «enshittification» o «enmierdización», término
acuñado por el escritor y periodista Cory Doctorow para describir el gradual
deterioro de un servicio o producto de una plataforma digital como consecuencia
de su búsqueda de ganancias. Los ejemplos de este tipo de procesos son muchos:
uno que salió a la luz recientemente durante un juicio revela que el departamento
de ventas de Google pidió al sector responsable de las búsquedas que fuera
menos preciso al ofrecer resultados para que, de esa manera, los usuarios
necesitaran hacer varios intentos y vieran más publicidad. Es decir que la
empresa intencionalmente empeoró su servicio para ganar más dinero.
Paradójicamente, estos mecanismos están
dificultando el acceso a contenidos de calidad y espantando a los usuarios. El
problema es que los sistemas automatizados de publicidad online, dominados
sobre todo por Google, Facebook y Amazon, están perdiendo credibilidad por
ubicar los anuncios de sus clientes junto a contenido de pésima calidad. Si a
esto se le suma que uno de los principales derivadores de tráfico, el buscador
Google, está dejando de hacerlo debido a que ofrece respuestas generadas por su
IA, no solo se avizora un futuro con menos personas si no también con menos
dinero en la medida en que los anunciantes dejen de confiar en que allí
generarán ventas.
Por todo esto, no deja de ser
paradójico que, justamente, sea Sam Altman quien denuncie un proceso del que es
uno de los principales responsables por ser el creador de herramientas que
permiten automatizar masivamente tareas que antes hacían los humanos.
Internet y, sobre todo, la web,
nacieron con la expectativa de generar un espacio democrático y enriquecedor,
igualando oportunidades y haciendo accesibles contenidos de todo tipo. Sin
embargo, el mismo modelo de negocios que surgió en buena medida de su existencia,
ahora parece a punto de asfixiarla. Las plataformas podrían estar matando a la
gallina de los huevos de oro en su afán de extraerle más ganancias.










