La Teoría del Internet muerto y el contenido artificial

La teoría del Internet muerto y el contenido artificial

¿Qué es la Teoría del Internet Muerto?

La Teoría del Internet Muerto es la idea de que una gran parte del contenido e interacciones en línea ya no proviene de personas, sino de automatismos. En su versión conspirativa, afirma que la mayoría de lo que vemos en Internet no lo llevan a cabo personas reales, sino generado por inteligencias artificiales, bots y algoritmos. Es decir, mucho de lo que consumimos y con lo que interactuamos en la red podría estar creado por máquinas en lugar de humanos.

¿Qué incluye este “ruido sintético”? Hablamos de bots sociales, granjas de contenido (sitios web que producen artículos a escala industrial), spam masivo, IA generativa creando textos/imágenes, redes de enlaces y engagement falso (likes o comentarios comprados). Todos estos elementos añadidos forman un ruido artificial que contamina nuestros feeds y resultados de búsqueda.

¿Qué no implica esta teoría? Más allá de conspiraciones, basta con ver los incentivos económicos y la automatización barata disponibles hoy: si es casi gratuito generar miles de contenidos o interacciones con bots, mucha gente y empresas lo harán para ganar audiencia o dinero. De hecho, expertos señalan que no se trata de una “única conspiración malévola”, sino de la convergencia de factores sistémicos: un modelo económico obsesionado con el engagement a cualquier costo y la democratización de herramientas de automatización que permiten producir información a escala sobrehumana. En resumen, sin invocar ninguna paranoia, la realidad es que Internet se ha llenado de contenido sintético simplemente porque es rentable y técnicamente fácil hacerlo.

Por qué esta teoría ha ganado tracción ahora

En los últimos años, la idea del “Internet muerto” ha pasado de ser una curiosidad conspirativa a un marco teórico con el que muchos identifican fenómenos reales. ¿Por qué justo ahora? Varias tendencias recientes lo explican:

  • IA generativa al alcance de todos: Herramientas de inteligencia artificial como ChatGPT, Midjourney y otras han reducido el coste marginal de producir texto, imágenes o videos a casi cero. Ahora cualquiera puede generar decenas de artículos al día con un bot. Por ejemplo, hay usuarios que instruyen a ChatGPT para crear decenas de artículos diarios, llenando blogs con contenido “sin pasión, sin voz propia y sin sentido” solo para obtener tráfico y monetizar con publicidad. En 2023 se detectaron centenares de sitios web repletos de texto generado por IA, que publican cientos o miles de artículos nuevos en un solo día gracias a estas herramientas. Evidentemente, estos números solo han hecho que aumentar hasta la fecha actual. La producción de contenido se ha disparado porque la máquina escribe más rápido (y más barato) que un humano.
  • Monetización programática y escala masiva: Internet funciona con publicidad automatizada. Plataformas de anuncios (como Google AdSense y otras redes) pagan por impresiones y clics, no por calidad. Esto significa que, si montas 1000 páginas web automatizadas y cada una recibe un poco de tráfico, en conjunto puedes ganar dinero aunque el contenido sea basura. Publicar miles de páginas puede seguir siendo rentable, siempre que generen visitas. Un informe reciente reveló que más de 140 grandes marcas han tenido anuncios mostrando inadvertidamente en estas granjas de contenido de baja calidad. Se estima que unos 13.000 millones de dólares al año de publicidad programática terminan en este tipo de sitios hechos para atraer clics fáciles. En otras palabras, hay un incentivo financiero directo para inundar la red de contenido barato: el spam también paga.
  • Plataformas que premian volumen e interacción: Los algoritmos de buscadores y redes sociales no distinguen si detrás de un contenido hay un humano o un script, simplemente reaccionan a señales de popularidad. Si una publicación tiene mucha interacción (aunque sea generada o comprada), tenderá a mostrarse más. Si un sitio publica 50 artículos al día sobre temas de tendencia, es probable que alguno esté arriba en el ranking de Google solo por la cantidad. Las grandes plataformas tecnológicas optimizan por engagement: más clicks, más tiempo en pantalla, más interacciones. Esto crea un caldo de cultivo perfecto para el contenido sintético – los algoritmos ven “señales” (clics, likes, shares) y amplifican ese contenido sin importar si es genuino o no. Un caso reciente es ilustrativo: en 2023 Google actualizó sus guías y dejó de exigir que el contenido esté “escrito por personas” para considerarlo útil, abriendo la puerta a páginas generadas por IA mientras parezcan de calidad. Muchos editores notaron de repente cómo contenido artificial bien optimizado desplazaba al contenido humano en los resultados de búsqueda, simplemente porque el algoritmo lo consideraba igual de “relevante” en términos de SEO.

Con el avance de la inteligencia artificial, es fácil ver contenido perfecto: una semántica y gramática perfectas, y un tono sin fisuras. Eso, inevitablemente, hace que me lance la siguiente pregunta:

¿Quizás Google, o los crawler de IA, empezarán a valorar el contenido con errores e imperfecto? Y es que esta sería una opción válida para que estos detecten contenido escrito por humanos, pero que a su vez se encadena con esta segunda cuestión: ¿Será la IA capaz de cometer las mismas imperfecciones para seguir suplantando a los humanos? Seguramente el lector tiene clara la respuesta a esta pregunta.
¿Crees que estas herramientas tienen alguna alternativa para evitar el contenido generado por automatismos? Hay un famoso refrán que dice “si no puedes con tu enemigo, únete a él”, y Google se unió a su enemigo hace años.

En resumen, la Teoría del Internet Muerto resuena ahora porque las piezas tecnológicas y económicas encajan: producir contenido falso es más fácil que nunca, monetizarlo sigue siendo posible, y los sistemas automatizados lo propagan sin mirar si hay una persona real detrás. Veamos a continuación algunas señales concretas de esta tendencia.

El “termómetro”: 7 señales de que nos acercamos a un Internet “muerto”

A continuación, repasamos siete indicadores prácticos de que una parte notable de lo que vemos online es ruido sintético. Estas señales actúan como un termómetro para estimar qué tan cerca estamos de la visión de un “Internet muerto”.

1. Más contenido “clonado” en búsquedas

Una primera señal es la proliferación de contenido clonado o duplicado en Internet. Seguro te ha pasado: buscas algo en Google y los 10 primeros resultados parecen intercambiables. Todos los artículos tienen la misma estructura, los mismos bullet points, las mismas conclusiones superficiales y ninguna experiencia real detrás. En algunos casos, estos artículos llegan a tener casi el mismo título. Este efecto espejo se debe a que muchas páginas se crean con fórmulas genéricas de SEO o incluso usando la misma plantilla de IA. Cuando la web se llena de artículos “espejo” que repiten lo ya dicho una y otra vez, sin aportar voz humana ni originalidad, es una señal clara de contenido sintético. En la práctica, significa que aunque haya múltiples sitios, parece que todos hablan con la misma voz robótica. Si al informarte encuentras múltiples páginas que dicen exactamente lo mismo, probablemente estás ante contenido automático o simplemente refrito sin aporte humano genuino. Y esto nos lleva a un punto importante, y rompedor para aquellos que no estén involucrados en la creación de contenido online, ya que hay mucho contenido refrito que sí tiene aporte humano detrás. Humanos que buscan optimizar su tiempo y reducir su carga de trabajo mediante herramientas IA. Sin embargo, esto nos lleva a una paradoja: los humanos piden a estas herramientas que hagan ciertos artículos, y estas los escriben a partir de otros artículos que se han escrito con la misma lógica.

Para aquellos más curiosos, en un monólogo de Jimmy Carr -comediante y escritor inglés- respondió a un espectador sobre la posibilidad de que una inteligencia artificial reemplace su trabajo. Es en ese momento que hace una aportación que vale oro: “La IA es muy buena en cosas del hemisferio izquierdo de nuestro cerebro. […] Cosas muy complejas, como ir a la luna, ya que es hacer una cosa tras otra […] Pero nada de eso es hemisferio derecho. El hemisferio derecho se encarga de nuestra forma de entender el mundo, de la risa, de la música y conexiones. Y (la IA) no es capaz de eso.”. Podéis ver el fragmento corto haciendo click aquí. Téngase en cuenta que esta es una interpretación propia del formato de monólogo, dónde Jimmy utiliza la conocida dicotomía entre hemisferio izquierdo y derecho del cerebro para ilustrar una limitación conceptual de la inteligencia artificial: su dependencia de datos y producciones humanas previas. Aún dada la simplificación neurocientífica, el argumento central resulta relevante para el debate contemporáneo: la IA no genera significado “desde cero”, sino mediante la recombinación estadística de contenidos humanos preexistentes.

2. Engagement inusual (comentarios y likes perfectos)

Otra señal de alarma aparece en las interacciones sociales: comentarios genéricos, excesivamente positivos y repetitivos. Estoy convencido que el lector reconocerá comentarios tipo “¡Great post!” o “Thanks for sharing!” que ves calcados en distintos blogs y redes sociales. Estos no suelen hacer referencia específica al contenido, y pueden aparecer pocos segundos después de publicar algo. Estos comentarios demasiado rápidos y vagos suelen ser obra de bots o de cuentas falsas. De hecho, se aconseja sospechar de perfiles con comentarios siempre genéricos, porque es un signo típico de actividad automatizada. Lo mismo ocurre con picos de likes instantáneos o reacciones en bloque: si publicas algo y en 1 minuto recibes 50 “Me gusta” de cuentas aleatorias, es probable que no sean 50 personas reales que justo estaban esperando tu post, sino algún grupo coordinado o bots dando engagement falso. En resumen, cuando ves interacciones perfectas pero un poco huecas, es posible que detrás no haya humanos entusiastas, sino scripts programados para fingir engagement.

Irónicamente, hay ocasiones en las que los humanos también adaptamos este comportamiento. En lo personal, esto me pasa al ver comentarios en plataformas profesionales como Linkedin, dónde podemos encontrar comentarios demasiado perfectos y profesionales, aunque no encajen con la persona que los redacta.

3. Tráfico web que no se comporta como humano

La analítica web también delata la presencia de tráfico no humano. Visitas que rebotan al instante, duraciones de sesión de 0 a 3 segundos, patrones de navegación repetitivos o provenientes de países que nada tienen que ver con tu audiencia objetivo son pistas típicas. Por ejemplo, picos de visitas a las 3 de la mañana sin que tengas contenido nocturno o campañas en marcha, o tráfico referral desde sitios fantasma, suelen indicar bots. Si en tus datos ves 100% de rebote y 1 página vista de forma constante, es muy posible que no sean personas navegando tu web, sino programas. Los expertos lo resumen así: si tus analíticas muestran picos raros de tráfico de madrugada, tasas de rebote altísimas o conversiones que no cuadran con las visitas, probablemente tienes un problema de bots. De hecho, diversos informes estiman que casi la mitad del tráfico de Internet proviene de bots y no de humanos reales. Imperva reportó que en 2020 aproximadamente el 40% de las visitas eran hechas por bots, y el porcentaje ha ido en aumento en años recientes. Este tráfico automatizado inflará tus números pero no aporta nada: ni lee el contenido, ni compra, ni se suscribe – solo crea ruido que puede incluso engañar a los anunciantes y a tus propias métricas.

Cabe remarcar, que estos bots no navegan simplemente para ensuciar tus analíticas, sino que están extrayendo información relevante para poder usarla a su gusto.

4. SERPs y feeds llenos de páginas hechas para rankear, no para ayudar

Otro indicio es la experiencia al buscar información o navegar por feeds de noticias/redes: encontramos resultados saturados de páginas creadas únicamente para posicionar, en lugar de contenido verdaderamente útil. Son esos artículos que cumplen con la palabra clave y la extensión, pero al leerlos notas que no dicen nada nuevo ni útil. Mucho texto de relleno SEO (“SEO filler”), introducciones largas llenas de generalidades, y al final te quedas sin respuesta concreta. Este fenómeno se ha agravado con la irrupción de contenido generado en masa. Hay casos reportados de creadores de contenido legítimo que vieron cómo sus posts bien investigados eran desplazados por textos de 500 palabras generados por IA llenos de trivialidades. En foros de webmasters, algunos expresan su frustración: “Tengo contenido largo, bien escrito y con imágenes originales, PERDIENDO contra basura de IA… Google aparentemente te obliga a generar spam de IA o morir”. Esta cita refleja la sensación de que, en algunas búsquedas, lo mediocre está ganando a lo auténtico. Cuando los primeros resultados de Google o las noticias destacadas en una red social están copados por contenido automatizado pensado solo para atraer clics, es una clara señal de “internet ruidoso”. Para los usuarios significa tener que escarbar más para hallar información de calidad, y para los creadores legítimos implica competir contra un ejército de páginas generadas que abarrotan el espacio.

5. Proliferación de “sitios zombi”

Relacionada con la señal anterior está la aparición de cada vez más “sitios zombi”: dominios web que publican contenido a escala industrial pero carecen de todo rastro de vida humana. ¿Cómo reconocerlos? Suelen tener miles de URLs indexadas sobre todo tema imaginable, pero no encuentras un autor real, la sección “Sobre nosotros” es vaga o inexistente, y el sitio no tiene una marca o empresa reconocible detrás. Son portales llenos de artículos genéricos, muchas veces con nombres de autor inventados. De hecho, investigadores han detectado redes de sitios generados por IA que incluso usan fotos y biografías de supuestos autores que en realidad son falsas, creadas por inteligencia artificial. Estas páginas actúan como granjas de contenido: cubren todas las keywords posibles con textos sintéticos para atraer tráfico de buscadores. Al explorarlas, notas la ausencia total de comentarios, de comunidad o de cualquier señal de que alguien “vive” ahí más allá del robot publicador. Son esencialmente sitios fantasma, mantenidos por scripts, cuyo único propósito es estar ahí fuera captando clics incautos o inflando contenido en el índice de Google. El aumento de estos sitios zombi (a veces llamados también sitios MFA -made for ads-) es un síntoma de que hay una porción de Internet que, efectivamente, está “muerta” en términos humanos, aunque muy activa algorítmicamente.

A los pocos meses de empezar a trabajar en Bitanube, entré en el proyecto de Especialister. En este, los fundadores hicieron mucho hincapié en lo importante que era explicar su historia y que cualquiera que navegara por la web pudiera ponerles cara. En ese entonces, y siendo tan novato como lo era, me costó entender porque le daban tanta importancia a este punto pero, a día de hoy, lo entiendo perfectamente. En una red llena de “sitios zombi”, siempre optaré por un contenido humano y cercano.

6. Aumento del clickbait

¿Notas muchos titulares llamativos pero cuyo contenido luego te decepciona? El contenido señuelo o clickbait vacío es otra señal de este internet ruidoso. Titulares del estilo “Increíble truco que los expertos no quieren que sepas…” o “Te sorprenderá [tal cosa]” proliferan con el objetivo de lograr tu clic, pero al entrar la información es pobre o simplemente una repetición de lo obvio. Si bien el clickbait ha existido por años, ahora está potenciado por la automatización: se pueden generar títulos sensacionalistas en masa y reciclar el mismo cuerpo de texto mil veces con ligeras variaciones. Además, las granjas de contenido de nueva generación usan intensivamente estas tácticas. Muchos de esos sitios hechos para publicidad montan titulares exagerados, vídeos auto-reproducidos, galerías infinitas y otros trucos para multiplicar páginas vistas. El resultado es que como usuarios nos topamos con más y más contenidos que nos atraen con fuegos artificiales pero nos dejan con las manos vacías. Cuando la red se llena de páginas cuyo único objetivo es hacerte clicar (y no informarte realmente), es señal de un entorno saturado de ruido artificial. Nos acercamos al “internet muerto” en la medida en que dedicamos tiempo a contenido sin alma ni sustancia, creado solo como señuelo de atención.

7. Dificultad para distinguir a un experto de un simple compilador

Una consecuencia preocupante de todo lo anterior es que cada vez cuesta más diferenciar contenido de expertos reales vs. contenido recopilado y reformulado sin aporte original. Antes era más evidente: un artículo escrito por un profesional traía casos concretos, fotos propias, datos originales o un punto de vista único. Ahora, con tantas herramientas que reúnen información de la web y la reescriben, muchos textos parecen correctos pero planos, como si los hubiera escrito un robot que “leyó todo y lo resumió”. Faltan anécdotas de primera mano, no hay capturas de pantalla reales del producto o servicio en cuestión, no se citan datos internos o experiencias personales. Esta ausencia de “prueba de vida” humana es otra señal sutil: un artículo puede sonar bien, pero si no tiene ni una pizca de experiencia personal o matices propios, sospecha. De hecho, el propio Google ha tenido que ajustar sus criterios de calidad para enfrentar esto: en 2022 añadió la “E” de Experiencia a sus siglas E-A-T, enfatizando que el contenido debe demostrar conocimiento de primera mano. ¿Por qué? Porque hay un tsunami de contenido que en teoría es correcto pero carece de autenticidad. Google explicitó que busca señales de que “alguien que realmente estuvo allí o lo hizo” está detrás del texto, para así filtrar páginas que simplemente reescriben lo ya dicho y destacar a los creadores que aportan valor real. En resumen, cuando te cuesta discernir si un texto lo escribió un experto con experiencia o una IA agregando datos de Wikipedia, ese es el síntoma definitivo de un internet inundado de compilaciones sin alma.

Entonces… ¿qué tan cerca estamos del Internet muerto?

Llegados a este punto, el lector podría preguntarse: ¿Estamos ya viviendo en un “Internet muerto”? La respuesta matizada sería no al 100%… pero tampoco estamos en un Internet “sano”. Aún hay una enorme cantidad de creación humana en la red: comunidades activas en foros y redes sociales, newsletters escritas con pasión, blogs personales, videos largos de YouTube con creadores reales, repositorios de código, eventos en línea, etc. El pulso humano sigue ahí. De hecho, los datos confirman que la participación humana en Internet sigue creciendo en números absolutos: en 2025 se estimó que ya había 6.000 millones de usuarios de Internet en el mundo. Internet no está “muerto” en el sentido literal, porque nunca hubo tanta gente conectada generando contenido genuino.

Sin embargo, también es cierto que Internet está más “ruidoso” que nunca. Una proporción creciente del contenido e interacción sí está automatizada o manipulada, y eso cambia la experiencia para todos. No hace falta que el 100% de Internet sea sintético para sentir los efectos; basta con que la parte muerta ocupe los espacios más visibles. Pensemos en Google: si solo un 10% del contenido es basura generada pero ese 10% logra posicionarse arriba en las búsquedas, a efectos prácticos la mayoría de usuarios solo verá esa parte “muerta”. (No olvidemos que la gran mayoría de usuarios rara vez pasa de los primeros resultados o la primera página). Lo mismo pasa en redes: si los trending topics o los posts que te recomienda el algoritmo están inflados por bots o son de granjas de contenido, el contenido auténtico queda escondido debajo del ruido.

No estamos en un “Internet muerto total”, pero sí en un “Internet muy contaminado”. Esto tiene consecuencias claras: aumenta la desconfianza (cada vez nos preguntamos más si lo que leemos es real o manipulado), aumenta el coste de encontrar valor (pasamos más tiempo filtrando basura para dar con algo útil) y se erosiona la experiencia global (navegar puede ser frustrante cuando hay tanto señuelo y tan poca sustancia). En términos prácticos, estamos viviendo en un ecosistema donde la parte sintética tiene un peso significativo en lo que se ve y se comparte, aunque afortunadamente aún coexiste con una robusta producción humana.

Qué significa para el SEO y para las marcas

Para profesionales de marketing, creadores de contenido y marcas que hayan llegado hasta este punto del artículo, este panorama plantea nuevos retos y estrategias. Si una parte de Internet se está llenando de contenido artificial y falso engagement, ¿cómo destacarse y generar confianza en medio del ruido? Aquí algunas claves:

  • La ventaja pasa de “publicar más” a “demostrar más”: En una web inundada de contenidos genéricos, la diferenciación estará en la calidad y credibilidad. Ya no basta con tener mucho contenido, hay que tener mejor contenido. Esto significa aportar pruebas de vida humana en lo que publiques. Comparte experiencias reales (ejemplos concretos y casos de estudio propios), incluye datos originales o insights únicos de tu empresa, muestra fotografías o capturas propias (no solo stock photos genéricas), y sé transparente con la autoría. Básicamente, demuestra que sabes de lo que hablas porque lo has vivido o trabajado directamente. Google mismo premia estos esfuerzos: como vimos, sus guías E-E-A-T valoran la experiencia real y la confiabilidad. En palabras de expertos SEO, “el reto no es solo aparecer en resultados, sino convencer a Google y a los usuarios de que realmente sabes de lo que hablas”. Las marcas que muestren conocimiento genuino y autoridad verán recompensada su visibilidad frente a los sitios impersonales.
    Y sé que quizás asusta, el contenido generado por inteligencia artificial parece perfecto: gramática impecable, incluye todas las palabras clave y usa las imágenes apropiadas en el momento apropiado, pero no tiene esencia. Recuperemos la subjetividad, las opiniones propias, y los errores humanos que nos caracterizan.
    El famoso copywriter, Isra Bravo, ha llegado a ser el más cotizado e influyente justamente por esta esencia. Leer a Isra, se siente como tener una conversación en persona con él. Y no, no es una experiencia profesional, ni perfecta, pero tampoco lo somos los humanos.
  • Menos “contenido genérico”, más “contenido con pruebas”: Reevalúa tu estrategia de contenido. Si hasta ahora consistía en producir artículos superficiales para cubrir todas las keywords, es hora de cambiar de rumbo. Cada pieza de contenido que publiques debería tener un propósito claro y ofrecer algo que nadie más ofrezca igual: ya sea una opinión experta, un tutorial paso a paso basado en tu experiencia, un análisis con datos internos, etc. Evita el relleno SEO sin valor. Piensa que cualquier texto puramente recopilatorio que hagas, una IA podría hacerlo igual… o 10 competidores ya lo hicieron. Apuesta por la profundidad antes que la amplitud. Es preferible un artículo excelente que resuelva de verdad la intención del usuario, a cinco artículos mediocres que dicen lo mismo que hay en otros sitios. Además, este contenido de calidad es más resistente a futuras actualizaciones de algoritmo, ya que estará alineado con lo que Google busca (utilidad y fiabilidad). En resumen: invierte en contenido diferencial, con tu sello y evidencia propia, porque eso te hará sobresalir entre un mar de páginas clonadas.
  • Construye canales propios y comunidad: En un entorno donde depender únicamente del algoritmo de Google o de las redes es arriesgado (porque pueden estar saturados de ruido sintético o cambiar sus reglas), las marcas inteligentes refuerzan sus canales directos. ¿Tienes una newsletter por correo para tus clientes o seguidores fieles? Espacios donde tú controlas el mensaje y hablas con humanos que te dieron su permiso cobran más valor. Por ejemplo, muchas empresas están revitalizando el email marketing vía newsletters muy cuidadas, para no depender de que el post en Facebook alcance a la audiencia (imaginemos que en Facebook el alcance orgánico encima está plagado de bots o posts basura que compiten con el tuyo). Lo mismo con comunidades propias: un grupo de usuarios leales en torno a tu marca te dará feedback real y difusión genuina, difícil de falsificar con bots. Menos dependencia del feed algorítmico, más conexión directa con tu público. Esto no solo te protege del ruido externo, sino que fortalece la confianza: la gente preferirá fuentes que sienten cercanas y auténticas, en contraste con la info impersonal que abunda afuera.

Y si te interesa esta idea desde un ángulo más estratégico (menos dependencia de plataformas y más control), te puede encajar este otro artículo de Zausen sobre el camino hacia webs más autónomas.

En conclusión, la llamada “teoría del Internet muerto” nos alerta de un problema real: no hace falta que Internet esté del todo muerto para que nuestra experiencia se resienta. Hoy, una parte significativa de la web es ruido sintético: contenidos y acciones automatizadas que compiten por nuestra atención. Para los usuarios, el desafío es aprender a navegar con criterio, buscando señales de vida real detrás de lo que consumimos. Para las marcas y creadores, el desafío es mantener la humanidad en el contenido – demostrar con hechos, experiencia y cercanía que detrás de cada artículo, post o producto hay personas reales aportando valor. Aquellos que lo logren no solo sobrevivirán en este mar de ruido, sino que ganarán la confianza y la fidelidad de una audiencia ávida de autenticidad en medio de la confusión digital.

Deja un comentario