Què és la Teoria de l’Internet Mort?
La Teoria de l’Internet Mort és la idea que una gran part del contingut i de les interaccions en línia ja no provenen de persones, sinó d’automatismes. En la seva versió conspirativa, afirma que la majoria del que veiem a Internet no ho duen a terme persones reals, sinó que està generat per intel·ligències artificials, bots i algoritmes. És a dir, bona part del que consumim i amb què interactuem a la xarxa podria estar creat per màquines en lloc d’humans.
Què inclou aquest “soroll sintètic”? Parlem de bots socials, granges de contingut (llocs web que produeixen articles a escala industrial), correu brossa massiu, IA generativa creant textos o imatges, xarxes d’enllaços i engagement fals (likes o comentaris comprats). Tots aquests elements afegits formen un soroll artificial que contamina els nostres feeds i els resultats de cerca.
Què no implica aquesta teoria? Més enllà de conspiracions, n’hi ha prou amb observar els incentius econòmics i l’automatització barata disponibles avui: si és gairebé gratuït generar milers de continguts o interaccions amb bots, molta gent i moltes empreses ho faran per guanyar audiència o diners. De fet, factors sistèmics: un model econòmic obsessionat amb l’engagement a qualsevol preu i la democratització d’eines d’automatització que permeten produir informació a escala sobrehumana. En resum, sense invocar cap paranoia, la realitat és que Internet s’ha omplert de contingut sintètic simplement perquè és rendible i tècnicament fàcil de fer.
Per què aquesta teoria ha guanyat tracció ara
En els darrers anys, la idea de l’”Internet mort” ha passat de ser una curiositat conspirativa a un marc teòric amb el qual molts identifiquen fenòmens reals. Per què just ara? Diverses tendències recents ho expliquen:
- IA generativa a l’abast de tothom: Eines d’intel·ligència artificial com ChatGPT, Midjourney i d’altres han reduït el cost marginal de produir text, imatges o vídeos a gairebé zero. Ara qualsevol pot generar desenes d’articles al dia amb un bot. Per exemple, hi ha usuaris que indiquen a ChatGPT que creï desenes d’articles diaris, omplint blocs amb contingut “sense passió, sense veu pròpia i sense sentit” només per obtenir trànsit i monetitzar amb publicitat. El 2023 es van detectar centenars de llocs web plens de text generat per IA, que publiquen centenars o milers d’articles nous en un sol dia gràcies a aquestes eines. Evidentment, aquestes xifres no han fet més que augmentar fins a l’actualitat. La producció de contingut s’ha disparat perquè la màquina escriu més ràpid (i més barat) que un humà.
- Monetització programàtica i escala massiva: Internet funciona amb publicitat automatitzada. Les plataformes d’anuncis (com Google AsSense i altres xarxes) paguen per impressions i clics, no per qualitat. Això vol dir que, si muntes 1.000 pàgines web automatitzades i cadascuna rep una mica de trànsit, en conjunt pots guanyar diners encara que el contingut sigui escombraries. Publicar milers de pàgines pot continuar sent rendible, sempre que generin visites. Un informe recent va revelar que més de 140 grans marques han tingut anuncis mostrats inadvertidament en aquestes granges de contingut de baixa qualitat. S’estima que uns 13.000 milions de dòlars anuals de publicitat programàtica acaben en aquest tipus de llocs fets per atreure clics fàcils. En altres paraules, hi ha un incentiu financer directe per inundar la xarxa de contingut barat: l’spam també paga.
- Plataformes que premien volum i interacció: Els algoritmes de cercadors i xarxes socials no distingeixen si darrere d’un contingut hi ha un humà o un script; simplement reaccionen a senyals de popularitat. Si una publicació té molta interacció (encara que sigui generada o comprada), tendirà a mostrar-se més. Si un lloc publica 50 articles al dia sobre temes de tendència, és probable que algun aparegui amunt en el rànquing de Google només per la quantitat. Les grans plataformes tecnològiques optimitzen per engagement: més clics, més temps de pantalla, més interaccions. Això crea un brou de cultiu perfecte per al contingut sintètic: els algoritmes veuen “senyals” (clics, likes, comparticions) i amplifiquen aquest contingut sense importar si és genuí o no. Un cas recent n’és il·lustratiu: el 2023 Google va actualitzar les seves guies i va deixar d’exigir que el contingut estigués “escrit per persones” per considerar-lo útil, obrint la porta a pàgines generades per IA mentre semblin de qualitat. Molts editors van notar de sobte com contingut artificial ben optimitzat desplaçava el contingut humà en els resultats de cerca, simplement perquè l’algoritme el considerava igual de “rellevant” en termes de SEO.
Amb l’avenç de la intel·ligència artificial, és fàcil veure contingut perfecte: una semàntica i una gramàtica impecables, i un to sense fissures. Això, inevitablement, em porta a la pregunta següent:
Potser Google, o els crawlers d’IA, començaran a valorar el contingut amb errors i imperfecte? Aquesta seria una opció vàlida perquè detectin contingut escrit per humans, però alhora s’encadena amb una segona qüestió: Serà la IA capaç de cometre les mateixes imperfeccions per continuar suplantant els humans? Segurament el lector té clara la resposta a aquesta pregunta.
Creus que aquestes eines tenen alguna alternativa per evitar el contingut generat per automatismes? Hi ha un refrany famós que diu “si no pots amb el teu enemic, uneix-t’hi”, i Google es va unir al seu enemic fa anys.
En resum, la Teoria de l’Internet Mort ressona ara perquè les peces tecnològiques i econòmiques encaixen: produir contingut fals és més fàcil que mai, monetitzar-lo continua sent possible, i els sistemes automatitzats el propaguen sense mirar si hi ha una persona real al darrere. Vegem a continuació alguns senyals concrets d’aquesta tendència.
El "termòmetre": 7 senyals que ens acostem a un Internet "mort"
A continuació, repassem set indicadors pràctics que mostren que una part notable del que veiem en línia és soroll sintètic. Aquests senyals actuen com un termòmetre per estimar fins a quin punt estem a prop de la visió d’un “Internet mort”.
1. Més contingut “clonat” a les cerques
Un primer senyal és la proliferació de contingut clonat o duplicat a Internet. Segur que t’hi has trobat: busques alguna cosa a Google i els 10 primers resultats semblen intercanviables. Tots els articles tenen la mateixa estructura, els mateixos bullet points, les mateixes conclusions superficials i cap experiència real al darrere. En alguns casos, aquests articles arriben a tenir gairebé el mateix títol. Aquest efecte mirall es deu al fet que moltes pàgines es creen amb fórmules genèriques de SEO o fins i tot utilitzant la mateixa plantilla d’IA. Quan la web s’omple d’articles “mirall” que repeteixen una vegada i una altra el que ja s’ha dit, sense aportar veu humana ni originalitat, és un senyal clar de contingut sintètic. A la pràctica, això vol dir que, tot i que hi hagi múltiples llocs, sembla que tots parlin amb la mateixa veu robòtica. Si, quan t’informes, trobes múltiples pàgines que diuen exactament el mateix, probablement ets davant de contingut automàtic o simplement refregit sense una aportació humana genuïna. I això ens porta a un punt important, i trencador per a aquells que no estan involucrats en la creació de contingut en línia, ja que hi ha molt contingut refregit que sí que té una aportació humana al darrere. Humans que busquen optimitzar el seu temps i reduir la seva càrrega de treball mitjançant eines d’IA. Tanmateix, això ens condueix a una paradoxa: els humans demanen a aquestes eines que facin determinats articles, i aquestes els escriuen a partir d’altres articles que s’han redactat seguint la mateixa lògica.
Per als més curiosos, en un monòleg de Jimmy Carr —comediante i escriptor anglès— va respondre a un espectador sobre la possibilitat que una intel·ligència artificial substitueixi la seva feina. És en aquell moment quan fa una aportació que val or: “La IA és molt bona en coses de l’hemisferi esquerre del nostre cervell. […] Coses molt complexes, com anar a la lluna, ja que és fer una cosa darrere l’altra […] Però res d’això és hemisferi dret. L’hemisferi dret s’encarrega de la nostra manera d’entendre el món, del riure, de la música i de les connexions. I (la IA) no és capaç d’això.” Podeu veure el fragment curt fent clic aquí. Cal tenir en compte que aquesta és una interpretació pròpia del format de monòleg, on Jimmy utilitza la coneguda dicotomia entre hemisferi esquerre i dret del cervell per il·lustrar una limitació conceptual de la intel·ligència artificial: la seva dependència de dades i produccions humanes prèvies. Tot i la simplificació neurocientífica, l’argument central resulta rellevant per al debat contemporani: la IA no genera significat “des de zero”, sinó mitjançant la recombinació estadística de continguts humans preexistents.
2. Engagement inusual (comentaris i likes perfectes)
Un altre senyal d’alarma apareix en les interaccions socials: comentaris genèrics, excessivament positius i repetitius. Estic convençut que el lector reconeixerà comentaris del tipus “Great post!” o “Thanks for sharing!” que veus calcats en diferents blogs i xarxes socials. Aquests comentaris no solen fer referència específica al contingut, i poden aparèixer pocs segons després de publicar alguna cosa. Aquests comentaris massa ràpids i vagues acostumen a ser obra de bots o de comptes falsos. De fet, es recomana sospitar de perfils amb comentaris sempre genèrics, perquè és un signe típic d’activitat automatitzada.
El mateix passa amb pics de likes instantanis o reaccions en bloc: si publiques alguna cosa i en 1 minut reps 50 “M’agrada” de comptes aleatoris, és probable que no siguin 50 persones reals que justament estaven esperant el teu post, sinó algun grup coordinat o bots donant engagement fals. En resum, quan veus interaccions perfectes però una mica buides, és possible que al darrere no hi hagi humans entusiastes, sinó scripts programats per fingir engagement.
Irònicament, hi ha ocasions en què els humans també adaptem aquest comportament. Personalment, això em passa quan veig comentaris en plataformes professionals com LinkedIn, on podem trobar comentaris massa perfectes i professionals, encara que no encaixin amb la persona que els redacta.
3. Trànsit web que no es comporta com un humà
L’analítica web també delata la presència de trànsit no humà. Visites que reboten a l’instant, durades de sessió de 0 a 3 segons, patrons de navegació repetitius o provinents de països que no tenen res a veure amb la teva audiència objectiu són pistes típiques. Per exemple, pics de visites a les 3 de la matinada sense que tinguis contingut nocturn o campanyes en marxa, o trànsit referral des de llocs fantasma, solen indicar bots. Si a les teves dades veus un 100% de rebot i 1 pàgina vista de manera constant, és molt possible que no siguin persones navegant pel teu web, sinó programes. Els experts ho resumeixen així: si les teves analítiques mostren pics estranys de trànsit de matinada, taxes de rebot altíssimes o conversions que no quadren amb les visites, probablement tens un problema de bots. De fet, diversos informes estimen que gairebé la meitat del trànsit d’Internet prové de bots i no d’humans reals. Imperva va informar que el 2020 aproximadament el 40% de les visites eren fetes per bots, i el percentatge ha anat en augment en els darrers anys. Aquest trànsit automatitzat inflarà els teus números però no aporta res: ni llegeix el contingut, ni compra, ni es subscriu — només crea soroll que fins i tot pot enganyar els anunciants i les teves pròpies mètriques.
Cal remarcar que aquests bots no naveguen simplement per embrutar les teves analítiques, sinó que estan extraient informació rellevant per poder-la utilitzar al seu gust.
4. SERPs i feeds plens de pàgines fetes per posicionar, no per ajudar
Un altre indici és l’experiència quan busquem informació o naveguem per feeds de notícies o xarxes: trobem resultats saturats de pàgines creades únicament per posicionar, en lloc de contingut realment útil. Són aquells articles que compleixen la paraula clau i l’extensió, però quan els llegeixes t’adones que no diuen res de nou ni d’útil. Molt text de farciment SEO (SEO filler), introduccions llargues plenes de generalitats, i al final et quedes sense una resposta concreta. Aquest fenomen s’ha agreujat amb la irrupció del contingut generat en massa. Hi ha casos reportats de creadors de contingut legítim que van veure com els seus posts ben investigats eren desplaçats per textos de 500 paraules generats per IA i plens de trivialitats. En fòrums de webmasters, alguns expressen la seva frustració: “Tinc contingut llarg, ben escrit i amb imatges originals, PERDENT contra brossa d’IA… Google aparentment t’obliga a generar spam d’IA o morir”. Aquesta cita reflecteix la sensació que, en algunes cerques, el mediocre està guanyant a l’autèntic. Quan els primers resultats de Google o les notícies destacades en una xarxa social estan copiats per contingut automatitzat pensat només per atraure clics, és un senyal clar d’“internet sorollós”. Per als usuaris vol dir haver d’excavar més per trobar informació de qualitat, i per als creadors legítims implica competir contra un exèrcit de pàgines generades que abarroteixen l’espai.
5. Proliferació de “llocs zombi”
Relacionada amb el senyal anterior hi ha l’aparició de cada vegada més “llocs zombi”: dominis web que publiquen contingut a escala industrial però que no tenen cap rastre de vida humana. Com es poden reconèixer? Sovint tenen milers d’URLs indexades sobre qualsevol tema imaginable, però no hi trobes cap autor real, la secció “Sobre nosaltres” és vaga o inexistent, i el lloc no té cap marca o empresa reconeixible al darrere. Són portals plens d’articles genèrics, moltes vegades amb noms d’autor inventats. De fet, investigadors han detectat xarxes de llocs generats per IA que fins i tot utilitzen fotos i biografies de suposats autors que, en realitat, són falses, creades per intel·ligència artificial. Aquestes pàgines actuen com a granges de contingut: cobreixen totes les keywords possibles amb textos sintètics per atreure trànsit dels cercadors. Quan les explores, notes l’absència total de comentaris, de comunitat o de qualsevol senyal que algú “visqui” allà més enllà del robot que publica. Són, essencialment, llocs fantasma, mantinguts per scripts, l’únic propòsit dels quals és ser a la xarxa captant clics incauts o inflant contingut a l’índex de Google. L’augment d’aquests llocs zombi (de vegades també anomenats llocs MFA —made for ads—) és un símptoma que hi ha una porció d’Internet que, efectivament, està “morta” en termes humans, tot i que molt activa algorítmicament.
Al cap de pocs mesos de començar a treballar a Bitanube, vaig entrar al projecte d’Especialister. En aquest, els fundadors van insistir molt en com n’era d’important explicar la seva història i que qualsevol persona que navegués pel web els pogués posar cara. En aquell moment, i sent tan novell com era, em va costar entendre per què donaven tanta importància a aquest punt però, avui dia, ho entenc perfectament. En una xarxa plena de “llocs zombi”, sempre optaré per un contingut humà i proper.
6. Augment del clickbait
Notes molts titulars cridaners però que després et deceben quan llegeixes el contingut? El contingut esquer o clickbait buit és un altre senyal d’aquest Internet sorollós. Titulars de l’estil “Truc increïble que els experts no volen que sàpigues…” o “Et sorprendrà [tal cosa]” proliferen amb l’objectiu d’aconseguir el teu clic, però quan hi entres la informació és pobra o simplement una repetició del que és obvi. Tot i que el clickbait existeix des de fa anys, ara s’ha vist potenciat per l’automatització: es poden generar títols sensacionalistes en massa i reciclar el mateix cos de text mil vegades amb petites variacions. A més, les granges de contingut de nova generació utilitzen aquestes tàctiques de manera intensiva. Molts d’aquests llocs fets per a publicitat munten titulars exagerats, vídeos amb reproducció automàtica, galeries infinites i altres trucs per multiplicar les pàgines vistes.
El resultat és que, com a usuaris, ens trobem amb cada vegada més continguts que ens atrauen amb focs artificials però ens deixen amb les mans buides. Quan la xarxa s’omple de pàgines l’únic objectiu de les quals és fer-te clicar (i no informar-te de debò), és un senyal d’un entorn saturat de soroll artificial. Ens acostem a l’“Internet mort” en la mesura que dediquem temps a contingut sense ànima ni substància, creat només com a esquer d’atenció.
7. Dificultat per distingir un expert d’un simple compilador
Una conseqüència preocupant de tot l’anterior és que cada vegada costa més diferenciar el contingut d’experts reals del contingut recopilat i reformulat sense aportació original. Abans era més evident: un article escrit per un professional aportava casos concrets, fotos pròpies, dades originals o un punt de vista únic. Ara, amb tantes eines que reuneixen informació de la web i la reescriuen, molts textos semblen correctes però plans, com si els hagués escrit un robot que “ho va llegir tot i ho va resumir”. Hi falten anècdotes de primera mà, no hi ha captures de pantalla reals del producte o servei en qüestió, i no s’hi citen dades internes ni experiències personals. Aquesta absència de “prova de vida” humana és un altre senyal subtil: un article pot sonar bé, però si no té ni un bri d’experiència personal o de matisos propis, sospita. De fet, el mateix Google ha hagut d’ajustar els seus criteris de qualitat per fer front a això: el 2022 va afegir la “E” d’Experiència a les sigles E-A-T, posant èmfasi en el fet que el contingut ha de demostrar coneixement de primera mà. Per què? Perquè hi ha un tsunami de contingut que, en teoria, és correcte però manca d’autenticitat. Google va explicitar que busca senyals que “algú que realment hi va ser o ho va fer” hi ha al darrere del text, per tal de filtrar pàgines que simplement reescriuen el que ja s’ha dit i destacar els creadors que aporten valor real. En resum, quan et costa discernir si un text l’ha escrit un expert amb experiència o una IA agregant dades de la Viquipèdia, aquest és el símptoma definitiu d’un Internet inundat de compilacions sense ànima.
Aleshores… fins a quin punt som a prop de l’Internet mort?
Arribats a aquest punt, el lector podria preguntar-se: ja estem vivint en un “Internet mort”? La resposta matisada seria que no al 100%… però tampoc estem en un Internet “sa”. Encara hi ha una enorme quantitat de creació humana a la xarxa: comunitats actives en fòrums i xarxes socials, newsletters escrites amb passió, blogs personals, vídeos llargs de YouTube amb creadors reals, repositoris de codi, esdeveniments en línia, etc. El pols humà continua sent-hi. De fet, les dades confirmen que la participació humana a Internet continua creixent en números absoluts: el 2025 es va estimar que ja hi havia 6.000 milions d’usuaris d’Internet al món. Internet no està “mort” en el sentit literal, perquè mai no hi havia hagut tanta gent connectada generant contingut genuí.
Tanmateix, també és cert que Internet està més “sorollós” que mai. Una proporció creixent del contingut i de la interacció sí que està automatitzada o manipulada, i això canvia l’experiència per a tothom. No cal que el 100% d’Internet sigui sintètic per notar-ne els efectes; n’hi ha prou que la part morta ocupi els espais més visibles. Pensem en Google: si només un 10% del contingut és brossa generada però aquest 10% aconsegueix posicionar-se a dalt de les cerques, a efectes pràctics la majoria d’usuaris només veurà aquesta part “morta”. (No oblidem que la gran majoria d’usuaris rara vegada passa dels primers resultats o de la primera pàgina). El mateix passa a les xarxes: si els trending topics o els posts que et recomana l’algoritme estan inflats per bots o provenen de granges de contingut, el contingut autèntic queda amagat sota el soroll.
No estem en un “Internet mort total”, però sí en un “Internet molt contaminat”. Això té conseqüències clares: augmenta la desconfiança (cada vegada ens preguntem més si el que llegim és real o manipulat), augmenta el cost de trobar valor (passem més temps filtrant brossa per trobar alguna cosa útil) i s’erosiona l’experiència global (navegar pot ser frustrant quan hi ha tant esquer i tan poca substància). En termes pràctics, estem vivint en un ecosistema on la part sintètica té un pes significatiu en allò que es veu i es comparteix, tot i que, afortunadament, encara conviu amb una producció humana robusta.
Què significa per al SEO i per a les marques
Per a professionals del màrqueting, creadors de contingut i marques que hagin arribat fins aquí de l’article, aquest panorama planteja nous reptes i estratègies. Si una part d’Internet s’està omplint de contingut artificial i de fals engagement, com es pot destacar i generar confiança enmig del soroll? Aquí tens algunes claus:
- L’avantatge passa de “publicar més” a “demostrar més”: En una web inundada de continguts genèrics, la diferenciació serà en la qualitat i la credibilitat. Ja no n’hi ha prou amb tenir molt contingut: cal tenir millor contingut. Això vol dir aportar proves de vida humana en allò que publiques. Comparteix experiències reals (exemples concrets i casos d’estudi propis), inclou dades originals o insights únics de la teva empresa, mostra fotografies o captures pròpies (no només stock photos genèriques) i sigues transparent amb l’autoria. Bàsicament: demostra que saps de què parles perquè ho has viscut o treballat directament. El mateix Google premia aquests esforços: com hem vist, les seves guies E-E-A-T valoren l’experiència real i la fiabilitat. En paraules d’experts en SEO, “el repte no és només aparèixer als resultats, sinó convèncer Google i els usuaris que realment saps de què parles”. Les marques que mostrin coneixement genuí i autoritat veuran recompensada la seva visibilitat davant dels llocs impersonals.
I sé que potser fa respecte: el contingut generat per intel·ligència artificial sembla perfecte —gramàtica impecable, inclou totes les paraules clau i fa servir les imatges adequades en el moment adequat—, però no té essència. Recuperem la subjectivitat, les opinions pròpies i els errors humans que ens caracteritzen.
El famós copywriter Isra Bravo ha arribat a ser el més cotitzat i influent justament per aquesta essència. Llegir Isra se sent com tenir una conversa en persona amb ell. I no, no és una experiència professional ni perfecta, però tampoc ho som els humans.
- Menys “contingut genèric”, més “contingut amb proves”: Reavalua la teva estratègia de contingut. Si fins ara consistia a produir articles superficials per cobrir totes les keywords, és hora de canviar de rumb. Cada peça de contingut que publiquis hauria de tenir un propòsit clar i oferir alguna cosa que ningú més no ofereixi igual: ja sigui una opinió experta, un tutorial pas a pas basat en la teva experiència, una anàlisi amb dades internes, etc. Evita el farciment SEO sense valor. Pensa que qualsevol text purament recopilatori que facis, una IA el podria fer igual… o ja l’han fet 10 competidors. Aposta per la profunditat abans que per l’amplitud. És preferible un article excel·lent que resolgui de veritat la intenció de l’usuari, que no pas cinc articles mediocres que diuen el mateix que hi ha a altres llocs. A més, aquest contingut de qualitat és més resistent a futures actualitzacions d’algoritme, perquè estarà alineat amb allò que Google busca (utilitat i fiabilitat). En resum: inverteix en contingut diferencial, amb el teu segell i evidència pròpia, perquè això et farà destacar enmig d’un mar de pàgines clonades.
- Construeix canals propis i comunitat: En un entorn on dependre únicament de l’algoritme de Google o de les xarxes és arriscat (perquè poden estar saturats de soroll sintètic o canviar les regles), les marques intel·ligents reforcen els seus canals directes. Tens una newsletter per correu per als teus clients o seguidors fidels? Espais on tu controles el missatge i parles amb humans que t’han donat el seu permís guanyen més valor. Per exemple, moltes empreses estan revitalitzant l’email màrqueting via newsletters molt cuidades, per no dependre que el post a Facebook arribi a l’audiència (imaginem que a Facebook, a sobre, l’abast orgànic està ple de bots o de posts brossa que competeixen amb el teu). El mateix passa amb les comunitats pròpies: un grup d’usuaris lleials al voltant de la teva marca et donarà feedback real i difusió genuïna, difícil de falsificar amb bots. Menys dependència del feed algorítmic, més connexió directa amb el teu públic. Això no només et protegeix del soroll extern, sinó que reforça la confiança: la gent preferirà fonts que sent properes i autèntiques, en contrast amb la informació impersonal que abunda a fora.
I si t’interessa aquesta idea des d’un angle més estratègic (menys dependència de plataformes i més control), et pot encaixar aquest altre article de Zausen sobre el camí cap a webs més autònomes.
En conclusió, l’anomenada “teoria de l’Internet mort” ens alerta d’un problema real: no cal que Internet estigui del tot mort perquè la nostra experiència se’n ressenti. Avui, una part significativa del web és soroll sintètic: continguts i accions automatitzades que competeixen per la nostra atenció. Per als usuaris, el repte és aprendre a navegar amb criteri, buscant senyals de vida real al darrere del que consumim. Per a les marques i els creadors, el repte és mantenir la humanitat en el contingut — demostrar amb fets, experiència i proximitat que al darrere de cada article, post o producte hi ha persones reals aportant valor. Aquells que ho aconsegueixin no només sobreviuran en aquest mar de soroll, sinó que guanyaran la confiança i la fidelitat d’una audiència àvida d’autenticitat enmig de la confusió digital.
