Sieć zalewają boty i generatywne teksty, a znalezienie rzetelnej informacji bywa trudniejsze niż kiedykolwiek. Wokół tego narosła „teoria martwego internetu” – kusząca w swojej prostocie, ale mieszająca mierzalne zjawiska (wzrost ruchu botów, farmy treści) z elementami spekulacji. Zanim przełożymy to na praktykę content marketingu, warto oddzielić fakty od narracji i zobaczyć, co mówią aktualne dane.
📝 Czego dowiesz się z tego artykułu:
- czym jest „teoria martwego internetu” i jakie ma realne podstawy,
- czy AI faktycznie trenuje na treściach AI (i czym grozi „zapętlenie” danych),
- jak to wpływa na content marketing, SEO, UX i decyzje zakupowe,
- jakie praktyki pomagają tworzyć treści odporne na „uśrednienie” internetu.

„Teoria martwego internetu” głosi, że od kilku lat większość sieci to treści i interakcje tworzone przez boty oraz algorytmy, a ludzka aktywność została wyparta. Popularność zyskała kilka lat temu po wpisie „Dead Internet Theory: Most of the Internet Is Fake” opublikowanym na forum Agora Road’s Macintosh Cafe; od tego czasu temat szeroko opisywały media i serwisy encyklopedyczne. Ważne: to, co mierzalne (dużo botów i automatyzacji), bywa łączone z mocnymi hipotezami o sterowaniu całym internetem – i te elementy należy rozdzielać.
Dane z 2025 r. potwierdzają, że ruch "nie-ludzki" stanowi istotną część sieci. Według najnowszego „Bad Bot Report 2025” Impervy, „złe boty” to już 37% całego ruchu, a łączny ruch zautomatyzowany przekroczył 50% (51% wszystkich odsłon), co oznacza, że ruch maszynowy przewyższył ludzki.
Jednocześnie rośnie skala stron tworzonych automatycznie. NewsGuard zidentyfikował 1 271 serwisów z „AI-generated news” działających przy minimalnym nadzorze ludzi (stan na 5 maja 2025 r.). To nie cały internet, ale wystarczająco duża skala, by zaburzać wyszukiwanie i dystrybucję reklam, zwłaszcza w tematach „long tail”. Internauci w ostatnich miesiącach i latach stali się nad wyraz sceptyczni: niemal wszystko, co widzą w sieci, muszą weryfikować pod kątem prawdziwości. I nie chodzi tylko o memy czy błahostki - ale przede wszystkim o informacje polityczne, finansowe, kulturalne, w tym zdjęcia i materiały wideo. Wszystko da się obecnie stworzyć tak, by wyglądało niepokojąco prawdziwie - przez co ginie wiarygodność, a zaufanie coraz ciężej zdobyć.

Część analiz wskazuje, że udział treści AI nie musi rosnąć wykładniczo w każdym obszarze. Np. raport firmy Graphite sugeruje, że w świeżym przekroju sieci udział tekstów AI i ludzkich jest zbliżony, a nawet po krótkim „wyskoku” treści AI zostały zrewidowane w rankingach – co pokazuje, że ekosystemy wyszukiwarek i użytkownicy adaptują się do nowego stanu.
Modele językowe uczą się na ogromnych zbiorach danych z sieci. Gdy coraz większa część internetu jest generowana przez modele, rośnie ryzyko „zamkniętej pętli”: nowe modele trenują na danych wygenerowanych przez starsze, co doprowadza do zubożenia rozkładu danych i spłaszcza rzadkie, wartościowe treści czy przypadki. Zjawisko to opisano jako „model collapse” (na grafice poniżej) – najpierw teoretycznie i eksperymentalnie (Shumailov i in., 2023), a potem rozwinięto statystycznie z pokazaniem progów, przy których mieszanka danych prawdziwych i syntetycznych uniknie degradacji (Seddik i in., 2024). Wniosek: trening wyłącznie na danych syntetycznych prowadzi do degradacji, ale mieszanie z dobrze nadzorowanym „real world data” może problem przynajmniej trochę ograniczać.
W praktyce to oznacza presję na proweniencję danych (oznaczanie źródeł i metadanych), filtrowanie zbiorów z crawlów oraz większą wagę dla danych 1P/0P (first party / zero party; własne badania, logi produktu, transkrypty rozmów z klientami). To też argument za tym, by marki i wydawcy publicznie dokumentowali źródła i metodologię, bo takie treści mają wyższą wartość treningową i rankingową niż wtórne parafrazy. Zawsze miały, a w niedalekiej przyszłości będą mieć jeszcze bardziej.

Pierwszy efekt to homogenizacja: wiele materiałów „brzmi tak samo”, bo korzysta z tych samych streszczeń, promptów i źródeł. W takim środowisku przewagę zyskują treści z dowodem: własnymi danymi, case studies, eksperymentami, kalkulatorami, repozytoriami plików – czymś, czego nie da się łatwo „uśrednić”. To nie tylko kwestia reputacji; to także lepsze sygnały jakości (czas na stronie, linki przychodzące, cytowania), które chronią przed kanibalizacją i spadkami w SERP. Z drugiej strony, pojawienie się tysięcy automatycznych serwisów „newsopodobnych” zwiększa szum i ryzyko przepalania budżetów na dystrybucję – dlatego rośnie rola własnych kanałów (newsletter, społeczność, eventy) i selektywnej syndykacji.
Wyszukiwarki (i warstwa odpowiedzi AI) mają dziś łatwiej „skleić” odpowiedź z wielu podobnych tekstów, ale użytkownicy częściej oczekują dowodu: źródeł, metodologii, wideo z produktem, porównań „X / Y”. Popularność szybkich odpowiedzi, generowanych przez AI (np. google'owe AI Overviews), sprawia, że ludzie nie ufają za bardzo zsyntetyzowanej wiedzy, często bogatej w błędy, pomyłki, niedomówienia. Nadmiar wtórnych treści podnosi koszt poznawczy – szybciej docieramy do odpowiedzi skrótowej, ale dłużej weryfikujemy wiarygodność. W praktyce wygrywają serwisy, które łączą krótki „tl;dr” u góry z transparentnym uzasadnieniem niżej (cytowane źródła, dane surowe, sposób pomiaru). To samo dotyczy zakupów: rośnie wpływ recenzji zweryfikowanych, demonstracji produktu „z twarzą” oraz testów porównawczych z jasnym protokołem – elementów trudnych do podrobienia przez farmy treści.
➡️ W tym kontekście polecamy nasz artykuł: Content marketing z AI: strategia zamiast masówki. Customer journey, SEO i GEO
(Dla kontekstu liczb: ruch botów >50% i 37% „złych botów” wg Impervy; >1,2 tys. serwisów z AI-news wg NewsGuard. To uzasadnia, czemu powyższe praktyki nie są „ładnym dodatkiem”, tylko koniecznością.)
Platformy i wyszukiwarki nie stoją w miejscu: dostosowują algorytmy rankingowe i systemy moderacji do nowej fali treści.
Rosną na znaczeniu sygnały jakości, które trudniej „podrobić”. Autorstwo i ekspertyza (realni autorzy z historią publikacji), aktualność i konserwacja treści (widoczny dziennik zmian), interakcje użytkowników wskazujące na rzeczywistą użyteczność (zachowania po kliknięciu, powroty, zapisy). Do tego dochodzą inicjatywy „provenance” — techniczne sposoby znakowania pochodzenia treści (np. podpisy cyfrowe, osadzone metadane), które w przyszłości mogą stać się powszechnym filtrem wiarygodności. Po stronie reklamowej widać też większą ostrożność platform w dopuszczaniu powierzchni dla wydawców o wątpliwej jakości: to nie „zabije” farm treści, ale zawęzi ich zasięg i rentowność.
Ocena skuteczności contentu musi wyjść poza same odsłony i średni czas na stronie. W praktyce warto dodać trzy warstwy:
Raporty warto budować na dwóch horyzontach: krótkim (aktywność, wstępne konwersje) i długim (pipeline, LTV, retencja). Dzięki temu materiał, który nie „wystrzeli” viralowo, może i tak bronić się wpływem na sprzedaż.
Raczej nie w formie jednego, spektakularnego wyłączenia. Bardziej prawdopodobny jest „reset miękki”. Czyli stopniowe przechodzenie użytkowników do oaz jakości — treści za paywallem, społeczności tematyczne, newslettery, prywatne grupy, zamknięte bazy wiedzy — przy jednoczesnym istnieniu masowej warstwy uśrednionych informacji. Wyszukiwarki będą coraz częściej zachęcać do weryfikacji źródeł i pokazywać krótkie odpowiedzi z możliwością „zejścia głębiej” w materiały źródłowe. Dla marek oznacza to konieczność posiadania własnych mediów (kanałów, gdzie masz pełną kontrolę nad dystrybucją i relacją z odbiorcą) oraz treści, które bronią się dowodem, a nie tylko słowem.
W erze łatwego generowania i miksowania materiałów rośnie znaczenie podstaw: prawa autorskie, licencje na obrazy i muzykę, zgody na wykorzystanie danych, ochrona wizerunku. Równie ważna jest odpowiedzialność za błędy — polityka fact-checkingu, szybkie korekty, wyraźne oznaczanie aktualizacji i ścieżka kontaktu dla czytelników. Jeżeli wspierasz się AI, zadbaj o przejrzystość (disclosure) i procedury ograniczające ryzyko publikacji treści wprowadzających w błąd: lista tematów „wysokiego ryzyka”, które wymagają pracy eksperta i recenzji, a nie samej automatyzacji.

Umieranie internetu to w gruncie rzeczy reakcja na dwie rzeczy: masowe, podobne do siebie treści oraz coraz większy udział automatów w ruchu i publikacjach. Trzeba przyjąć, że trwa stałe przesuwanie punktu ciężkości: od ilości do dowodu, od ogólnych poradników do materiałów z metodologią i danymi, od pełnej zależności od SERP do własnych kanałów i powracających odbiorców. Dla content marketingu to następujący sygnał — kto potrafi pokazać realne doświadczenie, dane 1P i konkretny rezultat dla użytkownika, ten zyskuje przewagę, której nie da się łatwo „uśrednić”.
Obrona przed „martwym internetem” wygląda operacyjnie: audyt i higiena biblioteki treści, plan filarów z wkładem własnym, redakcyjne standardy i przejrzystość, formaty, które niosą wartość poza słowami, oraz pomiar wpływu na popyt i sprzedaż. To nie jest jednorazowa akcja, lecz proces — ale prowadzi do stabilnej widoczności, większego zaufania i rosnącego udziału ruchu, który naprawdę coś znaczy.
