Dead Internet.png
Tjitske
Tjitske Co-Founder
Mittwoch, 2. Juli 2025

Dead Internet Theory: Wie KI das Web „tötet“

Warum dieses Thema wichtig ist

Das Internet galt lange als das größte Kommunikationswerkzeug der Menschheit. Es wurde zum grenzenlosen Raum für Kreativität, Austausch, Entdeckung und Zusammenarbeit. Von den ersten Foren und Blogs bis zum Siegeszug der sozialen Medien und des sofortigen Wissenszugriffs wirkte das Netz lebendig, spannend und zutiefst menschlich.

Doch in den letzten Jahren hat sich eine neue Unruhe breitgemacht: Ist das Internet wirklich noch so lebendig, wie es scheint? Oder wird es zunehmend von künstlicher Intelligenz, Bots und Algorithmen übernommen und zu einer synthetischen Geisterstadt verwandelt?

Genau das steht im Zentrum der Dead Internet Theory. Diese Idee, die seit den späten 2010er Jahren viral ging und unter anderem vom Wissenschaftskommunikator Kyle Hill aufgegriffen wurde, besagt, dass ein immer größerer Teil der Online-Aktivitäten nicht mehr von Menschen, sondern von Maschinen gesteuert wird. Sichtbarkeit, Relevanz und Authentizität menschlichen Handelns nehmen laut dieser Theorie kontinuierlich ab.

Warum ist das gerade jetzt so wichtig?

Das Ausmaß ist erschreckend. Sicherheitsstudien schätzen, dass 2023 fast die Hälfte des gesamten Internetverkehrs von Bots stammte. Dazu gehören Suchmaschinen, Webcrawler, Scraper, aber auch manipulative Bots, die Spam verbreiten oder Desinformation streuen.

Auch Suchmaschinenbetreiber geben zu, dass ihre Ergebnisse immer mehr mit Inhalten gefüllt sind, die für Algorithmen statt für Menschen optimiert wurden. Das schmälert die Qualität der Online-Suche erheblich.

Große Medienhäuser warnen vor einer „feindlichen“ Entwicklung des Netzes. Manipulation, massenhaft produzierte, bedeutungslose Inhalte und Echokammern verdrängen echte Gespräche und Kreativität.

Die Auseinandersetzung mit der Dead Internet Theory ist kein rein theoretisches Gedankenspiel. Es geht um Vertrauen, Demokratie, mentale Gesundheit, Medienintegrität und die Zukunft der digitalen Gesellschaft. Wenn das Netz unser neuer Marktplatz ist, bleibt die Frage: Wer spricht hier eigentlich noch?

Zentrale Herausforderungen, die dieses Thema adressiert

Die Dead Internet Theory berührt zahlreiche, eng miteinander verknüpfte Herausforderungen, die unser digitales Leben nachhaltig verändern:

Bot-Sättigung und Desinformation

Bots sind automatisierte Programme, die Aufgaben im Internet ausführen. Sie helfen nicht nur beim Indexieren von Websites, sondern werden auch zunehmend dazu eingesetzt, menschliches Verhalten nachzuahmen, Followerzahlen zu verfälschen, Trends zu inszenieren oder Propaganda zu verbreiten. Laut einer Cybersicherheitsstudie von 2023 stammten etwa 47 Prozent des gesamten Webverkehrs von nicht-menschlichen Quellen. Das ist ein Wert, der sich zwar verändert, aber dauerhaft hoch bleibt.

Soziale Netzwerke sind besonders anfällig. Studien aus der Informatik belegen, dass während politischer Ereignisse mehr als 20 Prozent der Aktivität auf Plattformen wie Twitter oder X von Bots stammt. Diese Bots werden mit Desinformationskampagnen, der Verbreitung von Verschwörungstheorien und der Manipulation von Produktbewertungen und Meinungen in Verbindung gebracht.

Flut von KI-generierten Inhalten

Durch den rasanten Fortschritt von Künstlicher Intelligenz ist es möglich geworden, in Sekunden riesige Mengen an Texten, Bildern und sogar Videos zu erstellen. Nachrichtenwebseiten, E-Commerce-Plattformen und selbst wissenschaftliche Publikationen sind zunehmend mit KI-generierten Artikeln, gefälschten Produktbeschreibungen und Spam-Kommentaren überschwemmt.

Branchenbeobachter warnen: Setzt sich dieser Trend fort, könnte künftig fast jeder Webinhalt maschinell erstellt sein. Die Einstiegshürden sind niedrig. Jeder mit einem Prompt kann überzeugende Texte, realistische Bilder oder sogar digitale Persönlichkeiten produzieren. Diese Inhalte werden für Betrug, Monetarisierung oder reine Platzverschwendung genutzt—und verdrängen echte Stimmen aus dem Netz.

Vertrauensverlust und fehlende Authentizität

Mit der Flut von KI- und Bot-Inhalten fällt es Nutzern immer schwerer, echtes von künstlichem Material zu unterscheiden. Virale Bilder und Memes wie das absurde „Shrimp Jesus“ erreichten Hunderttausende, bevor klar wurde, dass sie von einer KI erstellt worden waren.

Traditionelle Glaubwürdigkeitszeichen wie Likes, Shares oder Kommentare sind manipulierbar geworden. Automatisierte „Like-Farmen“ und Botnetzwerke können jeden Beitrag populär erscheinen lassen. Was wirklich gefragt oder originell ist, bleibt oft unklar.

Algorithmische Manipulation

Plattform-Algorithmen sind darauf ausgelegt, möglichst viel Engagement zu erzeugen—nicht aber Wahrheit oder Wert. So werden vor allem Inhalte gefördert, die polarisieren, schockieren oder einfach massenhaft vorhanden sind. Genau das kann KI massenhaft bereitstellen, während differenzierte Stimmen schnell untergehen.

Diese algorithmische Verzerrung ist oft kein Zufall, sondern das Ergebnis eines Teufelskreises: Plattformen optimieren für Aufmerksamkeit—selbst wenn Qualität, Sicherheit oder Menschlichkeit auf der Strecke bleiben.

Verlust an kreativer Vielfalt

Wenn KI massenhaft Inhalte produziert, gleichen sich diese oft. Generative Modelle greifen auf vorhandene Daten zurück, wiederholen Muster, Klischees und gesellschaftliche Vorurteile. Nischengemeinschaften, Subkulturen und Minderheiten drohen von einer Welle an beliebigen, uninspirierten Inhalten überrollt zu werden. Kritiker sprechen von der „Einebnung“ des Internets.

Innovative Lösungen und Anwendungen

Trotz der ernsten Herausforderungen arbeiten Technik, Medien und Politik an kreativen Antworten:

KI-Erkennungstools

Immer mehr Unternehmen und Startups entwickeln Algorithmen, die KI-Inhalte erkennen können. Sie analysieren Textmuster, Metadaten oder Bildsignaturen, um zwischen maschinellen und menschlichen Inhalten zu unterscheiden.

Bild-Plattformen nutzen etwa Wasserzeichen oder Metadaten, um KI-Bilder zu kennzeichnen. Wissenschaftsjournale setzen auf ähnliche Ansätze, um Fake-Studien und „Paper Mills“ fernzuhalten.

Plattformverantwortung und Verifikation

Um Missbrauch durch Bots einzudämmen, verlangen viele Plattformen mittlerweile strengere Identitätsprüfungen, etwa per Telefonnummer oder Ausweis. Es gibt transparentere Berichte über gelöschte Bots und neue „blaue Haken“ zur Verifikation echter Menschen.

Soziale Netzwerke testen zudem Offenlegungspflichten für Bots und mehr Transparenz bei Empfehlungsalgorithmen.

Gesetzliche Regelungen

Staaten und internationale Organisationen reagieren mit neuen Vorgaben. Australien veröffentlichte 2022 ethische KI-Grundsätze mit Fokus auf Transparenz. Die Europäische Union verlangt mit dem Digital Services Act und dem anstehenden AI Act eine Kennzeichnung von KI-Inhalten und Strafen für Missbrauch.

Denkfabriken und Verbände erarbeiten Modellgesetze und Branchenstandards.

Förderung menschlicher Inhalte

Führende Stimmen aus Journalismus, Wissenschaft und Technologie setzen sich für eine Renaissance des Menschlichen ein. Ziel ist es, persönliche Geschichten, investigative Recherchen und echte Stimmen gezielt zu stärken und so der „KI-Flut“ entgegenzuwirken. Einige Plattformen schaffen spezielle Bereiche für verifizierte menschliche Inhalte.

Medienkompetenz und kritisches Denken

Bildungseinrichtungen, NGOs und Aufsichtsbehörden setzen verstärkt auf digitale Medienkompetenz: Nutzer lernen, KI-Inhalte zu erkennen, Quellen zu prüfen und Manipulation zu entlarven. Skepsis und kritisches Denken werden zu Schlüsselkompetenzen.

Transformationale Auswirkungen auf Branche und Gesellschaft

Die Debatte um die Dead Internet Theory, ob sie nun wörtlich oder als Metapher verstanden wird, verändert Branchen, Technik und Gesellschaft nachhaltig.

Medien und Journalismus

KI-generierte Artikel, Fake News und Bot-Aktivität bedrohen nicht nur Geschäftsmodelle, sondern auch die Grundlagen demokratischer Debatten. Redaktionen investieren wieder verstärkt in Recherche und Originalität oder entwickeln gemeinsam mit Wissenschaftlern bessere Prüftools.

Marketing und Werbung

Marken, die früher auf virale Inhalte und Influencer setzten, erleben eine Vertrauenskrise. Mit der Verbreitung von Bots und virtuellen Influencern schwindet das Vertrauen der Konsumenten. Echte Geschichten und Transparenz werden zu neuen Qualitätsmerkmalen.

Plattformdesign und Technologie

Große Plattformen überdenken ihre Algorithmen. Statt bloßer Klick-Optimierung gewinnen neue Kennzahlen wie Verweildauer, echte menschliche Interaktion und Community-Impact an Bedeutung.

Gesellschaftliches Vertrauen

Der tiefgreifendste Wandel betrifft das Vertrauen selbst. Wenn Nutzer nicht mehr glauben, was sie online sehen, nehmen Zynismus und Rückzug zu. Das gefährdet Teilhabe, psychische Gesundheit und gesellschaftlichen Zusammenhalt.

Öffentliche Institutionen schaffen verifizierte Kanäle und kooperieren mit Tech-Firmen, um Desinformation einzudämmen.

Fallstudien und Anwendungsbeispiele

Einige reale Beispiele illustrieren die Dead Internet Theory eindrucksvoll:

Fallstudie 1: Das „Shrimp Jesus“-Meme

2023 verbreitete sich ein KI-generiertes Bild—eine absurde Mischung aus einer Garnele und Jesus—rasend schnell auf Social Media. Analyse zeigte, dass viele Interaktionen von Bots stammten. Das Beispiel zeigt, wie KI-Inhalte Aufmerksamkeit und Kulturereignisse kapern können.

Fallstudie 2: Politische Bots bei Wahlkämpfen

In den US-Wahlen 2020 und 2024 dokumentierten Forscher, wie Botnetze gezielt eingesetzt wurden, um politische Botschaften zu verbreiten, Gegner zu attackieren und Desinformation zu streuen. Bis zu 20 Prozent der politischen Inhalte stammten in Spitzenzeiten von Bots.

Fallstudie 3: KI-Content-Farmen und SEO-Spam

Mit dem Aufkommen leistungsfähiger KI-Tools begannen Betreiber, tausende minderwertige Texte und Produktbeschreibungen zu produzieren, um Suchmaschinen auszutricksen und Werbeeinnahmen zu generieren. Suchmaschinen mussten ihre Algorithmen anpassen, der Kampf geht weiter.

Fallstudie 4: Virtuelle Influencer

2023 experimentierten Marketingagenturen mit KI-generierten Influencern, die binnen Monaten Millionen Follower sammelten. Nach Enthüllungen über gefälschte Follower und Bots geriet die Branche unter Druck und verlor Vertrauen.

Fallstudie 5: KI in der Wissenschaft

2022 und 2023 zogen Wissenschaftsverlage zahlreiche Paper zurück, die zumindest teilweise von KI erzeugt wurden. Neue Prüftools und strengere Peer-Reviews sind die Folge.

Ethische, Datenschutz- und Regulierungsfragen

Die Ausbreitung synthetischer Inhalte wirft neue Fragen auf:

Transparenz versus Manipulation

Sollte KI-Content immer gekennzeichnet werden? Wer trägt die Verantwortung—Plattformen, Staaten oder Ersteller? Ohne klare Kennzeichnung wächst das Manipulationsrisiko.

Datenschutz und Überwachung

Bots und KI sammeln auch massenhaft Daten. Damit steigen die Risiken für Überwachung, Datenmissbrauch und Profilbildung. Datenschutzregeln müssen Schritt halten.

Bias und Fairness

KI spiegelt oft gesellschaftliche Vorurteile aus ihren Trainingsdaten. Künstliche Inhalte können Ungleichheiten verschärfen oder schädliche Stereotype weitertragen. Ethische Standards sind unerlässlich.

Mentale Gesundheit und Vertrauen

Manipulativer oder inauthentischer Content belastet die psychische Gesundheit, vor allem bei Jugendlichen oder einsamen Menschen.

Politik und Aufsicht

Der Digital Services Act der EU, US-Diskussionen zu Section 230 und Australiens KI-Ethikprinzipien sind Beispiele für neue Regulierungen. Effektive Aufsicht erfordert internationale Zusammenarbeit und technologische Innovation.

Ausblick und Chancen

Die Dead Internet Theory zeigt auch Potenziale und Innovationen auf:

Erkennungstechnologien

KI-Erkennung, Wasserzeichen und Herkunftsnachweise werden sich weiterentwickeln und könnten Standard werden.

Hybride Plattformen

Neue soziale Netzwerke verbinden KI-gestützte Moderation mit Fokus auf echten, überprüften Gemeinschaften.

Zusammenarbeit Mensch-KI

Die Zukunft der KI liegt nicht in der Verdrängung, sondern der Unterstützung des Menschen—bei Recherche, Kreativität und Faktenchecks bleibt menschliche Kontrolle zentral.

Bildungsrevolution

Medienkompetenz wird Pflichtstoff: Schulen und Hochschulen lehren den kritischen Umgang mit Quellen und KI-Inhalten.

Ethische KI-Standards

Transparenz, Erklärbarkeit und Einwilligung gewinnen als Industriestandards an Bedeutung. Sie sind essenziell für Vertrauen und Werteorientierung.

Aufruf zum Handeln

Die Zukunft des Internets ist nicht vorherbestimmt. Sie entsteht durch die Entscheidungen von Milliarden Nutzerinnen, Machern, Entwicklern und Politikern. Je stärker die Grenzen zwischen Mensch und Maschine verschwimmen, desto größer unsere Verantwortung.

Fordern Sie Transparenz: Bestehen Sie auf eindeutiger Kennzeichnung von KI-Inhalten auf allen Plattformen

Setzen Sie auf Authentizität: Teilen Sie Ihre echte Stimme, unterstützen Sie echte Kreative

Bleiben Sie wachsam: Erkennen Sie Manipulation, stellen Sie kritische Fragen und helfen Sie anderen dabei

Fördern Sie ethische Technologie: Fordern Sie, dass Plattformen und Gesetzgeber menschliche Werte in den Mittelpunkt digitaler Innovation stellen

Damit das Internet ein lebendiger, menschlicher Ort bleibt, müssen wir alle daran arbeiten, Authentizität, Vertrauen und kreative Energie zu bewahren.

Bleiben Sie mit unserer Plattform verbunden, abonnieren Sie für tiefgehende Analysen und gestalten Sie die digitale Zukunft mit uns auf AISubscriptions.io

Dieser Blogbeitrag basiert auf Forschung, Expertenmeinungen und Analysen aus Kyle Hills „Dead Internet Theory: A.I. Killed the Internet“, großen Medien und wissenschaftlichen Studien aus den Jahren 2024 und 2025. Quellenangaben sind auf Anfrage erhältlich.

Vergleichen 0