Im Kaninchenbau der Social-Media-Algorithmen

Wie Algorithmen unser Weltbild prägen – und warum wir das verstehen sollten.

Grafik eines blonden Mädchens im hellblauen Kleid, das auf eine digitale Weltkugel blickt, die von Herz- und Daumen hoch-Symbolen umgeben ist. Ein weißes Kaninchen läuft in Richtung Weltkugel.

Eigentlich wollte ich nur schnell das Rezept für den viralen Gurkensalat nachschlagen. Ein Video - zwei Minuten, so der Plan. Zwei Stunden später lege ich das Handy zur Seite und habe eine wilde Reise durch die Untiefen der Kurzvideos hinter mir: vom Gurkensalat über Fitnesstipps, mehlmalenden Tradwives und Ikea-Hacks bis hin zu KI-generiertem, sprechendem Obst, das mir erklärt, wie es gelagert werden möchte.

Wie Alice im Wunderland bin ich in ein digitales ‘Rabbit Hole’ (dt.: Kaninchenbau) gestolpert – ein Phänomen, das Nutzer:innen aller Altersgruppen kennen. Doch dieser scheinbar harmlose Zeitvertreib ist kein Zufall, sondern das Werk präziser Technologie. Empfehlungsalgorithmen entscheiden, welche Inhalte wir in welcher Reihenfolge sehen. Dabei haben sie mehr Einfluss auf uns, als uns lieb ist.

Vom Freundesnetzwerk zum Kurzvideo-Feed

Social-Media-Plattformen haben ihren Fokus in den letzten Jahren deutlich verschoben. Früher ging es vorwiegend darum, sich mit Bekannten zu vernetzen. Heute dominieren Feeds, die vor allem aus Kurzvideos bestehen – kuratiert von Algorithmen. Mit dem Ziel, uns möglichst lange auf der Plattform zu halten, werden unsere Vorlieben und Interessen genau protokolliert: Welche Inhalte wir wie lange ansehen, welche wir wegwischen und welche wir liken, kommentieren, teilen und speichern. Daran angepasst werden uns jene Inhalte angezeigt, die uns (vermeintlich) interessieren. So entsteht für jede:n Nutzer:in ein einzigartiges Informationsuniversum (Stichwort: Filterblase).

Angesichts der schieren Masse an Inhalten sind solche Filter zwar unverzichtbar. Doch sie haben ihren Preis: Wir sehen, was die Algorithmen für relevant halten – und das ist nicht immer das, was uns gut informiert.

Algorithmen als Gatekeeper

Laut dem Reuters Digital News Report 2025 nutzen 35% der Österreicher:innen Social-Media-Plattformen als Hauptnachrichtenquelle – genauso viele (35%) wie Printzeitungen. 2015 lag der Anteil der Printleser:innen noch bei 71%. Social-Media-Plattformen übernehmen immer mehr die Rolle der “Gatekeeper”, die zuvor die Redaktionen traditioneller Medien innehatten: Sie bestimmen, welche Informationen für uns mit welcher Priorisierung angezeigt werden. Im Unterschied zu Redaktionen folgen Algorithmen dabei jedoch keinen ethischen Leitlinien, sondern wirtschaftlichen Interessen. Sie priorisieren Inhalte, die Aufmerksamkeit generieren und Nutzer:innen möglichst lange binden, damit diese mehr maßgeschneiderte Werbung konsumieren.

Wie Algorithmen unser Denken prägen

Die Inhalte, die wir tagtäglich konsumieren, beeinflussen auch, wie wir die Welt wahrnehmen und uns Meinungen bilden. Algorithmen stellen die Relevanz von Inhalten vor allem anhand unserer Interaktion damit fest. Um hohe Interaktionsraten zu erzielen, ist das Design der Social-Media-Plattformen dementsprechend bewusst so gehalten, dass wir möglichst schnell, intuitiv, automatisch und ohne willentliche Kontrolle reagieren. Ebendiese raschen, menschlichen Reaktionen sind aber auch fehler- und manipulationsanfällig. In Kombination mit nach Interaktion strebenden Algorithmen ergeben sich daraus gefährliche Wechselwirkungen:

  • Emotionalisierung: Mit emotionalisierenden, provokanten und negativen Inhalten wird eher interagiert. Dadurch erhalten diese Beiträge (z.B. populistische Inhalte) mehr Reichweite und sorgen in weiterer Folge für einen verzerrten Eindruck des Meinungsklimas, da die gemäßigte Mehrheit oft weniger Reichweite erlangt.
  • Bestätigungsfehler (Confirmation Bias): Man sucht und bevorzugt eher jene Informationen, die die eigenen bestehenden Überzeugungen stützen. Basierend darauf können sich in Wechselwirkung mit Algorithmen Echokammern entwickeln, in denen die Nutzer:innen stets Inhalte konsumieren, die ihre eigenen Standpunkte widerspiegeln. Bei bestehendem extremen Gedankengut kann so Radikalisierung verstärkt werden (siehe dazu auch unsere Artikel zur Manosphere, islamistischer Radikalisierung und rechtsextremer Radikalisierung).
  • WYSIATI-Effekt (“What you see is all there is”): Menschen tendieren dazu, auf Basis begrenzter, unvollständiger Informationen sofortige Urteile zu fällen, da das Gehirn die gerade verfügbaren Informationen unbewusst für das vollständige Bild hält. Auf Social-Media-Plattformen wird dieser Effekt dadurch begünstigt, dass die Nutzer:innen z.B. bei Artikeln oft nur eine verkürzte Vorschau, die Überschrift, das Vorschaubild oder begleitende Kommentare wahrnehmen, anstatt den eigentlichen Inhalt vollständig zu lesen.
  • “News-finds-me”-Effekt: Vor allem junge Menschen suchen oft kaum mehr aktiv nach Nachrichten, sondern verlassen sich darauf, dass wichtige Informationen automatisch in ihrem Feed auftauchen, was zu fehlender Informationstiefe und einer Abhängigkeit von der algorithmischen Kuratierung führt.

Algorithmische Kompetenz

Wer versteht, wie Empfehlungsalgorithmen funktionieren, kann ihre Effekte besser einordnen. Ein bewusster Umgang mit dem eigenen Feed hilft, problematische Dynamiken zu durchbrechen:

  • Positive Inhalte bestärken: Bereichernde Inhalte liken, teilen, kommentieren und speichern; aktiv nach gewünschten Themen und vertrauenswürdigen Quellen suchen;
  • Negative Inhalte reduzieren: unerwünschte Inhalte mit “kein Interesse” markieren, stummschalten oder entfolgen; Trigger-Wörter blockieren um spezifische Hashtags oder Themen auszublenden;
  • den personalisierten Feed in den Einstellungen deaktivieren oder zurücksetzen
  • bewusste Social Media-Zeitbeschränkungen (Tipps dazu siehe hier)

Im schulischen Kontext ist es daher wichtig, mit den Schüler:innen nicht nur über Inhalte, sondern auch über die Mechanismen dahinter zu sprechen. Wer versteht, dass Feeds keine neutrale Abbildung der Realität sind, sondern vor allem wirtschaftlichen Interessen folgen, kann Informationen reflektierter einordnen, Quellen bewusster auswählen und die eigenen Nutzungsgewohnheiten eher hinterfragen. Algorithmische Kompetenz ist damit ein wesentlicher Bestandteil zeitgemäßer Medienbildung – und eine Voraussetzung dafür, sich selbstbestimmt im digitalen „Kaninchenbau“ zu bewegen, statt sich darin zu verlieren.


Ideen
BildDB