Der Freytag: Algorithmische Wahrheiten – Von Filterblasen und der Verführung der Bestätigung

Die 35. Bamberger Hegelwoche neigt sich ihrem Ende zu, ein letztes Mal führt mich der Weg durch die nun kühlere Abendluft zur Universität. Nach zwei Abenden voller philosophischer Wendungen und narrativer Fallstricke wartet der finale Vortrag – und mit ihm eine Referentin, die uns von den gefühlten zu den berechneten Wahrheiten führen wird. Dr. Veronika Solopova von der TU Berlin betritt die Bühne mit einer Frage, die unsere Zeit prägt wie keine andere: Können wir den Algorithmen vertrauen, die längst über das bestimmen, was wir für wahr halten?

„Algorithmische Wahrheit? KI und Vertrauen im Web“ – so der Titel ihres Vortrags, doch schon die Fragezeichen verraten die Skepsis, die durch den Saal schwingen wird. Während Professor Breithaupt uns am gestrigen Abend vor unseren eigenen Narrativen warnte, führt uns Solopova nun in ein Reich, in dem nicht mehr wir selbst unsere Geschichten wählen, sondern Maschinen sie für uns kuratieren.

Die Versuchung ist verlockend: Wir öffnen YouTube, und der Algorithmus serviert uns genau das, was wir sehen wollen. Ein Video über die Vorzüge erneuerbarer Energien für den Umweltbewussten, Verschwörungstheorien für den Skeptiker, Katzenvideos für den Gestressten. Doch was hier harmlos beginnt, offenbart sich als ausgeklügeltes System: Der Algorithmus filtert nicht nur nach unseren Vorlieben, sondern nach dem, was gerade trendet, was Popularität verspricht, was die Masse bewegt.

Die Maschine lernt durch Deep Reinforcement Learning – ein Verfahren, das Belohnungsmuster erkennt und verstärkt. Jeder Klick ist ein Signal, jede Verweildauer eine Belohnung für den Algorithmus. Er lernt nicht nur, was uns gefällt, sondern wie er uns länger halten kann, wie er uns tiefer in den Kaninchenbau der personalisierten Inhalte lockt. Solopova bezeichnet dies als den „maximal gefährlichen Algorithmus“ unserer Zeit – ein System, das darauf programmiert ist, unsere Aufmerksamkeit zu maximieren, ohne Rücksicht auf die Konsequenzen für unsere geistige Gesundheit oder gesellschaftliche Kohäsion.

Solopova führt uns geschickt durch das Labyrinth der algorithmischen Personalisierung. Was zunächst wie ein Service erscheint – maßgeschneiderte Inhalte, die unseren Interessen entsprechen – entpuppt sich als subtile Gefangenschaft. Die Filterblase entsteht nicht durch böse Absicht, sondern durch die Logik der Optimierung. Der Algorithmus will uns bei der Stange halten, will unsere Aufmerksamkeit maximieren. Und nichts hält uns so zuverlässig fest wie die Bestätigung dessen, was wir ohnehin schon glauben.

Aus der Filterblase wird die Echokammer – ein Raum, in dem nur noch die eigene Stimme widerhallt, verstärkt und verzerrt. Hier entstehen jene verhängnisvollen Feedbackloops, die Solopova als „filterbasierte Echokammern“ beschreibt: Der Algorithmus zeigt uns Inhalte, die unsere bestehenden Ansichten bestätigen. Wir interagieren mit diesen Inhalten, weil sie uns gefallen. Der Algorithmus interpretiert dies als Bestätigung und zeigt uns noch mehr ähnliche Inhalte. Die Schleife schließt sich, wird enger, bis aus Meinungen Dogmen werden. Meinungen werden nicht mehr hinterfragt, sondern verstärkt. Jeder Klick, jedes „Gefällt mir“, jeder geteilte Artikel festigt die Wände der eigenen Überzeugungszelle.

Die Folgen sind dramatischer, als es zunächst scheint. Meinungsverstärkung wird zur Radikalisierung, Bestätigung zur Blindheit. Menschen, die einst moderate Ansichten vertraten, finden sich plötzlich in extremen Positionen wieder – nicht durch einen bewussten Wandel, sondern durch die sanfte, aber beständige Suggestion des Algorithmus. Die Maschine füttert uns mit immer intensiveren Versionen unserer eigenen Vorurteile, bis aus Skepsis Paranoia, aus Kritik Hass wird.

Besonders perfide ist die Rolle der Vorurteile in diesem Spiel. Algorithmen sind nicht neutral – sie spiegeln die Voreingenommenheiten ihrer Programmierer und die Muster der Daten wider, mit denen sie trainiert wurden. Ein Algorithmus, der lernt, dass bestimmte Gruppen häufiger mit negativen Nachrichten verknüpft werden, wird diese Verzerrung perpetuieren und verstärken. Aus statistischen Korrelationen werden scheinbare Kausalitäten, aus Mustern werden Wahrheiten.

Die Isolierung ist vielleicht die tragischste Konsequenz dieses Systems. Während wir glauben, mit der ganzen Welt verbunden zu sein, leben wir in immer kleineren geistigen Archipelen. Menschen mit unterschiedlichen Ansichten begegnen sich nicht mehr im digitalen Raum – sie bewohnen separate Realitäten, die sich nur noch selten berühren. Der Dialog wird zum Monolog, die Gesellschaft zur Sammlung von Echokammern.

Solopova warnt eindringlich: Die bloße Bekämpfung von Polarisierung durch Veränderungen an den Algorithmen reicht nicht aus. Das Problem liegt tiefer – in der grundlegenden Logik der Aufmerksamkeitsökonomie selbst. Solange Algorithmen darauf programmiert sind, uns möglichst lange auf einer Plattform zu halten, werden sie immer jene Inhalte bevorzugen, die uns emotional packen, erregen, empören.

Doch die Bedrohung hat eine neue Dimension erreicht: das LLM Grooming. Hier zeigt sich die dunkelste Seite der KI-Revolution. Akteure versuchen gezielt, große Sprachmodelle mit Falschinformationen zu füttern, damit diese sie später als scheinbare Wahrheiten reproduzieren. Ein perfides Spiel: Wird eine Lüge oft genug in die Trainingsdaten eingeschleust, kann sie zur „gelernten Wahrheit“ der Maschine werden – und von dort aus Millionen von Nutzern erreichen.

Doch Solopova lässt uns nicht in Resignation zurück. Ihre Analyse ist scharf, aber nicht hoffnungslos. Sie zeigt uns, dass das Bewusstsein für diese Mechanismen der erste Schritt zur Befreiung ist. Einen Lösungsansatz sieht sie in der Rechenschaftspflicht der großen Plattformen – jene Tech-Giganten, die bislang weitgehend unreguliert über die Informationsströme von Milliarden Menschen bestimmen.

Dabei führt sie den Begriff „Lawful but Awful“ ein – ein Konzept, das die Grenzen des rein rechtlichen Denkens aufzeigt. Vieles, was Algorithmen tun, ist legal, aber dennoch schädlich für die Gesellschaft. Ein Algorithmus, der systematisch extreme Inhalte bevorzugt, weil sie mehr Engagement erzeugen, bricht kein Gesetz – aber er bricht den gesellschaftlichen Zusammenhalt. Hier klafft eine Lücke zwischen dem, was erlaubt ist, und dem, was ethisch vertretbar wäre. Wenn wir verstehen, wie Algorithmen unsere Wahrnehmung formen, können wir lernen, ihnen zu widerstehen. Wenn wir erkennen, dass unsere personalisierten Feeds nicht die Welt abbilden, sondern nur einen winzigen, verzerrten Ausschnitt, können wir beginnen, nach anderen Perspektiven zu suchen.

Die Ironie ist nicht zu übersehen: Während ich diese Zeilen schreibe, kämpfe ich gegen die Verführung an, nur die Quellen zu zitieren, die meine vorgefasste Meinung über Algorithmen bestätigen. Auch meine Recherche wird von Suchmaschinen gefiltert, meine Aufmerksamkeit von Empfehlungsalgorithmen gelenkt. Selbst dieser kritische Text über algorithmische Verzerrungen ist selbst das Produkt algorithmischer Kuratierung.

Die Lösung liegt nicht in der Rückkehr zu einer vordigitalen Welt – das wäre Nostalgie, nicht Fortschritt. Sie liegt in der Kultivierung einer digitalen Mündigkeit, die Professor Breithaupts Warnung vor den eigenen Narrativen um eine technische Dimension erweitert. Wir müssen lernen, nicht nur unseren eigenen Geschichten zu misstrauen, sondern auch den Geschichten, die Maschinen für uns auswählen.

Als ich die Aula verlasse, hallt die dreifache Mahnung der Hegelwoche in mir nach: Misstraue deinen eigenen Narrativen, misstraue den Emotionen, die sie leiten, und misstraue den Algorithmen, die sie verstärken. In einer Welt voller gefühlter und berechneter Wahrheiten bleibt uns nur eines: die mühsame, aber notwendige Arbeit des kritischen Denkens. Es ist eine andere Geschichte, die beginnt – oder besser gesagt: ein anderes Narrativ, dem wir alle gemeinsam misstrauen sollten, während wir es dennoch erzählen müssen.

Sapere aude!

S. Noir

Algorithmische Wahrheiten