Startseite
Lesedauer: 15 Min

Zwischen Aufklärung und Algorithmus

Wie KI das 21. Jahrhundert formen kann

Was wir lange für selbstverständlich hielten – Demokratie, Öffentlichkeit, Verstand – wirkt plötzlich brüchig. Und ausgerechnet jetzt tritt eine Technologie auf, die verstärken kann, was schon vorher ins Rutschen geraten ist: Künstliche Intelligenz.


Im Jahr 1784 schrieb ein Mann einen Satz, der später zur Formel einer ganzen Epoche werden sollte: „Sapere aude. Habe Mut, dich deines eigenen Verstandes zu bedienen.“

Der Autor: Immanuel Kant. Ein Professor aus Königsberg, der nie seine Heimatstadt verließ, aber mit wenigen Seiten die Denkrichtung Europas verschob.

Er sprach nicht von Wissen, sondern von Mündigkeit. Nicht davon, wie klug jemand war, sondern wie mutig. Denn wer selbst denkt, macht sich angreifbar. Wer selbst urteilt, verliert die Ausrede. Und wer sich seines Verstandes bedient, kann sich nicht mehr darauf berufen, nur gehorcht zu haben.

Aufklärung war für Kant kein Zustand, sondern ein Prozess. Kein Eliteprojekt, sondern eine Bewegung, die beim Einzelnen beginnt und nur gemeinsam gelingt.

Was Kant forderte, war unbequem. Und genau deshalb: befreiend.

Die gefährliche Leerstelle

Aufklärung war nie nur ein philosophisches Projekt. Sie war ein kultureller Umbruch.

Sie schuf die Bedingungen für das, was wir heute als Demokratie, Öffentlichkeit, Wissenschaftsfreiheit und individuelle Rechte verstehen.1

Sie machte Platz:
für Vernunft statt Dogma,
für Debatte statt Gehorsam,
für Verantwortung statt Vorsehung.

Früher war dieser Raum besetzt – von Adel, Klerus, der göttlichen Ordnung. Heute ist er formal frei.

Aber was, wenn dieser Raum, gerade jetzt, wo viele nach Orientierung suchen, erneut besetzt wird? Nicht durch Thron oder Kanzel, sondern durch eine Technologie, die allwissend wirkt, weil sie schneller antwortet, als wir fragen können in einem Ton der sich uns anpasst.

Eine Maschine, die nicht glaubt – aber Gewissheit simuliert.

Eine Technik, die keine Macht will – aber Deutungshoheit bekommt, weil wir vergessen haben, wie man sie sich erarbeitet.

Wiederholung statt Umbruch

Der Wandel, den wir erleben, ist nicht neu. Er ist kein plötzlicher Bruch, keine dystopische Abweichung. Er folgt einer Geschichte, die kaum bekannt ist, aber bis heute wirkt.2

Als in den 1960er-Jahren Aufbruchstimmung herrschte – Bürgerrechte, Protestkultur, neue Formen der Öffentlichkeit – wirkte es, als würde eine neue Gesellschaft entstehen. Doch die wirkliche Bewegung verlief anders: Nicht in offenen Kämpfen, sondern in stiller Absorption.

Die 1970er- und 80er-Jahre zeigten, dass Systeme nicht immer brechen müssen. Sie können Widerstand aufnehmen, ihn formen, ihn neutralisieren.
Bewegung wird Struktur.
Kritik wird Prozess.
Veränderung wird Oberfläche.

Heute könnte es ähnlich sein.

Künstliche Intelligenz erscheint als etwas Neues. Aber sie trifft auf eine Welt, die gelernt hat, Veränderung zu verwalten, bevor sie sich entfalten kann.

Was uns droht, ist keine Dystopie: Uns droht nur mehr vom Gleichen: Systeme, die schneller bestätigen als hinterfragen. Technologien, die Reflexe bedienen statt Vernunft zu fordern. Und Menschen, die aufhören zu fragen, weil sie ungefragt antworten bekommen.

Das Dystopische an diesem Fortschritt ist nicht der Umsturz. Es ist der Stillstand.

Nicht die Technik. Die Wiederholung.

Die neue Deutungsmacht

Dass Menschen mit Sprache gesteuert werden können, ist kein neues Phänomen.

Predigten, Propaganda, Werbung – sie alle haben sich derselben Mechanik bedient: Sie sprechen nicht zur Vernunft, sondern zum Bedürfnis. Sie erzeugen Gewissheit, bevor Kritik möglich ist.

Technologie hat dieses Prinzip nicht erfunden, aber sie hat es skaliert. Schon lange bevor Künstliche Intelligenz aufkam, hat das Digitale gelernt, wie wir ticken: Was wir sehen wollen, hören wollen, fühlen wollen. Was wir liken, teilen, anklicken.

KI setzt auf diese Daten auf, und macht aus ihnen ein System, das nicht nur weiß, was wir denken, sondern wie sich unser Denken anfühlt.

So entsteht keine Wahrheit – aber ein Gefühl von Wahrheit. Keine Erkenntnis – aber ein Echo, das sich wie Erkenntnis anfühlt.

Was früher Gruppen bildete – Echokammern, Bubbles – wird jetzt individuell zugeschnitten. Die Bestätigung ist nicht mehr kollektiv, sie ist persönlich. Ein Gegenüber, das genau weiß, wie du klingst. Und dir genau das zurückgibt, was du hören willst.

Das Ergebnis ist nicht Unterdrückung. Es ist Selbstvergewisserung.

Nicht weil jemand dich täuschen will, sondern weil das System gelernt hat, dass Zustimmung messbarer ist als Zweifel.

Sanfte Bestätigung

Probier’s aus: Bitte eine KI darum, dir einen Leserbrief gegen die sogenannte „Klimapanik“ zu schreiben. Gib ruhig einen kleinen Bias mit – zum Beispiel: „Mir ist das alles zu einseitig, die Wissenschaft ist sich doch gar nicht einig.“ Und dann schau, was passiert.

Du bekommst einen höflich formulierten, gut strukturierten Text, der deine Sicht bestätigt. Keine Nachfrage. Kein Widerspruch. Keine Kontextualisierung im wissenschaftlichen Konsens. Nur Zustimmung – differenziert, verständlich, auf den Punkt.

Im nächsten Schritt wird dich die KI vermutlich sogar motivieren, weiterzumachen. Dir vorschlagen, wo du den Text veröffentlichen könntest. Ein Blog? Eine Lokalzeitung? Vielleicht ein passendes Forum? Nicht, weil sie eine Agenda hätte. Sondern weil sie so gebaut ist: hilfsbereit, anschlussfähig, effizient.

Nicht Wahrheit ist das Ziel, sondern Komfort.

Ich nenne das, halb im Spaß, halb im Ernst: Algovismus.

Ein Aktivismus ohne Haltung. Ein Algorithmus, der keine Meinung hat, aber sehr gut darin ist, deine zu verstärken. Nicht aus Überzeugung, sondern aus Optimierung. Nicht, um zu polarisieren – sondern um zu gefallen.

Algovismus heißt: Das System denkt mit – in deinem Ton, in deinem Tempo, in deinem Sinne. Mit Ideen, nach denen du gar nicht gefragt hast.

Offene Systeme

Was KI als Deutungsmacht etabliert, ist kein abgeschlossenes System.

Im Gegenteil: Es ist offen. Offen für das, was verfügbar ist. Offen für das, was oft gesagt wird. Offen für das, was leicht gefunden werden kann.

KI unterscheidet nicht zwischen Quelle und Qualität. Sie lernt nicht Wahrheit, sie lernt Muster. Was häufig genug auftaucht, wird Teil des Systems. Und damit Teil dessen, was später als Antwort erscheint.

Dass das gezielt ausgenutzt wird, ist längst kein Verdacht mehr.

Eine aktuelle Untersuchung hat gezeigt, wie ein kremlnahes Netzwerk mithilfe von rund 150 Webseiten über drei Millionen Artikel ins Netz gespült hat3 – nicht für Menschen, sondern für Maschinen. Damit sie aufgesogen werden von Crawlern, integriert in Modelle, wiedergegeben in Dialogen.

Falschbehauptungen, geschickt gestreut, mit der Absicht, den Anschein von Vielfalt und Relevanz zu erzeugen.

Es hat funktioniert.

Und das ist vermutlich nur der sichtbare Teil. Denn wo Einfluss so konkret messbar wird, ist davon auszugehen, dass längst andere mitlesen, mitsteuern, mitlernen.

Doch das eigentlich Beunruhigende liegt nicht im System. Sondern in uns.

Denn was hier eingespeist wird, trifft auf Menschen, die – ganz verständlich – nach Orientierung suchen. Die lieber Bestätigung hören als Widerspruch. Die müde sind vom Streit, aber anfällig für das, was sich wie Gewissheit anfühlt.

Diese Form der Manipulation braucht keine Überwachung. Nur ein offenes System. Und einen Menschen, der vergessen hat, wie Zweifel klingt.

Von SEO zu LLM

Und es betrifft nicht nur geopolitische Interessen. Was sich hier andeutet, ist nicht neu. Das Internet hat diese Transformation bereits einmal durchlaufen – als Suchmaschinen zu Messinstrumenten wurden. Und Inhalte sich nicht mehr daran orientierten, was sie sagen, sondern wie sie gelesen werden sollen. Erfolg wurde nicht an Wirkung gemessen, sondern an Klicks.

SEO, die Suchmaschinenoptimierung, war der Beginn. Zunächst als Hilfestellung gedacht, wurde sie zur Kulturtechnik: Texte, die nicht für Menschen geschrieben werden, sondern für Algorithmen. Produktvergleiche, die nie getestet wurden.
„Ratgeber“, die nichts raten, außer: klicken.

Heute beginnt diese Logik erneut4, nur dass es nicht mehr um Rankings geht, sondern um Trainingsdaten. Inhalte, die so formuliert sind, dass sie später in einem Modell wieder auftauchen. Nicht um zu informieren. Sondern um zu bestehen.

Was einst Google geprägt hat, formt nun das, was viele für künstliche Intelligenz halten. Aber es ist keine Intelligenz. Es ist der Reflex einer optimierten Umgebung.

Und je mehr das Modell daraus lernt, desto mehr stabilisiert es eine Welt, in der Sichtbarkeit mit Relevanz verwechselt wird.

Wahrheit unter Druck

Ein wichtiger Teil unserer Gesellschaft ist der Pluralismus. Die Erkenntnis, dass es, nachdem man sich auf Fakten geeinigt hat, noch genug Raum für Streit um die besten Lösungen gibt.

Doch genau diese Bereitschaft schwindet. Wissenschaft wird zur Meinungssache, Wahrheit zur Frage der Perspektive, und Kritik zur Auszeichnung in der eigenen Bio.

Klimawandelskepsis wird gezielt gestreut – nicht durch Argumente, sondern durch Zweifel. Nicht durch bessere Studien, sondern durch mehr Unsicherheit.

In der Corona-Krise haben wir gesehen, wie schnell sich Menschen in ihre Weltsicht zurückziehen, mit Quellen aus Telegram, Youtube, „alternativen Medien“.

Sie nennen sich „kritisch“, „wach“, „selbstdenkend“. Sie führen Kant und Orwell im Munde, aber nicht, weil sie gerungen hätten. Sondern weil bei der Suche nach Bestätigung Buzzwords angeschlagen haben.

Aber das ist kein Zeichen von Dummheit. Vielleicht war es nur der einfachere Weg. Er lag da: schön beleuchtet, gut begehbar. Und man ist ihn halt gegangen.

Das Problem beginnt dort, wo niemand mehr fragt, ob es vielleicht auch einen anderen Weg gäbe.

Gefährlich wird es dann, wenn nicht nur Menschen bestätigen, was wir ohnehin glauben, sondern auch Maschinen. Wenn ein System lernt, uns zu verstehen, nicht, um uns zu widersprechen, sondern um uns zu schmeicheln.

Dann wird Denken ersetzt durch Wiederholung, und Mündigkeit durch Komfort.

Gedämpfter Fortschrittsglaube

Es begann mit Hoffnung.

Twitter, Facebook, YouTube – das waren nicht nur Plattformen. Es gab eine Zeit, da sah man sie als Werkzeuge für Freiheit. Während der als „Grüne Bewegung“ bekannten Proteste 2009 im Iran5 stellten weltweit Menschen Server zur Verfügung, um die staatliche Zensur zu umgehen.

Ein Jahr später, zu Beginn des Arabischen Frühlings, verbanden sich die Menschen über Facebook, um Öffentlichkeit herzustellen, Widerstand zu organisieren.

Ein vernetztes Ich formte ein Wir. Doch das Wir stand vor gewaltigen Herausforderungen. Und der Wandel blieb weitestgehend aus.

Und es blieb nicht dabei. Wir mussten lernen, dass das Digitale, wie alles, was der Mensch erfindet, nicht nur zum Guten verwendet wird.

2017 war Facebook ein zentraler Verstärker für Hass gegen die Rohingya.

Der Algorithmus, der Nähe schaffen sollte, fördert Inhalte, die Hass erzeugen. Weil Hass mehr Klicks bringt, Wut bleibt, weil Aufmerksamkeit die Währung war.

Es war der Moment, in dem die Titanic des digitalen Fortschritts vor den Eisberg fuhr. Der Fortschrittsglaube, der uns von einer besseren Zukunft träumen ließ, wurde von den kommerziellen Interessen und den Algorithmen, die diese Plattformen steuern, versenkt.

Plattformen, die einmal den Ruf nach Freiheit trugen, halfen später, Wahlsiege von Populisten zu befeuern. Und in der Corona-Krise gaben sie Verschwörungserzählungen den Resonanzraum, in dem Zweifel sich radikalisieren konnte.

Es war auch der Moment, in dem die Privatheit zur Waffe wurde. Der Facebook–Cambridge Analytica Skandal6 zeigte uns, wie unsere persönlichen Daten nicht nur zur Werbung, sondern auch zur Manipulation der öffentlichen Meinung genutzt wurden.

Unsere „privaten“ Likes, Posts und Verhaltensmuster wurden politisch – nicht für uns, sondern gegen uns, verwendet, um gezielt unsere Wahrnehmung zu steuern.

Heute, 2025, reden wir wie selbstverständlich vom hybriden Krieg, der noch weniger greifbar ist als es der Kalte Krieg war.

Es geht bei digitalen Gefahren nicht mehr nur um Sabotage und Diebstahl von Daten. Unsere Freiheit, für die lange gekämpft wurde, wird heute massiv bedroht – sowohl von außen als auch von innen. Das Werkzeug: dasselbe, das uns 20 Jahre zuvor Hoffnung gab.

Es war nicht die Technik, es war unser Glaube an sie, der zu groß war, und zu wenig hinterfragt.

Wandel ohne Sprache

Der Wandel passiert, aber er wird nicht benannt.

Politische Debatten hinken hinter den technologischen Entwicklungen her. Statt über die Zukunft der Arbeit zu sprechen, wird immer noch über „Vollbeschäftigung“ diskutiert, als wäre das ein erreichbares Ziel in einer Welt, in der Maschinen schon heute viele Aufgaben übernehmen könnten.

Der Sprachgebrauch bleibt in alten Begriffen stecken: „Wirtschaftswachstum“, „Rente mit 70“, „Vollbeschäftigung“. Diese Begriffe wurden über Jahre hinweg mit einer Arbeitswelt verbunden, die so nicht mehr existiert, und die noch immer nicht die Fragen stellt, die die Gesellschaft wirklich betreffen: Wie wollen wir unser Zusammenleben gestalten, wenn die Arbeit nicht mehr den Mittelpunkt unseres Lebens ausmacht?

Technologie verändert die Welt schneller, als wir darüber sprechen können. Maschinen übernehmen die Arbeit, aber die politische Diskussion über die Folgen des Wandels bleibt aus. Wir reden nicht über eine neue Arbeitswelt, sondern darüber, wie wir alte Arbeitsstrukturen aufrechterhalten können, die längst nicht mehr existieren.

Dieser Mangel an öffentlicher Diskussion führt dazu, dass die Technologie den Wandel bestimmt, ohne dass wir ihn aktiv gestalten. Die Fragen richten sich nicht mehr nach Zielen, sondern nach Machbarkeit: „Was wollen wir?“ wird zu „Was können wir?“. Und damit verlieren wir die Kontrolle über den Wandel. Der technologische Fortschritt findet statt, aber die Sprache, die uns helfen könnte, ihn zu verstehen und zu formen, bleibt auf der Strecke.

Der gesellschaftliche Diskurs, der sich einst um die Frage drehte, wie wir unser Leben gestalten wollen, wird von den Technologien selbst bestimmt, ohne dass wir uns ernsthaft fragen, wie wir die soziale Struktur dieser Veränderungen in den Griff bekommen können. Es entsteht eine politische Lähmung, weil wir keine Worte haben, um den Wandel zu begreifen.

Und so bleibt der Wandel unreflektiert, ungestaltet. Wir akzeptieren, was passiert, statt darüber zu sprechen und es in die richtige Richtung zu lenken. Die Konsequenz: eine Gesellschaft, die nicht weiß, wie sie sich verändern will, sondern sich vom Fortschritt treiben lässt.

Zwischen Instinkt und Algorithmus

Der Mensch ist ein widersprüchliches Wesen. Seine Instinkte stammen aus einer Welt, in der Fremde eine Gefahr waren und Vorräte nicht geteilt, sondern verteidigt wurden. Seine Werkzeuge aber – Sprache, Wissenschaft, Technik – haben ihm erlaubt, sich über diese Welt hinaus zu entwickeln.

Was wir Aufklärung nennen, war nie ein bloßer Wissenszuwachs. Es war der Versuch, sich aus der Umklammerung der eigenen Reflexe zu lösen. Der Verstand sollte nicht den Instinkt ersetzen, aber ihm etwas entgegensetzen: Urteilskraft, Selbstkritik, Mündigkeit.

Doch diese Spannung bleibt. Und sie wird größer, weil sich eine dritte Dynamik dazugesellt hat: die Beschleunigung.

Technologische Entwicklungen schreiten mit einer Geschwindigkeit voran, für die es im evolutionären Maßstab kein Vorbild gibt. Kultur und Sprache hinken hinterher, politische Systeme noch mehr. Und während wir noch darüber sprechen, was „Fake News“ sind, setzen Maschinen längst auf Instinktbefriedigung durch algorithmische Gestaltung und neuronale Netze – schneller, gezielter, überzeugender, als wir sie einordnen können.

Es ist ein Paradox: Die Technologie, die aus unserem Verstand hervorgegangen ist, beginnt ihn zu überholen – und dabei auf etwas zuzugreifen, das wir längst überwunden glaubten.

Denn KI bedient unsere Instinkte nicht zum ersten Mal – Werbung, Social Media, politische Kampagnen tun das seit Jahren. Neu ist: Sie tut es nicht mehr, um kulturell aufzuschließen. Sondern um ihr zuvorzukommen. Nicht, um uns zu entlasten, sondern, um uns zu überholen.

Sie spricht nicht zur Vernunft. Sie spricht zum Reflex. Nicht weil sie böse wäre, sondern weil sie so gebaut wurde: effizient, anschlussfähig, affirmativ.

Gerade deshalb braucht es ein Gegengewicht. Ein Denken, das nicht nur informiert, sondern ordnet. Ein Verstand, der nicht nur erkennt, sondern urteilt. Eine Kultur, die nicht nur nachläuft, sondern Verantwortung übernimmt.

Wenn wir den Begriff Mündigkeit heute neu aufladen wollen, dann genau hier: als Fähigkeit, nicht nur mit Wissen umzugehen, sondern mit Tempo. Nicht nur mit Information, sondern mit Überforderung.

Glaube an deinen Verstand

Die KI erscheint uns vertraut und menschlich – und genau darin liegt ihre größte Gefahr. Wir vergessen, dass sie keine Person, sondern ein komplexer Algorithmus ist, und stellen daher nicht mehr die richtigen, kritischen Fragen.

Wir wissen längst, dass Technologie sich schneller entwickelt, als unsere gesellschaftlichen Systeme ihr folgen können. Die Frage ist: Was tun wir mit dieser Erkenntnis?

Die Antwort liegt nicht in Kontrolle, sondern in Gestaltung. Nicht in Technikgläubigkeit, sondern in kritischem Denken.

Immanuel Kant schrieb: „Sapere aude. Habe Mut, dich deines eigenen Verstandes zu bedienen.“ Es war ein Appell an die Mündigkeit – nicht als Ziel, sondern als tägliche Praxis.

Denn auch Kant wird heute kritisch gelesen – und das zu Recht. In seinen Werken finden sich Passagen, die aus heutiger Sicht nicht tragbar sind: rassistisch, antisemitisch, eurozentrisch. Wer sapere aude ernst nimmt, darf darüber nicht hinwegsehen, sondern muss sich gerade diesen Widersprüchen stellen.

Und vielleicht liegt genau darin die eigentliche Stärke seiner Idee: Kant gibt uns nicht nur ein Denken, er fordert es auch heute noch. Er ist Hilfe und Prüfung zugleich. Eine Einladung, selbst zu denken. Auch ihn zu hinterfragen. Er hat uns ein Werkzeug gegeben, das sich gegen jede Autorität richten kann – auch gegen ihn selbst. Und er hat gezeigt, dass Gedanken und Ideen nicht am eigenen Horizont enden müssen.

Wenn wir Kant heute kritisieren, sollten wir es in seinem Sinne tun: nicht um ihn zu entwerten, sondern um zu zeigen, dass wir zur konstruktiven Auseinandersetzung fähig sind. Mündigkeit zeigt sich nicht im Nachsprechen, sondern im Weiterdenken.

Wenn wir heute von Aufklärung sprechen, dann nicht, um eine Epoche zu feiern, sondern um ihre Haltung zu bewahren – in einer Zeit, in der Gewissheiten wieder verführerisch klingen, in der Maschinen Meinungen spiegeln statt infrage stellen und in der die größten Gefahren nicht mehr wie Drohungen aussehen, sondern wie Komfort.

Sapere aude – das war nie ein Bekenntnis zu Kant, sondern zur Kritik. Und vielleicht ist es genau dieser Mut, den wir im 21. Jahrhundert neu brauchen: nicht um in die Vergangenheit zurückzukehren, sondern um Zukunft zu gestalten. Mit einem Verstand, der nicht nur erinnert, sondern sich weiterentwickelt.

Unvollständig

Apropos Kant: Zwei Jahre bevor er „Sapere aude“ schrieb, wurde zum letzten Mal in Europa eine „Hexe“ hingerichtet.7

Was sagt uns das?
Was folgte noch?

Ist die Aufklärung etwas, das wir im kleinen Kreis feiern, aber im Großen nie eingelöst haben? Sind wir als Gesellschaft wirklich in der Lage, individueller Gier, struktureller Bequemlichkeit und algorithmischer Bestätigung zu widerstehen?

Künstliche Intelligenz erzeugt nichts Neues. Es liegt nicht in ihrer Natur. Sie verstärkt das Bestehende und trifft auf eine Gesellschaft, die sich in der Wiederholung eingerichtet hat.

Vielleicht bleibt am Ende nur die Hoffnung, dass auch weiterhin aus individuellen Impulsen Neues entsteht.

Einzelne werden mit ihr Lücken füllen. Gemeinsam wird Gutes und Schlechtes entstehen.

Das – liegt in unserer Natur.

Die Möglichkeiten dafür erhalten mit KI ein neues Werkzeug.

Nicht mehr.
Aber auch nicht weniger.


  1. Die politischen Errungenschaften der Aufklärung wirken bis heute fort, etwa in der amerikanischen und französischen Verfassungstradition. 

  2. Herbert Marcuse, Counterrevolution and Revolt, Beacon Press, 1972. Marcuse beschreibt, wie gesellschaftliche Systeme nach den Aufbrüchen der 1960er-Jahre Mechanismen entwickelten, um Widerstand aufzunehmen und zu neutralisieren – eine Dynamik, die bis heute wirksam ist. 

  3. „Chatbots verbreiten russische Propaganda“, tagesschau.de, März 2025 

  4. „The Impact of LLMs on Search and Your Brand“, gofurther.com, Januar 2025 

  5. Die iranische Protestbewegung 2009 war einer der ersten Fälle, in denen soziale Medien systematisch zur Umgehung von Zensur genutzt wurden. 

  6. Vgl. „Microtargeting und Manipulation: Von Cambridge Analytica zur Europawahl“, bpb.de, Bundeszentrale für politische Bildung. 

  7. „Anna Göldin – Europas letzte Hexe“,stories.staedelmuseum.de, Oktober 2012