Generative Künstliche Intelligenz ist nahezu perfekt geworden in der Nachahmung menschlichen Verhaltens und im Kreieren überzeugender Fake-Realitäten. Wie beeinflusst der Siegeszug der Simulation unser Verhältnis zur Wirklichkeit – und das menschliche Miteinander? – Ein gekürzter Auszug aus „Beyond 2025 – Das Jahrbuch für Zukunft“
7. November 2024
Generative KI ist ein Meister in der Nachahmung unserer medialisierten Wirklichkeit. Das wissen wir spätestens, seitdem die Bürgermeister:innen von Berlin, Wien und Madrid im Juni 2022 längere Videocalls mit Vitali Klitschko führten – ohne zu merken, dass sie es dabei mit einem Fake zu tun hatten. Seitdem ist die Simulationskompetenz der KI-Modelle rapide angewachsen und der Zugang zugleich immer niedrigschwelliger geworden.
Der Vormarsch der generativen KI ruft die Theorie der Simulation ins Bewusstsein, die der französische Medientheoretiker Jean Baudrillard schon vor fast 50 Jahren formulierte. Demzufolge verschwimmen im Zuge der Medialisierung die Grenzen zwischen Original und Kopie, zwischen tatsächlicher und dargestellter Realität. In Baudrillards „Hyperrealität“ sind wir umgeben von „Simulakren“ – Nachbildungen, die sich so weit von ihrem Original entfernt haben, dass sie eigenständige Realitäten bilden.
Generative KI verleiht diesen Überlegungen eine völlig neue Aktualität und Brisanz. Denn Algorithmen, die Fake-Realitäten erschaffen, stellen nicht nur unser Verständnis von „Wirklichkeit“ infrage, sondern letztlich auch unser soziales Miteinander: Welche Rolle wird der echte Mensch künftig inmitten simulierter Welten spielen? Und was bedeutet es für unsere Gesellschaft, wenn die Zuverlässigkeit von Information schwindet?
Die neuen Weltsimulations-Tools erhöhen den Anteil maschinell produzierter und manipulierter Inhalte am gesamten Internet-Content dramatisch: KI-Bots erschaffen heute eigenständig Bilder, Texte und Websites in sozialen Medien, posten Urlaubsfotos, schreiben Kommentare, verschicken Nacktfotos und Deepfakes. Studien zeigen, dass Bots bereits die Hälfte bis drei Viertel des weltweiten Internet-Traffics ausmachen – und dass die Qualität von Suchmaschinen zunehmend unter KI-generierten Websites leidet, die zwar SEO-optimiert, aber inhaltsleer sind. Diese Entwicklung spiegelt auch das „digitale Wort des Jahres 2023“ in den USA: „Enshittification“.
Dabei vollzieht sich auch ein Paradigmenwechsel im Bereich der KI-Dystopien: Im Fokus steht nun weniger die Auslöschung der Menschheit durch feindliche Algorithmen als vielmehr eine selbstreferenzielle Bullshit-Welt, in der wir KI-generierte Inhalte konsumieren, aus denen weitere KI-generierte Inhalte produziert werden und so weiter… Die selbstbezügliche Content-Schwemme weckt nicht nur die Angst vor einem generellen Kulturverlust durch die wiederkehrende Produktion des Immergleichen, sondern auch vor der wachsenden Unfähigkeit, zwischen echt und unecht, wahr und falsch unterscheiden zu können.
Zerfranst die Wissensgesellschaft durch KI nun also wirklich zu einem postmodernen „Anything goes“? Droht uns durch KI-Modelle wie Sora eine „perfekte, voll automatisierte Propagandamaschinerie“? Auf jeden Fall schüren immer perfektere KI-generierte Avatare und Deepfakes ein grundsätzliches Misstrauen gegenüber unserem kollektiven Verständnis von Wahrheit und Wirklichkeit. Dieser „Realitätsverlust“ kann auch gezielt genutzt werden, um echte Inhalte infrage zu stellen – etwa wenn Politiker:innen Fakten als vermeintlich KI-generiert diskreditieren.
Die Frage nach der „Wirklichkeit“ unserer Weltwahrnehmung ist spätestens seit Platons Höhlengleichnis eine der Schlüsselfragen der Philosophie. Durch KI-generierte Animationen wird sie nun noch einmal neu aufgeworfen. Reine Plädoyers für das „Echte und Einzigartige“ führen dabei ebenso wenig weiter wie die schlichte Gleichsetzung von virtuellen und nichtvirtuellen Realitäten. Vielmehr verweist uns das Spiegelkabinett der generativen KI auf eine grundsätzliche Verschiebung der Bedeutung, die wir dem Unterschied zwischen Abbild und Wirklichkeit beimessen – und auf die ganz realen Konsequenzen, die wir als Menschen daraus ziehen müssen.
Generell ist unsere vernetzte Kultur geprägt von einer zunehmenden Affinität für Imitate und Duplikate. TikTok oder Instagram wären kaum denkbar ohne das Prinzip der Aneignung und Vervielfältigung – das auch jenseits der digitalen Sphäre Blüten treibt, etwa im Gen-Z-Hype um Fake-Luxusprodukte made in China. Generative KI eröffnet nun eine weitere Dimension duplizierter Realitäten, indem sie eine immer intensivere und intimere Interaktion mit KI-generierten Pseudopersönlichkeiten ermöglicht. „Konversationelle KI“ ermöglicht uns, dauerhafte Beziehungen mit KI-gesteuerten Entitäten einzugehen: mit virtuellen Menschen, die uns begleiten, coachen und Workflows für uns ausführen.
Doch je natürlicher und emotionaler wir mit diesen Instanzen interagieren – und dabei auch virtuelle Stellvertreter:innen unserer selbst schaffen –, umso fragiler wird die gesellschaftliche Repräsentation von Realität. Denn eine gemeinsame Vorstellung von Wirklichkeit kann nur entstehen durch ein „Sprachspiel“ im Sinne Wittgensteins: durch Menschen, die sich im gemeinsamen Gespräch darüber verständigen, was ein Ausdruck, was die Wirklichkeit, in der wir leben, bedeutet. Denn Sprache ist per se dynamisch und vielfältig: Ihr Verständnis erfordert immer, die verschiedenen Kontexte und Praktiken zu berücksichtigen, in denen sie ganz konkret verwendet wird. Einen solchen realitätsstiftenden Dialog kann keine generative KI generieren. Im Gegenteil: KI erodiert unseren gemeinsamen Realitätsnenner, indem sie immer dazu tendiert, die Standpunkte ihrer Schöpfer:innen oder sozialer Mehrheitsgruppen überzubewerten.
Eine „starke Objektivität“ erwächst dagegen nur aus kognitiver Vielfalt, aus dem diversen Zusammenspiel einzelner Subjektivitäten. Eben deshalb lebt unsere Wirklichkeitswahrnehmung ganz fundamental vom menschlichen Miteinander, vom konkreten sozialen Austausch. Und damit letztlich auch von einer physischen Komponente, die für KI kategorisch unerreichbar bleiben wird, allen Träumen von algorithmischen „Superintelligenzen“ zum Trotz: unserer Leiblichkeit.
Körperlichkeit bedeutet: Verletzlichkeit. Die physische Fragilität bildet die Grundlage unserer kognitiven, kulturellen, sozialen und emotionalen Intelligenz. Das Fundament unserer Humanität. Der Körper ist der ultimative Kontrapunkt zur rationalen Intelligenz der KI, der diese biologische Weltverankerung prinzipiell verschlossen bleibt. KI-Systeme haben keinen Zugang zu den Verletzlichkeiten der menschlichen Existenz. Im Gegensatz zur traditionellen Geist-Körper-Hierarchie, die Verletzlichkeit als Schwäche und Mangel betrachtete, führt uns KI also zu der Erkenntnis, dass die Basis unseres Denkens, unserer Sozialität und damit auch unseres Wirklichkeitsverständnisses in der somatischen Sensibilität und Instabilität gründet.
Zugleich offenbart sich dabei ein scheinbar paradoxer Zusammenhang: Je genauer wir KI erforschen und je besser wir verstehen, welche menschlichen Fähigkeiten und Verhaltensweisen Algorithmen zwar simulieren, aber niemals selbst „erleben“ können, umso deutlicher wird auch unser grundsätzliches Nichtwissen über dieses leibliche Fundament der menschlichen Existenz: Wie kreieren unsere biologischen Systeme, unsere Zellen und Neuronen das, was unsere kognitiven Fähigkeiten, unsere Intelligenz, unseren „Geist“ ausmacht? Dieses Rätsel erscheint unlösbarer denn je.
So führt uns die simulative KI auch vor Augen, wie zeitlos unverfügbar die Kategorie des genuin Humanen letztlich ist. Wie schon im Zuge vorheriger technologischer Revolutionen erkennen wir, dass der Mensch, mit all seinen seelischen und körperlichen Bedürfnissen, wie ein Fels in der Brandung des technologischen Wandels steht. Eben deshalb ist die Wahrung und Kultivierung eines humanistischen Welt- und Wirklichkeitsverständnisses so wichtig – gerade in Zeiten, in denen die Wogen der KI-Verheißungen besonders hoch schlagen.