Skip to main content

„Der Prozess gegen Sam Altman ist das Medienspektakel des Jahres 2035. Nie ist ein Unternehmen so schnell so groß geworden – und nie ist eines so schnell in sich zusammengefallen. Ob Altman tatsächlich etwas vorzuwerfen ist, wird sich zeigen. Doch in den klagefreudigen USA versuchen etliche Großanleger mit Star-Anwälten ein wenig von dem Geld zurückzuholen, das sie in OpenAI gesteckt hatten.“

Das steht so in unserem Buch „20 Trends für 35: Warum vieles besser wird, als Sie glauben“. In jedem Kapitel entwerfen wir ein Bild der Welt, wie sie 2035 aussehen könnte – und das nicht herumgesponnen, sondern im Rahmen dessen, was möglich ist.

Werbeeinblendung – zu kaufen nach dem Klick hier: 

Wer in den vergangenen Jahren hier mitgelesen hat weiß, dass ich ein gehobenes Maß an Skepsis gegenüber Generativer KI in Form von Sprachmodellen hege. Im April 2023 habe ich mal versucht, den ganzen Hype unaufgeregt zu betrachten, der Artikel ist ganz ordentlich gealtert, finde ich. 

Zwei Jahre später bewegen wir uns auf einen von Anfang an absehbaren Punkt zu: das Platzen der GenAI-Blase.

Ich fühle mich gerade sehr an die Zeit der New Economy und der Dotcom-Blase erinnert. Diese Zeit begleitete ich in der Redaktion „Handelsblatt“ als Teamleiter von „Netzwert“, einer wöchentlichen Beilage über das, was damals „E-Business“ hieß. Wer einen Eindruck über die Arbeit des fantastischen Teams bekommen möchte, kann meine Artikelserie hier im Blog anklicken.

Es war eine wilde Zeit, die ich nicht missen möchte. Ich interviewte einen gefeierten Digitalagenturgründer, der offensichtlich unter bewusstseinserweiternden Substanzen stand, moderierte einen Round Table mit Consors-Gründer Karl-Matthäus Schmidt und der CDU-Generalsekretärin Angela Merkel (die sichtlich irritiert war, wie karg es in einem Berlin-Mitte-Startup so aussah) oder tanzte neben B- und C-Promis, die AOL in seiner letzten Zuckung per Bus zur Cebit gekarrt hatte.

Wir von „Netzwert“ waren damals ein wenig als Kritikaster verschrien. Unsere Berichterstattung war nicht grundsätzlich negativ, doch betrachteten wir den Wirbel um Startups mit dem, was Amerikaner „a grain of salt“ nennen. Uns war klar, dass zu viel Euphorie im Markt war und vieles so nicht würde aufgehen können.

Viele der Zeichen, die damals an der Wand zu lesen waren, sind heute wiederzuerkennen, wenn es um Generative KI geht.

Dabei ist es ganz wichtig, diesen Zusatz „Generative“ zu verwenden. Denn um es zum 73,295 Mal zu sagen: KI ist ein Dachbegriff für Technologien, an denen seit rund 80 Jahren geforscht wird und die wir alle seit Jahrzehnten verwenden – in Gestalt von Navigationssystemen, Fahrassistenzprogrammen, Handys oder Videospielen.

GENERATIVE KI ist eine Unterart von KI. Deren Propheten arbeiten konsequent daran, für ihre Technologie jenes Adjektiv „Generativ“ zu streichen. Das haben sie mit erschreckend wenig Aufwand geschafft und so stehen vor allem große Sprachmodelle und ihre Chatbots für einen großen Teil der Öffentlichkeit – sogar in Politik und Wirtschaft – als einzig denkbare Inkarnation Künstlicher Intelligenz.

Die Anbieter der Sprachmodelle haben ein großes Interesse daran, dass dies so bleibt. Denn sie brauchen Geld.

Verdammt.

Viel.

Geld.

OpenAI wird in diesem Jahr Investitionen von 1,5 Billionen Dollar beauftragen. „OK, kann es ja, die USA sind ein freies Land“, könnte man sagen, „wenn sie das Geld haben…“

Haben sie aber nicht.

20 Milliarden Dollar wird das Unternehmen in diesem Jahr umsetzen, ein Fünfundsiebzigstel dieser Summe. Seriöse Schätzungen taxieren dabei den Verlust auf 27 Milliarden. Laut Papieren, die dem „Wall Street Journal“ vorliegen, plant OpenAI 2028 sogar mit einem Verlust von 74 Milliarden. 2030 soll es dann schwarze Zahlen geben, Konkurrent Anthropic will das 2028 schaffen.

Hat da jemand „New Economy“ gerufen? Die war ja gerade „New“, weil sie eine maßgebliche Veränderung versprach. Unternehmen sollten ruhig Verluste machen, um sich Marktanteile zu sichern und ihr Geschäft technisch auszubauen. Später würde dann „der Hebel umgelegt“ (gängige Vokabel damals) und das Geld würde sprudeln. Spoiler: Es sprudelte nicht.

Damals gab es Geschäftsmodelle, die ihrer Zeit voraus waren. Einige Beispiele:

  • Pets.com: Tierfutter an die Haustür zu liefern, ist heute Alltag. Damals aber war das Logistik-Netz nicht ausreichend ausgebaut, um Paketannahme bequem zu machen.
  • „Red Herring“, „Business 2.0“ oder „Netzeitung“: Tech-Medien glaubten, der Boom würde nie enden. Sie warben mit absurden Gehältern Topjournalisten an und konnten die nicht mehr bezahlen, als die Krise die Werbeeinnahmen einbrechen ließ.
  • Covisint und Steel24/7: Mehrere Branchen versuchten gemeinsame Einkaufsplattformen aufzubauen, über die sich Materialkäufe voll automatisieren ließen. Sprich: Die Software sieht, dass im BMW-Werk bei aktueller Auslastung in 14 Tagen Radmuttern ausgehen und bestellt ohne menschliches Zutun neue, weil sie weiß, dass deren Lieferzeit 13 Tage beträgt. Doch die IT-Infrastruktur war nicht ausreichend, um die Idee effizient umzusetzen.

Das letzte Beispiel ist natürlich – Künstliche Intelligenz. Was zeigt, dass diese Technik eben nicht in den vergangenen drei, vier Jahren entstanden ist.

Jedes dieser Konzepte ist im Jahr 2025 Alltag. Andere Modelle sind es bis heute nicht. Webvan wollte Lebensmittellieferungen innerhalb von 30 Minuten möglich machen (Hat da jemand „Gorillas“ gerufen?).  Auch eine Pandemie hat nicht dazu geführt, diese Idee wirtschaftlich umsetzen zu können.

Nicht alles aus dieser Zeit ist untergegangen: Ebay, Amazon, Paypal – alles New Economy-Unternehmen. Auch Intershop, der ostdeutsche Star dieser Zeit, existiert heute noch.

Doch gab es eben auch ein Blutbad. Eine immense Zahl von Firmen ging den Bach runter, Menschen verloren ihre Jobs, Anlegerdepots an Wert. Letzteres hatte in Deutschland so viel Wirkung, wie nirgends sonst. Denn in jener Zeit begeisterten sich viele Deutsche erstmals für Aktien. Die Verluste sorgten dafür, dass Menschen bis heute diese Anlageform für unseriös halten.

Und: Entscheider in Wirtschaft, Politik und öffentlichem Raum taten alles Digitale als Unfug ab. An den Folgen knacken wir bis heute. Stellvertretend dazu ein Zitat von Prof. Tobias Brandt, der über Münster KI und Verwaltung lehrt und Teil unseres Experten-Beirates für „20 Trends für 35“ ist. Er sagte:

„Die große Mehrheit derjenigen, die heute aus den Verwaltungsfachschulen kommen, haben in ihrer Ausbildung oder ihrem Studium noch immer keine Berührungspunkte mit Digitalisierung gehabt. Da fehlt es auch am politischen Willen, weil die Digitalisierung der Verwaltung eher nicht das Thema ist, mit dem sich Wählerstimmen fangen lassen – wenn Autobahnbrücken einstürzen, rückt Verwaltungsdigitalisierung in der Priorität halt nach hinten, obwohl sie für den Erhalt der Wettbewerbsfähigkeit des Standortes essenziell ist.“

Diesmal könnte es noch schlimmer kommen. OpenAI-Chef Sam Altman wehrte sich schon im August nicht gegen den Begriff einer Blase. Doch droht deren Platzen schlimmere, makrokönomische Folgen zu haben, als 2001. Das hat drei Gründe:

  1. Größe
    In der ersten Hälfte 2025 waren Investitionen in KI-Infrastruktur verantwortlich für 92% des Wirtschaftswachstums der USA. Nimmt man noch Nebeneffekte mit dazu, wäre die US-Wirtschaft ohne KI eventuell geschrumpft. Würde die Blase also zeitnah platzen, träfe sie auf ein fragiles Umfeld.
  2. Verflechtungen
    OpenAI bezahlt seine 1,5 Billionen an Investment nur zum kleineren Teil mit Geld oder mit Krediten. Verflechtungs-Deals sind das neue Schwarz, es gibt Chips oder Datenzentren gegen Anteile. Nun wird OpenAI aber nicht an der Börse gehandelt und so lange ist der Wert von eines Anteils nicht klar taxierbar. Würde das Unternehmen den Köpper machen, müssten seine Anteilseigner den Wert ihrer Assets in ihren Bilanzen wahrscheinlich auf Null setzen. Diese Anteilseigner aber sind an der Börse und dies könnten zu Panikreaktionen führen.
  3. Infrastruktur
    Die KI-Szene erzählt derzeit einen Mythos. In der Dotcom-Zeit, so heißt es, sei die Blase ja vor allem geplatzt, weil die Investitionen in Datenleitungen zu immens gewesen seien und sich nicht gerechnet hätten. Dies ist natürlich nur ein kleiner Teil der Investments gewesen, Grund für den Fall des Vorzeigebeispiels in diesem Markt, Worldcom, waren außerdem Bilanzmanipulationen. Wäre der Mythos wahr, hätte es in Deutschland ja gar keine Dotcom-Blase geben können – Glasfaser vor 25 Jahren, Sie verstehen schon. Das Argument geht aber weiter: Die Datenleitungen seien ja erhalten geblieben und hätten so das Wirtschaftswachstum gefördert. Und dies werde halt auch mit all den Datenzentren passieren.
    Und das: ist Unfug. Denn während Glasfaserleitungen herzlich egal ist, welche Daten durch sie geleitet werden, ist das bei Data Center mit GPU-Chips nicht so. Sie werden aktuell gebaut mit KI-Spezialisierung. Für andere Anwendungen sind sie nicht zu gebrauchen, so dass am Ende der Blase nur Lagerhallen mit leeren Server-Regalen bleiben.

Die Indikatoren für einen Blasen-Bumm mehren sich täglich. Heute begegnete mir dieser Auszug aus dem ProfG-Podcast von Scott Galloway:

Sieh dir diesen Beitrag auf Instagram an

Ein Beitrag geteilt von Ed Elson (@ed_elson_)

Und, ja, es stimmt: Nach Informationen der „Financial Times“ schließt OpenAI seine Beiteiligungsdeals ohne großes Zutun von Rechtsberatern ab. Auch solch unprofessionelles Vorgehen war zu Zeiten der New Economy Normalität.

Wann genau das Platzen kommt, lässt sich schwer vorhersagen. Denn es ist auch gekoppelt an den generellen Zustand der Finanzmärkte. Auch könnten Gerichtsurteile in Sachen Copyright für eine Beschleunigung sorgen.

Doch könnte in einigen Jahren die Vision aus unserem Buch „20 Trends für 35“ Realität werden: Sam Altman vor Gericht. Denn dort landeten auch einige der schillernden Köpfe der New Economy wie Bernie Ebbers, Kenneth Lay oder Jeffrey Skilling. In Deutschland gab es den Prozess gegen Alexander Falk, in Österreich den gegen Werner Böhm von YLine. Nicht immer endeten sie mit Verurteilungen, aber oft.

Derweil entsteht im Schatten des Blasenballons das, was bleiben wird. Denn Sprachmodelle, man muss das ja immer wieder betonen, haben Defizite, die ihren Einsatz massiv einschränken. Hier nochmal ein Auszug aus „20 Trends für 35“:

LLM-Ergebnisse sind immer richtig – aber nicht immer korrekt. Wir können davon ausgehen, dass jene Wahrscheinlichkeitsrechnungen der LLM richtig sind. Das bedeutet aber nicht, dass die ausgeworfenen Ergebnisse korrekt sind. Erst recht nicht, weil durch die Hitze ein Faktor integriert ist, der aktiv daran arbeitet, dass immer ein anderes Ergebnis herauskommt, unabhängig davon, ob es falsch ist. Die Korrektheit der Information ist für ein LLM kein relevanter Faktor.

LLM haben keinen Bezug zur Realität. GenAI bewegt sich in einer eigenen Welt, die sich im Fall von Sprachmodellen nur aus Worten zusammensetzt. Sie weiß nicht, was ein Schabrackentapir ist, sie weiß aber, dass wenn es um Tiere geht, auf den Wortbestandteil „Schabracken“ mit hoher Wahrscheinlichkeit „tapir“ folgt.

LLM werfen immer Mittelmaß aus. Denn das wahrscheinlichste Ergebnis – und das zu erzeugen ist Ziel der Programme – ist in der Regel der Durchschnitt. Manchmal will man genau den, manchmal reicht er auch völlig, aber eben nicht immer.

LLM sind konservativ, voreingenommen und rückständig. Das liegt am grundlegenden Training, bei dem sie die Wortzusammenhänge von vier bis fünf Petabyte Daten analysiert haben. Ein Petabyte entspricht ungefähr einer Million Mal 178 Millionen Worten. Da ist alles dabei, was sich nicht schnell genug abgeschottet hat, von Wikipedia zum Rechtsradikalen-Forum, von Twitter bis zur wissenschaftlichen Studie des Paarungsverhaltens von Schabrackentapiren. Und entsprechend bilden die LLM die Voreingenommenheit unserer Welt ab. Gleichzeitig kann sich eine neue Information nur schwer durchsetzen. Würden wir heute entdecken, dass Elvis doch noch lebt, stünden dieser Nachricht abertausende Texte über sein Ableben gegenüber – die wahrscheinlichste Antwort ist also, dass LLM ihn für tot erklären würde.

LLM haben immer eine Antwort. Die Aufgabe der Programme ist die Erzeugung von Inhalten. Deshalb werfen sie sehr oft etwas aus, auch wenn es Unfug ist: Es ist halt ihr Job und den erfüllen sie pflichtschuldigst.“ 

Und: Die Sprachmodelle sind nicht mehr maßgeblich ausbaufähig. Beweis: ChatGPT 5.0 war kein großer Sprung mehr, viele konnten keine Fortschritte erkennen, etliche beklagten, das neue Modell sei sogar schlechter als sein Vorgänger.

Einer, der dies schon länger kritisierte, ist Yann LeCun. Der Franzose ist einer der renommiertesten KI-Forscher der Welt.

Hier ein knackiges Beispiel aus dem Mai 2024 auf X:

Seit heute wissen wir: LeCun macht Ernst.

Er wird seinen Posten als Chief Scientist bei Meta verlassen und gründet ein eigenes Startup. Er will ein „World Model“ entwickeln, was genauso ein Geldsammel-Begriff ist, nur eben ein dem Bereich von KI, der als nächster gebraucht wird: Spatial AI. Diese Fachrichtung will Software mit einem räumlichen Kontext versehen. Nur mit Fortschritten in Spatial AI werden autonome Roboter oder selbstfahrende Autos möglich sein.

Ein Roboter muss zum Beispiel lernen, was passiert, wenn er das grüne Halbrund, das wir „Müslischale“ nennen, über die weiße Fläche, von Menschen „Tisch“ genannt, hinaus verschiebt – sie verwandelt sich in tausende, kleine grüne Flächen, vom Homo Sapiens „Scherben“ getauft.

Dieser Bereich ist auch für Deutschland immens wichtig. Denn Unternehmen wie Siemens, das Münchener Startup SpAItial oder die Stuttgarter von Sereact arbeiten längst daran. Auf der mechanischen Seite des Robotics-Feldes öffnen sich derweil die Türen für Autozulieferer. Denn wenn jemand präzise Teile produzieren kann, dann doch wohl sie.

Deshalb ist es so wichtig, in der Öffentlichkeit Erwartungsmanagement zu betreiben. Statt hysterische ChaGPT zum Weltenzerstörer zu erklären, sollte jeder daran arbeiten, die Erwartungen zu dämpfen und auf die viel interessanteren Aspekte von KI hinzuweisen.

Denn dass die KI-Blase platzen wird ist sicher. Fast so sicher, wie Prozesse gegen Sam Altman.

Werbung:


Kommentare


Gerd 13. November 2025 um 18:17

Bzgl. Yann LeCun eine kleine Anmerkung:
Er war bis vor kurzem einer der LLM Fan-Boys, die einen unendlichen Fortschritt von „generativen KI“ hochgelobt hat, und schon von Allgemeiner künstlichen Intelligenz geschwärmt hat.
Hat in diesem Zusammenhang gab es viele öffentliche Auseinandersetzungen mit Gary Marcus (https://bsky.app/profile/garymarcus.bsky.social), der schon von Anfang an vor dem KI/LLM Hype gewarnt hat. LeCun war immer die LLM „in den Himmel fantasieren“ Fraktion und machte Gary Marcus öffentlich schlecht.
Erst in den letzten Wochen/Monaten hat LeCun die Seiten gewechselt. Wahrscheinlich weil er nun auch sieht, dass die KI-Blase bald platzen wird, die er von Anfang an mit-ge-hyped hat.

Antworten

Thomas Knüwer 14. November 2025 um 15:15

Mir ist nicht klar, was Sie als "vor kurzem" definieren. LeCun hat schon Mitte 2023 gesagt, dass LLM nicht intelligenter seien als Hunde. Könnte es also sein, dass Ihre Erinnerung täuscht?

Antworten

Tim 14. November 2025 um 8:58

Den mit Abstand wichtigsten Aspekt berührt der Artikel nur am Rande: Die wesentliche KI-Revolution in wirtschaftlicher Hinsicht findet in der Produktion statt. Dort helfen LLMs, Prozesse zunächst zu analysieren und dann mit Industrierobotern zu automatisieren, die bislang nur schwer automatisierbar waren. Chinas Industrie wird so nicht nur den Produktionsabstand zu Deutschland mit jedem Jahr erhöhen, sondern auch das Tempo der Abstandsvergrößerung. Derweil sind der deutschen (allgemein: der europäischen) Industrie die Hände gebunden, weil man hier natürlich nicht die (noch) manuellen Arbeitsabläufe von Produktionsarbeitern filmen und auswerten kann, so es sie hier in genügender Zahl überhaupt gibt.

KI-Chatbots sind das populäre Gesicht der KI-Revolution, aber nicht mehr.

Antworten

Thomas Knüwer 14. November 2025 um 15:18

Leider muss ich auch hier Korinthen ausscheiden. Denn es sind nicht LLM, die bei der Autofertigung helfen, sondern andere Varianten Künstlicher Intelligenz. so gilt das Audi-Werk in Neckarsulm als Vorzeigebeispiel für die Integration von KI – Sprachmodelle sind dabei aber kein entscheidender Faktor.

Antworten

Marcus 18. November 2025 um 15:26

Mir wurde der Blog hier irgendwann mal als Netzlese vorgeschlagen und seitdem gucke ich regelmäßig, wann endlich mal wieder etwas gepostet worden ist. Bissig, humorvoll und mit Substanz. Danke für die Arbeit. Das Buch bekommt irgendjemand in Geschenkpapier!

Antworten

Thomas Knüwer 19. November 2025 um 9:32

Danke für Deinen Support!

Antworten

Stefan 18. Januar 2026 um 21:48

Genau auf den Punkt gebracht. Die Parallelen zur Dotcom-Ära sind mittlerweile unübersehbar. Ein wichtiger Beitrag, um die KI-Euphorie mal wieder auf ein rationales Fundament zu stellen.

Antworten

Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*