SStrategische Einordnung[02_18]

AI könnte teurer werden — warum aktuelle KI-Preise nicht nachhaltig sind

OpenAI verliert 1,35 Dollar pro Dollar Umsatz. Sequoia warnt vor einer 600-Milliarden-Lücke. Was passiert, wenn die Subventionen enden — und was das für eure KI-Budgets bedeutet.

AI könnte teurer werden — warum aktuelle KI-Preise nicht nachhaltig sind

Auf einen Blick

  • OpenAI hat 2025 bei 3,7 Mrd. Dollar Umsatz rund 5 Mrd. Dollar Verlust gemacht — das Geschäftsmodell der meisten KI-Anbieter ist aktuell defizitär
  • Sequoia Capital beziffert die Erlös-Lücke der KI-Branche auf 600 Mrd. Dollar jährlich — so viel müsste die Branche einnehmen, um ihre Infrastrukturkosten zu decken
  • Die aktuell niedrigen Preise für ChatGPT, Claude & Co. sind durch Risikokapital und Tech-Konzerne subventioniert — eine Preiskorrektur in den nächsten 12-24 Monaten ist wahrscheinlich

Das solltest du tun

  1. 1KI-Budgets mit 30-50% Kostenpuffer planen: Wer heute Prozesse auf günstigen KI-APIs aufbaut, sollte steigende Preise einkalkulieren
  2. 2Anbieter-Abhängigkeit reduzieren: Mehrere KI-Modelle evaluieren, Wechselkosten niedrig halten und lokale Alternativen prüfen
Relevant für:
CFOIT-LeitungGeschäftsführungControlling

ChatGPT kostet 20 Dollar im Monat. Claude ebenso. Gemini gibt es teilweise kostenlos. Für die meisten Unternehmen fühlt sich KI gerade erstaunlich günstig an — fast zu günstig, um wahr zu sein.

Hinter den Kulissen sieht die Rechnung anders aus. Die großen KI-Anbieter verbrennen Milliarden, um diese Preise zu halten. OpenAI allein hat 2025 bei 3,7 Milliarden Dollar Umsatz rund 5 Milliarden Dollar Verlust gemacht. Sam Altman hat öffentlich zugegeben, dass selbst das 200-Dollar-Pro-Abo von ChatGPT Geld verliert. Die Frage ist nicht ob, sondern wann sich das in den Preisen niederschlägt.

Die Zahlen: So viel verbrennen die KI-Anbieter

$1,35

OpenAI Verlust pro Dollar Umsatz

OpenAI Financials 2025

$8,4 Mrd.

Inference-Kosten 2025

The Decoder

$14,1 Mrd.

Progn. Inference-Kosten 2026

The Decoder

$25 Mrd.

Progn. Cash Burn 2026

OpenAI Forecast

$600 Mrd.

Sequoia: Nötige Branchenerlöse

Sequoia Capital

$3,7 Mrd.

OpenAI Umsatz 2025

OpenAI Financials

Um diese Zahlen einzuordnen, muss man verstehen, was Inference bedeutet: Jedes Mal, wenn du eine Frage an ChatGPT stellst oder Claude einen Text schreiben lässt, berechnet ein Rechenzentrum die Antwort. Das nennt man Inference — also die Rechenleistung, die nötig ist, damit die KI eine Antwort erzeugt. Und genau diese Rechenleistung ist extrem teuer.

OpenAI hat 2025 allein für Inference 8,4 Milliarden Dollar ausgegeben — mehr als das Doppelte des gesamten Jahresumsatzes. Für 2026 werden 14,1 Milliarden Dollar prognostiziert. Dazu kommen Kosten für Modelltraining, Personal und Infrastruktur. Unterm Strich verbrennt OpenAI für jeden Dollar, den es einnimmt, 1,35 Dollar.

Ein Turing-Award-Preisträger bei Google hat es kürzlich so formuliert: Inference-Kosten sind der zentrale wirtschaftliche Engpass der gesamten KI-Branche. Nicht die Forschung, nicht die Talente — sondern schlicht die Rechenleistung, die jede einzelne Nutzeranfrage verbraucht.

Die 600-Milliarden-Lücke

Das Problem beschränkt sich nicht auf OpenAI. Die gesamte KI-Branche steht vor einer massiven Finanzierungslücke.

Die KI-Branche müsste jährlich 600 Milliarden Dollar Umsatz machen, um ihre Infrastrukturkosten zu decken. Davon sind wir weit entfernt.

David Cahn, Sequoia Capital

Goldman Sachs untermauert diese Warnung mit eigenen Zahlen: Die Tech-Branche investiert zwischen 2025 und 2027 voraussichtlich 500 Milliarden Dollar jährlich in KI-Infrastruktur — Rechenzentren, Chips, Kühlung, Energie. Um diese Investitionen zu rechtfertigen, müssten die KI-Unternehmen zusammen rund eine Billion Dollar Gewinn pro Jahr erwirtschaften. Das wäre das Doppelte dessen, was Analysten aktuell für 2026 prognostizieren.

01

Die Infrastrukturkosten steigen schneller als die Einnahmen

Jede neue Modellgeneration braucht mehr Rechenleistung — und jeder neue Nutzer verursacht laufende Inference-Kosten

02

Die Nutzung wächst, aber die Zahlungsbereitschaft nicht proportional

Viele Nutzer bleiben auf kostenlosen Tarifen oder wechseln zwischen Anbietern

03

Noch hat niemand den profitablen Betrieb nachgewiesen

Selbst Microsoft und Google verbuchen KI-Infrastruktur als Wachstumsinvestition, nicht als Gewinnquelle

Warum die Preise steigen könnten

Die aktuell niedrigen KI-Preise sind kein Ausdruck realer Kosten — sie sind subventioniert. Risikokapitalgeber und Tech-Konzerne finanzieren die Differenz, um Marktanteile zu gewinnen. Das funktioniert so lange, wie frisches Kapital fließt. Aber mehrere Faktoren deuten darauf hin, dass sich das ändern wird:

Preistreiber
  • Venture-Capital-Geduld endet: Investoren erwarten zunehmend profitables Wachstum statt reiner Nutzerzahlen
  • Compute-Nachfrage übersteigt Angebot: Neue Modelle brauchen immer mehr Rechenleistung, Chip-Kapazitäten wachsen langsamer
  • Börsengang-Druck: OpenAI plant einen IPO — Verluste von 5 Mrd. Dollar pro Jahr sind am Kapitalmarkt schwer zu vermitteln
  • Konsolidierung: Kleinere Anbieter werden aufgekauft oder verschwinden — weniger Wettbewerb bedeutet weniger Preisdruck
Gegentrends
  • Effizienzgewinne bei Hardware: Neue Chip-Generationen senken die Kosten pro Berechnung schrittweise
  • Modell-Destillation: Kleinere, spezialisierte Modelle können bestimmte Aufgaben günstiger erledigen
  • Open-Source-Modelle: Lokale Alternativen wie Llama oder Mistral senken die Abhängigkeit von Cloud-Anbietern
  • Wettbewerb: Solange mehrere Anbieter um Marktanteile kämpfen, gibt es Grenzen für Preiserhöhungen

Branchenbeobachter rechnen mit einer Normalisierung in 12 bis 24 Monaten. Das heißt nicht, dass KI plötzlich unbezahlbar wird. Aber die Ära der aggressiv subventionierten Einstiegspreise dürfte enden — und Unternehmen, die ihre Kalkulationen auf heutigen Preisen aufbauen, könnten eine Überraschung erleben.

Was heißt das für dein Unternehmen?

CFO & Controlling
  • KI-Kosten als eigene Budgetposition führen — nicht unter 'Software-Lizenzen' verstecken, damit Kostensteigerungen sichtbar werden
  • Business Cases mit 30-50% Kostenpuffer rechnen: Wer heute einen ROI auf Basis von $20/Nutzer/Monat kalkuliert, sollte $30 als Szenario durchspielen
  • Nutzungsbasierte Kosten tracken: API-Kosten skalieren mit dem Verbrauch — je mehr Mitarbeiter KI nutzen, desto höher die Rechnung
IT-Leitung
  • Vendor-Lock-in vermeiden: Anwendungen so bauen, dass das KI-Modell austauschbar bleibt — heute OpenAI, morgen vielleicht Anthropic oder ein Open-Source-Modell
  • Lokale Modelle evaluieren: Für standardisierte Aufgaben (Zusammenfassungen, Klassifizierung) können lokale Open-Source-Modelle die günstigere Alternative sein
  • Verbrauchsmonitoring einrichten: Wer nicht weiß, welche Abteilung wie viele API-Calls macht, kann Kosten nicht steuern
Geschäftsführung
  • KI-Strategie nicht auf einen Anbieter setzen: Multi-Modell-Ansatz reduziert Abhängigkeit und stärkt die Verhandlungsposition
  • Pilotprojekte bewusst auswählen: Erst in Bereichen starten, wo der ROI auch bei höheren Preisen positiv bleibt
  • Langfristige Verträge kritisch prüfen: Mengenrabatte klingen attraktiv, aber binden — flexible Laufzeiten sind in einem sich schnell ändernden Markt oft klüger

Einordnung: Kein Grund zur Panik — aber zur Planung

Dieser Artikel soll keine Angst machen. KI wird nicht plötzlich unbezahlbar — die Technologie wird effizienter, die Hardware günstiger, und der Wettbewerb zwischen den Anbietern bleibt intensiv. Aber die aktuelle Preisstruktur ist erkennbar nicht nachhaltig.

01

Aktuelle KI-Preise spiegeln nicht die realen Kosten wider — sie sind Marktaufbau-Subventionen

02

Die Lücke zwischen Infrastrukturkosten und Einnahmen ist branchenweit messbar und wächst

03

Eine Preiskorrektur ist wahrscheinlich, aber nicht katastrophal — sie wird schrittweise kommen

04

Unternehmen, die jetzt vorausschauend planen, werden den Übergang ohne Budgetschocks meistern

Die kluge Strategie ist nicht Abwarten, sondern Vorbereiten: KI-Budgets mit realistischen Kostenszenarien planen, Anbieter-Abhängigkeiten reduzieren und bei jedem KI-Projekt fragen: Rechnet sich das auch, wenn die Kosten um 50% steigen? Wer diese Frage heute stellt, trifft morgen bessere Entscheidungen.

Quellen