Wenn KI den Code schreibt — wer prüft ihn?
82 % der Entwickler nutzen KI-Tools. 45 % des generierten Codes hat Sicherheitslücken. Und die Haftung liegt beim Unternehmen. Warum formale Verifikation die Antwort sein könnte.

Foto: Unsplash
Auf einen Blick
- 45 % des KI-generierten Codes enthält bekannte Sicherheitslücken — neuere, größere Modelle generieren keinen signifikant sichereren Code (Veracode 2025)
- KI-generierter Code erzeugt 1,7-mal mehr Fehler als menschlich geschriebener Code, darunter 2,7-mal mehr Cross-Site-Scripting-Schwachstellen
- Formale Verifikation — mathematische Beweise für Code-Korrektheit — wird durch KI selbst erstmals praktikabel: Ein KI-Agent hat eine komplette Kompressionsbibliothek formal bewiesen
Das solltest du tun
- 1Prüfe deine Code-Review-Prozesse: Sind sie auf das Volumen von KI-generiertem Code ausgelegt? Wenn Entwickler 20 % mehr Pull Requests erstellen, muss die Qualitätssicherung mithalten
- 2Kläre die Haftungsfrage intern: KI-Tool-Anbieter schließen Gewährleistung aus — dein Unternehmen haftet für jeden Bug, den die KI einschleust
Microsofts CTO prognostiziert: 95 % allen Codes wird bis 2030 von KI generiert. Schon heute schreiben Google und Microsoft 25–30 % ihres neuen Codes mit KI. AWS hat 40 Millionen Zeilen COBOL für Toyota per KI modernisiert. Anthropic hat einen C-Compiler mit 100.000 Zeilen in zwei Wochen für unter 20.000 Dollar gebaut — mit parallelen KI-Agenten.
Die Frage ist nicht mehr, ob KI Code schreibt. Die Frage ist: Wer prüft, ob dieser Code auch korrekt ist?
Das Problem: Mehr Code, mehr Fehler
KI schreibt Code schneller als jeder Mensch — aber nicht unbedingt besser. Die Studien zeichnen ein klares Bild:
Besonders alarmierend: 61 % der Entwickler sagen selbst, dass KI-generierter Code korrekt aussieht, aber nicht zuverlässig ist. KI-gestütztes Programmieren führt zu 4-mal mehr Copy-Paste — zum ersten Mal fügen Entwickler häufiger Code ein, als dass sie ihn refaktorisieren oder wiederverwenden.
Wer haftet, wenn KI-Code Schaden anrichtet?
Die kurze Antwort: Dein Unternehmen. KI-Tool-Anbieter wie OpenAI, Google und Anthropic zeigen Warnungen wie „KI kann Fehler machen — überprüfe die Ausgabe“ und schließen in ihren AGBs jede Gewährleistung aus.
- • KI-generierter Code ohne menschliche Autorenschaft ist in den USA nicht urheberrechtsfähig
- • Gerichte haben noch nicht entschieden, wie Haftung zwischen KI-Anbieter und nutzendem Unternehmen aufgeteilt wird
- • ~35 % der KI-Code-Samples enthalten Lizenzierungsunregelmäßigkeiten
- • Neue EU-Produkthaftungsrichtlinie: Software (inkl. KI-Systeme) ist jetzt ein „Produkt“ — Hersteller und Zulieferer haften
- • EU AI Act: GPAI-Regeln seit August 2025, Durchsetzung ab August 2026
- • US-Bundesstaaten 2026: Mehrere Gesetze erweitern KI-Haftung
Die Lösung: Mathematische Beweise statt Daumen drücken
Leonardo de Moura — brasilianischer Informatiker, Schöpfer des Beweisassistenten Lean und Senior Principal Scientist bei AWS — hat eine klare These: Wenn KI den Großteil des Codes schreibt, müssen wir die Korrektheit mathematisch beweisen, nicht nur testen.
Formale Verifikation (mathematische Beweise, dass Software genau das tut, was sie soll) war lange ein akademisches Nischenthema. Zu aufwendig, zu teuer, zu langsam für die Praxis. Doch jetzt verändert KI das Spielfeld grundlegend.
Kim Morrison vom Lean-Team hat mit einem generischen KI-Agenten (Claude, ohne Spezialtraining) die zlib-Kompressionsbibliothek — ein Standard-Werkzeug, das in Milliarden Geräten steckt — von C nach Lean konvertiert. Inklusive eines mathematischen Beweises, der garantiert: Dekompression nach Kompression liefert immer die Originaldaten zurück. Maschinell geprüft, nicht nur getestet. De Moura: „Das wurde noch nicht für möglich gehalten.“
Was das für dein Unternehmen bedeutet
KI generiert Code 1.000-mal schneller als Menschen. Die Prüfmechanismen — Code-Review, Testing — sind die gleichen, die Heartbleed zwei Jahre übersahen. Diese Lücke wird größer, nicht kleiner.
Ein Programm kann jeden Test bestehen und trotzdem einen kritischen Fehler enthalten. Tests prüfen nur die Fälle, die jemand bedacht hat. Formale Verifikation beweist die Korrektheit für alle möglichen Eingaben — auch die, an die niemand gedacht hat.
Wenn KI die Implementierung übernimmt, wird die präzise Beschreibung dessen, was das System tun soll, zur wichtigsten Ingenieursaufgabe. Deine Teams verbringen weniger Zeit mit Code-Schreiben — und mehr Zeit mit Design und Anforderungsdefinition.
De Moura: „Teams mit den besten Werkzeugen ziehen weiter davon.“ Verifizierung kann Zertifizierungsprozesse — etwa in Luft- und Raumfahrt, Medizintechnik oder Automotive — von Jahren auf Wochen verkürzen. Welche Coding-Assistenten — also KI-Tools, die Entwicklern beim Programmieren helfen — aktuell führen, zeigt unser Vergleich der KI-Programmierassistenten.
Checkliste: Ist dein Unternehmen vorbereitet?
Quellen
- Leonardo de Moura: „When AI Writes the World's Software, Who Verifies It?“ (28. Feb. 2026)
- Veracode: GenAI Code Security Report 2025 — 100+ LLMs, 80 Coding-Aufgaben
- CodeRabbit: State of AI vs. Human Code Generation Report (470 GitHub PRs)
- CISQ/Synopsys: Cost of Poor Software Quality 2022 ($2,41 Billionen)
- Qodo: State of AI Code Quality 2025
Weiterlesen
Claude überholt ChatGPT bei Coding-Benchmarks
Warum Anthropics Claude in der Softwareentwicklung die Nase vorn hat.
KI-Strategie für dein Unternehmen
Die 5 Bausteine einer erfolgreichen KI-Strategie — von der Pilotphase zur Skalierung.
EU AI Act: Was Unternehmen jetzt tun müssen
Die wichtigsten Pflichten aus dem EU AI Act — Zeitplan, Risikostufen und Handlungsempfehlungen.