Invisible Characters, Prompt Injection, Supply-Chain-Risiken — die Angriffsvektoren auf AI-generierten Code werden raffinierter. Wie du dein Team und deine Codebase schützt.
Neue Angriffsflächen
AI-generierter Code bringt neue Security-Risiken mit sich, die es vor zwei Jahren noch nicht gab. Die gute Nachricht: Die meisten lassen sich systematisch adressieren. Die schlechte: Viele Teams tun es noch nicht.
Die drei größten Risiken in 2026
1. Prompt Injection über unsichtbare Zeichen
Anfang 2026 zeigten Forscher, dass unsichtbare Unicode-Zeichen in Text AI-Agents dazu bringen können, geheime Anweisungen auszuführen. Das Prinzip: Ein Angreifer versteckt Anweisungen in einem scheinbar harmlosen Text — unsichtbar für Menschen, aber lesbar für AI-Modelle.
Was das für Code bedeutet:
- Code aus externen Quellen kann manipulierte Kommentare enthalten
- Dokumentation und Issue-Texte können versteckte Anweisungen tragen
- Copy-paste aus dem Internet wird zum Sicherheitsrisiko
2. Halluzinierte Dependencies
AI-Modelle erfinden gelegentlich Package-Namen, die nicht existieren. Angreifer registrieren genau diese Namen und platzieren Schadcode. "Dependency Confusion 2.0" — und gefährlicher als die erste Version.
Die Zahlen:
- Ca. 5 % aller AI-vorgeschlagenen npm-Packages existieren nicht
- Angreifer registrieren systematisch häufig halluzinierte Namen
- Ein einziges infiziertes Package kann die gesamte Supply Chain kompromittieren
3. Insecure-by-Default Code-Patterns
AI-Modelle lernen aus öffentlichem Code. Und öffentlicher Code enthält erschreckend viel unsicheren Code. Das Ergebnis: AI reproduziert bekannte Schwachstellen — SQL Injection, XSS, fehlende Input-Validierung.
Nicht aus Böswilligkeit. Sondern weil unsicherer Code in den Trainingsdaten überrepräsentiert ist.
Wie du dich schützt
Automatisierte Security-Scans als Pflicht
Jede AI-generierte Code-Änderung muss durch automatisierte Security-Checks. Ohne Ausnahme.
- Static Application Security Testing (SAST) in der CI/CD-Pipeline
- Dependency-Scanning gegen bekannte Schwachstellen
- Secret Detection für versehentlich eingefügte Credentials
Sandboxed Execution
AI-Agents sollten Code in isolierten Umgebungen ausführen. Kein direkter Zugriff auf Production-Systeme, keine Netzwerk-Requests ohne Whitelist.
Human Review für Security-kritische Bereiche
Authentifizierung, Autorisierung, Kryptographie, Zahlungsflows — diese Bereiche brauchen menschliche Reviews. Immer.
Regelmäßige Audits
Automatisierte Scans fangen die bekannten Probleme. Für unbekannte Angriffsvektoren brauchst du regelmäßige Security-Audits durch erfahrene Spezialisten.
Kein Grund zur Panik
AI-generierter Code ist nicht unsicherer als menschlicher Code — er ist anders unsicher. Die Risiken sind neu, aber beherrschbar.
Entscheidend ist, dass du Security nicht als Afterthought behandelst, sondern von Anfang an in deinen AI-Development-Workflow einbaust. Wer das tut, arbeitet schneller und sicherer als Teams, die alles manuell schreiben.
