## KI trifft auf Sicherheitsrealität
Anfang Oktober wurde bekannt, dass Google eine Schwachstelle in seinem KI-Modell Gemini nicht beheben wird – obwohl sie Angriffe über sogenanntes ASCII-Smuggling ermöglicht.
Sicherheitsforscher:innen haben gezeigt, dass sich unsichtbare Zeichen in Texte einbetten lassen, die von der KI als Befehle interpretiert werden. Das Problem betrifft dabei nicht nur Gemini selbst, sondern vor allem die zunehmende Verknüpfung von KI mit Tools wie E-Mail, Kalender oder Dokumenten.
Genau hier wird es kritisch.
---
## Was hinter ASCII-Smuggling steckt
ASCII ist ein standardisierter Zeichensatz, der seit Jahrzehnten verwendet wird, um Text in Computern darzustellen. Jedes Zeichen wird dabei als Code gespeichert.
Beim ASCII-Smuggling machen sich Angreifer unsichtbare Zeichen zunutze – sogenannte „Zero-Width Characters“. Diese sind für Menschen nicht sichtbar, werden von KI-Systemen aber trotzdem verarbeitet.
Das Ergebnis:
Ein scheinbar harmloser Text kann versteckte Anweisungen enthalten.
---
## Wie der Angriff konkret funktioniert
Angreifer platzieren unsichtbare Zeichen in Texten, zum Beispiel in E-Mails oder Dokumenten.
Für den Menschen sieht alles normal aus.
Für die KI jedoch entsteht ein zusätzlicher „Prompt“, der interpretiert wird.
Das kann dazu führen, dass:
- Antworten manipuliert werden
- falsche Informationen generiert werden
- interne Daten indirekt abgefragt werden
Besonders kritisch wird das, wenn KI direkt mit produktiven Systemen wie Google Workspace verbunden ist.
---
## Googles Entscheidung sorgt für Kritik
Google stuft die Schwachstelle aktuell nicht als sicherheitskritisch ein. Statt eines technischen Fixes verweist das Unternehmen auf vorsichtige Nutzung.
In der Security-Community stößt das auf deutliche Kritik.
Denn:
Das Problem ist nicht theoretisch – es ist praktisch nutzbar.
Gerade in Unternehmensumgebungen entsteht dadurch ein reales Risiko.
---
## Wie andere KI-Anbieter reagieren
Andere Anbieter gehen deutlich strenger vor:
- OpenAI filtert unsichtbare Zeichen aktiv heraus
- Anthropic prüft Eingaben auf ungewöhnliche Unicode-Strukturen
- Microsoft setzt zusätzliche Sicherheitslayer auf Systemebene ein
Gemini hingegen arbeitet aktuell mit vergleichsweise wenig Input-Filterung.
---
## Warum das für Unternehmen relevant ist
Das Thema betrifft nicht nur Entwickler oder IT-Teams.
Sobald KI in Prozesse integriert wird, entstehen neue Angriffsflächen:
- Manipulierte Inhalte können Entscheidungen beeinflussen
- Daten könnten unbeabsichtigt weitergegeben werden
- Vertrauen in Systeme wird untergraben
Und genau das ist das eigentliche Problem.
---
## Wie du dich schützen kannst
Auch ohne offiziellen Fix gibt es klare Maßnahmen:
- Externe Inhalte vor der Verarbeitung filtern
- KI-Zugriffe auf sensible Systeme begrenzen
- Eingaben technisch validieren (z. B. Unicode-Filter)
- Teams für solche Angriffsarten sensibilisieren
KI ist nur so sicher wie das System, in dem sie eingesetzt wird.
---
## Fazit: KI braucht klare Grenzen
Der Fall rund um Gemini zeigt vor allem eines:
Technologie allein reicht nicht.
Ohne klare Sicherheitsmechanismen wird aus Effizienz schnell ein Risiko.
Wenn du KI in deinem Unternehmen einsetzt, brauchst du nicht nur gute Tools –
sondern auch ein System, das kontrollierbar bleibt.
Wenn du wissen willst, wie du KI sinnvoll und sicher in dein Marketing integrierst, lass uns sprechen.
Klarheit für dein Marketing
Lass uns über deine Herausforderungen sprechen und schauen, wo du wirklich vorankommen kannst.

