ChatGPT-Leak: Wenn KI-Konversationen zur Google-Privatsphäre-Falle werden
In den letzten Tagen sorgte ein Datenschutz-Skandal rund um die ChatGPT-Plattform für erhebliches Aufsehen. Über 4.500 – und laut neuesten Berichten bis zu 100.000 öffentlich indexierte Chats – wurden über die Suchmaschine Google auffindbar, obwohl viele NutzerInnen diese als privat angesehen hatten.
Was ist passiert?
OpenAI hatte ein Feature namens „Make this chat discoverable“ eingeführt – ein optin‐Kästchen beim Teilen der Konversation. NutzerInnen konnten Chats öffentlich teilen und erwarteten, nur über Linkaufruf zuzugreifen. In Wirklichkeit ließen sich diese Konversationen durch Google crawlen und indexieren, sodass vertrauliche Informationen wie Mitarbeiterdaten, Bewerbungsunterlagen, mental‐healthInhalte oder firmeninterne Strategien öffentlich sichtbar wurden. Allein eine einfache Suche mit der URL-Struktur „chatgpt.com/share/…“ förderte viele dieser Chats zutage.
OpenAI reagierte rasch: Der CISO Dane Stuckey kündigte per X (Twitter) die Abschaltung der Funktion an – bereits innerhalb eines Tages war das Feature deaktiviert und die Kooperation mit Suchmaschinen zur De-Indexierung der Inhalte gestartet. Doch Cached-Versionen können weiterhin sichtbar bleiben.
Risiken für die IT und OT Security
Für Unternehmen mit kritischer Infrastruktur (OT) und IT Umgebungen bedeutet dieser Leak eine zusätzliche ernsthafte Angriffsfläche:
- Exposition von Betriebsgeheimnissen oder Technologiedokumentationen, die unbedacht in ChatGPT eingegeben wurden.
- Compliance-Risiken durch unkontrollierte Datenweitergabe (z. B. GDPR, ISO 27001, NIS2).
- Offboarded Prompts: Mitarbeitende teilen Code, Zugangsdaten oder Konfigurationsdetails, die indexierbar werden.
- Prompt Injection / Jailbreak-techniken: Sicherheitsforscher hatten bereits GPT-4 und andere Systeme manipuliert, um sensible Daten oder Produktschlüssel zu extrahieren, etwa durch speziell formulierte „Guessing Game“-Prompts.
Aus unserem Projekt-Alltag wissen wir, wie oft ChatGPT und andere KI-Tools für die Erstellung oder Überarbeitung von Materialien bei Firmen in der IT und OT zum Einsatz kommen – oft auch unkontrolliert und mit mangelnder Sensibilisierung der Nutzer.
Was Unternehmen tun können – Sofortmaßnahmen
- Audit Ihrer AI-Nutzung & Shared Links
- Überprüfen Sie in ChatGPT/Einstellungen unter Shared Links, ob versehentlich Konversationen geteilt wurden.
- Alle „discoverable“ Links sofort löschen und offene URLs de-indexieren lassen.
- Durchsuchen Sie Google nach site:chatgpt.com/share/* in Kombination mit firmenspezifischen Begriffen, um mögliche Exposures zu identifizieren.
- Sicherheits-Policies & Awareness-Trainings
- Entwickeln Sie klare Richtlinien, was Mitarbeitende in generative AI eingeben dürfen (No-go: Geschäftsgeheimnisse, PII, OT-Details).
- Führen Sie regelmäßige Awareness-Schulungen durch, um die Sensibilisierung für AIDatenschutz, Prompt Injection, Social Engineering Risiken und Datenklassifikation zu stärken.
- Unser Trainingsangebot sensibilisiert Mitarbeitende dafür gezielt – wir vermitteln, wie man KI sicher nutzt und welche Risiken bestehen.
- Technische Sicherung & Governance
- Implementieren Sie AI-Governance, z. B. Nutzung intern gehosteter KI-Systeme oder abgesicherter EnterpriseAIGateways. Oft lässt sich hier auch mit den bestehenden Lizenzen schon viel erreichen.
- Nutzen Sie standardisierte Input/OutputFiltering, Prompt-Evaluierung, Logging und Monitoring für Threat Detection.
- Regeln Sie Zugriff über Least Privilege, rollenbasierte Zugriffe und Whitelists für externe Inhalte im Zuge von RAG-Architekturen.
- Incident Response & Threat Modeling
- Etablieren Sie Prozesse zur Erkennung und Reaktion auf AI-bezogene Datenschutzvorfälle.
- Nutzen Sie Tools zur Prüfung von AI-UseCases, einschließlich Adversarial Testing und Simulation potenzieller Angreifer-Szenarien.
Was wir als OT-/IT-Security Partner bieten
Unser Unternehmen spezialisiert sich unter anderem auf Schulungen und Awareness-Programme für Mitarbeitende in Unternehmen – genau zu diesem Thema:
- AI Threat Awareness Trainings, inklusive Szenarien zur exakten Erklärung von ChatGPTLeaks und Prompt-Angriffen.
- Workshops zur Sicherheitskultur, speziell für OT-Mitarbeitende und technische Teams, mit Fokus auf Datenschutz, Compliance (NIS2, GDPR, ISO 27001) und Insider-Risk.
- Trainingseinheiten zur Implementierung von Governance, Richtlinien und Incident-Response im Kontext von Enterprise-AI.
- Trainings von Engineers und Entscheidern zur sicheren Nutzung von AI (auch mit Zertifizierung durch einen unserer Partner).
خاتمة
Der aktuelle ChatGPT-Leak ist keine theoretische Gefahr mehr, sondern eine konkrete Realität: Tausende von Konversationen – auch geschäftskritische Inhalte – waren über Google auffindbar, oft ohne dass Nutzer:innen dies explizit wollten. Unternehmen müssen umgehend reagieren – durch technische Kontrollen, Schulungen, Richtlinien und Governance. Unsere Trainings sensibilisieren Mitarbeitende gezielt für die Risiken generativer AI-Anwendungen und fördern eine nachhaltige Sicherheitskultur – vom Mitarbeitenden bis zur Führungsebene.
Wenn Sie Interesse haben, Mitarbeitende gezielt für diese Themen zu sensibilisieren, sprechen Sie uns gerne an.




