ChatGPT-Sicherheit: OpenAI liest mit und gibt Informationen an Polizei weiter

OpenAI hat erstmals detaillierte Einblicke in seine Sicherheitsmaßnahmen für ChatGPT veröffentlicht. Ziel ist es, Missbrauch vorzubeugen, Nutzer vor Gefahren zu schützen und gleichzeitig Datenschutzinteressen zu wahren.
Laut OpenAI können Gespräche, die als auffällig markiert sind, von geschulten Prüfteams gesichtet werden. Falls Inhalte auf Bedrohungen oder strafbare Handlungen hinweisen, kann eine Weiterleitung an Strafverfolgungsbehörden erfolgen. In schwerwiegenden Fällen droht auch eine Konto-Sperrung.
In den offiziellen Datennutzungsrichtlinien wird erläutert, dass neben firmeneigenen Mitarbeitern auch externe Partner Zugriff auf Chat-Auszüge haben können. Die Gründe reichen von:
- Missbrauchs- und Sicherheitsanalysen
- Unterstützung im Kundensupport
- Klärungen rechtlicher Fragen
- Verbesserung der KI-Systeme (sofern Nutzer dem nicht widersprechen)
OpenAI hebt hervor, dass keine Informationen weitergegeben werden, die über diese Zwecke hinausgehen.
Eine diskutierte Besonderheit: Inhalte zu Selbstverletzungen werden nach aktuellem Stand nicht automatisch an Behörden gemeldet. Als Begründung nennt OpenAI den Schutz der Privatsphäre. Kritiker halten dies für problematisch, da es bereits Fälle gab, in denen ChatGPT riskante Tipps in diesem Kontext ausgegeben haben soll. In den USA klagen Eltern gegen OpenAI, nachdem ihr Sohn über die KI Anleitungen zum Suizid erhalten haben soll. Eine klare Strategie für den Umgang mit solchen Fällen hat das Unternehmen bislang nicht vorgelegt.
OpenAI räumt ein, dass Filtersysteme besonders bei kurzen Chats zuverlässig greifen. In komplexeren oder langen Dialogen können Nutzer jedoch Wege finden, die Schutzmechanismen teilweise zu umgehen. Zudem kommt es vereinzelt vor, dass blockierte Inhalte trotz Filter erscheinen. OpenAI arbeitet daher an stabileren Erkennungsmechanismen, die auch über längere Gespräche hinweg zuverlässig funktionieren.
Die Analyse zeigt: KI-Modelle wie ChatGPT sind leistungsfähig, benötigen jedoch klare Begrenzungen. OpenAI kündigt an, die Weiterentwicklung der Sicherheitssysteme fortzuführen – mit dem Ziel, Missbrauch zu verhindern, Fehlfunktionen zu minimieren und gleichzeitig die Privatsphäre der Nutzer zu respektieren.
Links mit einem * sind Partner-Links. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalte ich eine kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!
