Private Chat-Verläufe geleakt

ChatGPT im Alltag: So schützt man seine persönlichen Daten

Künstliche Intelligenz ist längst im Alltag angekommen – doch wer mit Chatbots kommuniziert, sollte genau überlegen, welche vertraulichen Informationen er preisgibt.

ChatGPT im Alltag: So schützt man seine persönlichen Daten

Vor wenigen Tagen gelangten vertrauliche ChatGPT-Verläufe ins öffentliche Netz.

Von Elisabeth Remmert

Immer mehr Menschen integrieren den KI-Chabot ChatGPT in ihren Alltag – sei es für Tipps und Tricks, Rezepte, zur Beantwortung von wichtigen Fragen oder sogar zur Unterstützung bei therapeutischen Bedürfnissen.

Doch auch der kleine KI-Helfer hat seine Schattenseiten. Erst kürzlich gelangten Chat-Verläufe von Privatpersonen ins Internet – geleakt von OpenAI selbst.

Unter anderem veröffentlichte das Chatbot-Unternehmen Gespräche von Anwälten, Ärzten und auch von ganz normalen Nutzern. Darunter befanden sich Chats mit brisanten Inhalten über Mord, sexuelle Vorlieben und andere kritische Themen.

Wie kam es zu dem Leak?

Im Frühjahr 2025 führte OpenAI eine neue Funktion ein, mit der Nutzer ihre ChatGPT-Unterhaltungen per Link teilen konnten. Optional bestand die Möglichkeit, den Chat für Suchmaschinen auffindbar zu machen, indem ein entsprechendes Kästchen aktiviert wurde – was letztlich zum Ursprung des Leaks führte. Der entsprechende Hinweis, dass die Inhalte dadurch in Suchergebnissen erscheinen können, war jedoch nur in hellgrauer Schrift dargestellt und wurde offenbar von vielen übersehen.

So schützt man seine Daten vor der KI

Solche Datenpannen zeigen, wie schnell vertrauliche und private Informationen unbeabsichtigt öffentlich werden können. Deshalb ist es besonders wichtig, sich darüber im Klaren zu sein, welche Inhalte man einem KI-Chatbot wie ChatGPT anvertraut.

Erste Tipps dazu gibt das von OpenAI betriebene ChatGPT selbst, es ist für Nutzer also niederschwellig erreichbar. Der Chatbot rät davon ab, folgende Daten preiszugeben:

Sicherheitseinstellung bei ChatGPT

Zudem lassen sich bei ChatGPT einige Einstellungen vornehmen, die den Schutz persönlicher Daten verbessern:

Chatverläufe werden aus dem Netz gelöscht

OpenAI deaktivierte die Funktion vor einigen Tagen. Sicherheitsexperte Dane Stuckey teilte auf der Plattform X mit: „Dies war ein kurzlebiges Experiment, um Menschen dabei zu helfen, nützliche Unterhaltungen zu entdecken.“ Zudem versicherte er, dass das Unternehmen daran arbeite, die geleakten Inhalte wieder aus den Suchmaschinen zu entfernen: “Letztendlich glauben wir, dass diese Funktion zu viele Möglichkeiten bot, unbeabsichtigt Inhalte zu teilen, die nicht dafür vorgesehen waren.“