KI für Ihr Unternehmen – Jetzt Demo buchen

Datenverlust durch Deaktivierung einer ChatGPT-Funktion: Ein Warnsignal für die Forschung

Kategorien:
No items found.
Freigegeben:
February 20, 2026

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • Ein Universitätsprofessor verlor zwei Jahre seiner wissenschaftlichen Arbeit durch das Deaktivieren einer Einstellung in ChatGPT.
    • Die betroffene Funktion, "Das Modell für alle verbessern", führte nach Deaktivierung zur unwiderruflichen Löschung sämtlicher Chat-Verläufe und Projektordner.
    • OpenAI begründet dies mit dem Prinzip "Privacy by Design", welches keine Wiederherstellung der Daten ermöglicht.
    • Der Vorfall unterstreicht die Notwendigkeit robuster Backup-Strategien und das kritische Hinterfragen der Datensicherheit bei der Nutzung von KI-Tools im professionellen Umfeld.
    • Experten fordern klarere Warnhinweise und verbesserte Sicherheitsmechanismen von KI-Anbietern.

    Unerwarteter Datenverlust: Ein Klick löscht zwei Jahre Forschungsarbeit in ChatGPT

    Die Integration künstlicher Intelligenz in den beruflichen Alltag schreitet rasant voran. Während KI-Tools wie ChatGPT zahlreiche Vorteile in Bezug auf Effizienz und Unterstützung bieten, birgt ihre Nutzung auch potenzielle Risiken. Ein aktueller Fall, der in Fachkreisen Beachtung findet, verdeutlicht die Notwendigkeit eines bewussten Umgangs mit diesen Technologien. Ein Universitätsprofessor der Pflanzenwissenschaften von der Universität zu Köln erlebte einen umfassenden Datenverlust, als er durch die Deaktivierung einer spezifischen Funktion in ChatGPT zwei Jahre seiner wissenschaftlichen Arbeit unwiderruflich verlor.

    Der Vorfall im Detail: Eine scheinbar harmlose Einstellung mit weitreichenden Folgen

    Der Professor nutzte ChatGPT als integralen Bestandteil seiner Forschung und Lehre. Über einen Zeitraum von zwei Jahren erstellte er mit Hilfe des Chatbots E-Mails, bereitete Vorlesungen vor, entwarf Prüfungen und analysierte studentische Antworten. ChatGPT fungierte dabei als interaktives Tool und digitales Archiv, das ihm durch seine Fähigkeit, sich an frühere Konversationen zu erinnern, eine erhebliche Arbeitserleichterung bot.

    Im August des vergangenen Jahres entschied sich der Professor, aus Neugierde eine Option in den "Datenkontrollen" des Chatbots zu deaktivieren, die als "Das Modell für alle verbessern" bezeichnet wird. Diese Einstellung erlaubt OpenAI, Konversationen zum Training zukünftiger KI-Modelle zu verwenden. Seine Absicht war es lediglich, zu prüfen, ob nach der Deaktivierung weiterhin alle Funktionen des KI-Modells zugänglich wären. Die Konsequenz war jedoch drastisch: Die gesamte Chat-Übersicht war leer. Sämtliche Konversationen, Projektordner und damit verbundene Forschungsarbeiten waren verschwunden. Es gab keine Warnmeldung, keinen Hinweis auf die irreversible Natur dieser Aktion.

    Reaktion und die Philosophie von "Privacy by Design"

    Der Professor unternahm verschiedene Schritte, um seine Daten wiederherzustellen. Versuche, durch das Leeren des Caches oder den Wechsel des Browsers Zugriff zu erhalten, blieben erfolglos. Nach Kontaktaufnahme mit dem Support von OpenAI erhielt er die ernüchternde Auskunft, dass eine Wiederherstellung nicht möglich sei. OpenAI begründete dies mit dem Prinzip "Privacy by Design". Dieses Konzept zielt darauf ab, den Datenschutz von Beginn an in die Entwicklung von Systemen zu integrieren. Im vorliegenden Fall bedeutet dies, dass bei Deaktivierung der Datenfreigabe alle damit verbundenen Nutzerdaten vollständig und unwiderruflich gelöscht werden, ohne dass Backups existieren, die eine Wiederherstellung ermöglichen würden.

    Dies stellt einen fundamentalen Unterschied zu herkömmlichen Datenmanagement-Systemen dar, bei denen Backups und Wiederherstellungsoptionen oft Standard sind. Die fehlende Transparenz über die weitreichenden Konsequenzen dieser Einstellung wurde von dem betroffenen Professor kritisiert. Er äußerte seine Erwartung an einen zahlenden Dienst, dass grundlegende Sicherheitsmaßnahmen wie Warnhinweise vor unwiderruflicher Löschung, eine Wiederherstellungsoption oder zumindest zeitlich begrenzte Backups vorhanden sein sollten.

    Implikationen für die professionelle Nutzung von KI-Tools

    Dieser Vorfall wirft wichtige Fragen bezüglich der Zuverlässigkeit und Datensicherheit von KI-Tools im professionellen Kontext auf, insbesondere in forschungsintensiven Bereichen. Die Abhängigkeit von externen KI-Diensten, die nicht immer über transparente oder anpassbare Backup-Strategien verfügen, kann zu erheblichen Risiken führen. Für Unternehmen und Forschungseinrichtungen, die KI-Anwendungen in ihre Kernprozesse integrieren, ergeben sich daraus klare Handlungsempfehlungen:

    - Regelmäßige Backups: Wichtige Inhalte aus KI-Chats sollten regelmäßig exportiert und lokal oder in unabhängigen Cloud-Diensten gesichert werden. Verlassen Sie sich nicht ausschließlich auf die internen Verlaufssysteme der KI-Anbieter. - Verständnis der Einstellungen: Informieren Sie sich detailliert über die Datenrichtlinien und Einstellungen der verwendeten KI-Tools. Klären Sie, welche Optionen zur Datenlöschung führen und welche lediglich das Training der Modelle beeinflussen. - Risikobewertung: Führen Sie eine umfassende Risikobewertung durch, bevor Sie sensible oder geschäftskritische Daten in KI-Systeme eingeben. - Diversifizierung der Tools: Nutzen Sie, wo immer möglich, eine Kombination aus KI-Tools und traditionellen Methoden, um die Abhängigkeit von einem einzelnen System zu reduzieren. - Schulung und Bewusstsein: Schulen Sie Ihre Mitarbeiterinnen und Mitarbeiter im sicheren Umgang mit KI-Tools und sensibilisieren Sie sie für potenzielle Fallstricke im Bereich des Datenmanagements.

    Ausblick und Forderungen an KI-Anbieter

    Der Fall des Kölner Professors unterstreicht eine breitere Diskussion über die Kontrolle und Verantwortung im Umgang mit künstlicher Intelligenz. Während KI-Systeme immense Potenziale bieten, müssen die Anbieter auch ihrer Verantwortung gerecht werden, Nutzern klare Informationen über den Umgang mit Daten und die Konsequenzen von Einstellungen zur Verfügung zu stellen. Die Forderung nach robusteren Sicherheitsmechanismen, transparenten Datenschutzrichtlinien und nutzerfreundlichen Wiederherstellungsoptionen wird zunehmend lauter. Dies ist entscheidend, um das Vertrauen in KI-Technologien zu stärken und deren sichere und effektive Integration in professionelle Arbeitsabläufe zu gewährleisten.

    Für Mindverse, als Anbieter eines umfassenden KI-Tools, ist dieser Vorfall eine Bestätigung der Notwendigkeit, unseren Nutzern stets höchste Transparenz und Kontrolle über ihre Daten zu bieten und gleichzeitig robuste Sicherheits- und Backup-Funktionen zu integrieren, die den Anforderungen eines anspruchsvollen B2B-Umfelds gerecht werden.

    Bibliographie

    Fuhrmann, M. (2026, 19. Februar). Alles verloren: Forscher löscht 2 Jahre wissenschaftlicher Arbeit, weil er eine ChatGPT-Funktion abschaltete. t3n.de. Abgerufen von https://t3n.de/news/forscher-verliert-zwei-jahre-arbeit-chatgpt-funktion-deaktiviert-1727829/

    Prada, L. (2026, 28. Januar). Scientist Loses Years of Work After Tweaking ChatGPT Settings. VICE. Abgerufen von https://www.vice.com/en/article/scientist-loses-years-of-work-after-tweaking-chatgpt-settings/

    Sheridan, L. (2026, 23. Januar). A Professor Trusted ChatGPT With 2 Years of Work—Then 1 Click Wiped It All Away. Inc.com. Abgerufen von https://www.inc.com/leila-sheridan/a-professor-trusted-chatgpt-with-two-years-of-work-then-one-click-wiped-it-all-away/91291617

    Weißgerber, U. (2026, 4. Februar). Zwei Jahre Arbeit weg – KI-Einstellung bei ChatGPT zerstört alles. Soester Anzeiger. Abgerufen von https://www.soester-anzeiger.de/deutschland-welt/zwei-jahre-arbeit-weg-ki-einstellung-bei-chatgpt-zerstoert-alles-zr-94165201.html

    Kindt, M. (2026, 8. Februar). Professor löscht mit nur einem Klick zwei Jahre wissenschaftliche Arbeit - gerne Folgendes beachten. UNIDIGITAL.NEWS. Abgerufen von https://www.unidigital.news/professor-loescht-mit-nur-einem-klick-zwei-jahre-wissenschaftliche-arbeit-gerne-folgendes-beachten/

    Herter, M. (2026, 23. Januar). ChatGPT: Professor verliert zwei Jahre Arbeit. Notebookcheck.com. Abgerufen von https://www.notebookcheck.com/ChatGPT-Professor-verliert-zwei-Jahre-Arbeit.1211144.0.html

    Fox, P. (2023, 14. Dezember). Kontrollverlust über KI ist eine reale Gefahr. Spektrum der Wissenschaft. Abgerufen von https://www.spektrum.de/news/kontrollverlust-ueber-ki-ist-eine-reale-gefahr/2201372

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen