Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
In der schnelllebigen Welt der künstlichen Intelligenz (KI) sind die Vorteile von Tools wie ChatGPT unbestreitbar. Sie unterstützen bei der Automatisierung von Aufgaben, der Generierung von Inhalten und der Beschleunigung von Forschungsprozessen. Doch ein kürzlich bekannt gewordener Vorfall wirft ein Schlaglicht auf potenzielle Risiken im Umgang mit diesen Technologien, insbesondere im professionellen Kontext. Ein deutscher Universitätsprofessor erlebte den unwiederbringlichen Verlust von zwei Jahren seiner Forschungsarbeit, gespeichert in ChatGPT, durch eine einzige, scheinbar harmlose Klickaktion.
Marcel Bucher, Professor für Pflanzenwissenschaften an der Universität zu Köln, nutzte ChatGPT als integralen Bestandteil seiner täglichen Arbeit. Über einen Zeitraum von zwei Jahren setzte er die KI intensiv ein, um E-Mails zu verfassen, Vorlesungen vorzubereiten, Prüfungen zu erstellen, studentische Antworten zu analysieren und sogar als interaktives Lehrmittel. Die Vorteile lagen für ihn klar auf der Hand: Die KI konnte sich an frühere Gespräche erinnern und stand jederzeit zur Verfügung, was die Effizienz seiner wissenschaftlichen Tätigkeiten erheblich steigerte. Er war ein zahlender Abonnent von ChatGPT Plus und vertraute auf die Stabilität und Kontinuität des Systems.
Im August des vergangenen Jahres, so berichtete Professor Bucher in einem Beitrag für die Fachzeitschrift Nature, klickte er aus Neugier auf eine Option in den Datenschutzeinstellungen von ChatGPT. Er deaktivierte die Einstellung „Das Modell für alle verbessern“, eine Funktion, die OpenAI erlaubt, Konversationen für das Training zukünftiger KI-Modelle zu nutzen. Bucher wollte lediglich überprüfen, ob er nach Deaktivierung dieser Option weiterhin vollen Zugriff auf alle Funktionen des KI-Modells haben würde. Die Folge war jedoch unerwartet drastisch: Ihm wurde eine leere Chat-Übersicht präsentiert. Sämtliche Konversationen, die er über die Jahre mit ChatGPT geführt hatte, waren verschwunden. Auch Projektordner mit Forschungsarbeiten wurden unwiederbringlich gelöscht.
Professor Bucher versuchte zunächst, den Verlust als technischen Fehler zu beheben. Er löschte den Browser-Cache und wechselte den Browser, doch ohne Erfolg. Nach Kontaktaufnahme mit dem Support von OpenAI erhielt er die ernüchternde Nachricht: Die Daten waren dauerhaft gelöscht und konnten nicht wiederhergestellt werden. OpenAI begründete dies mit dem Prinzip „Privacy by Design“ (Datenschutz durch Technikgestaltung). Sobald die Option zur Datenfreigabe deaktiviert wird, wird die Chat-Historie automatisch gelöscht, und es werden keine Backups vorgehalten, die eine Wiederherstellung ermöglichen würden.
Dieser Aspekt ist besonders kritisch, da der Nutzer vor der Deaktivierung der Option offenbar keine explizite Warnung über die unwiderrufliche Löschung seiner Daten erhielt. Obwohl OpenAI später angab, eine Bestätigungsaufforderung vor der endgültigen Löschung bereitzustellen, war diese im Fall von Professor Bucher nicht ausreichend oder nicht vorhanden.
Der Vorfall mit Professor Bucher verdeutlicht die Notwendigkeit eines bewussten Umgangs mit KI-Tools, insbesondere im B2B-Bereich, wo sensible Daten und umfangreiche Arbeitsergebnisse verarbeitet werden. Professor Bucher selbst zog ein klares Fazit: „Wenn ein einfacher Klick ausreicht, um Jahre an Arbeit zu löschen, kann ChatGPT meiner Meinung und Erfahrung nach für professionelle Arbeiten nicht als sicher angesehen werden. Als zahlender Abonnent gehe ich davon aus, dass es Sicherheitsmaßnahmen gibt – inklusive einer Warnung über das unwiderrufliche Löschen, eine Wiederherstellungsoption oder ein zeitlich limitiertes Backup oder Redundanz.“
Für Unternehmen, die KI-Tools in ihre Geschäftsprozesse integrieren, ergeben sich daraus mehrere Handlungsempfehlungen:
Der Vorfall mit Professor Bucher wirft auch Fragen an die Anbieter von KI-Diensten auf. Das Prinzip "Privacy by Design" zielt darauf ab, den Datenschutz von Anfang an in die Entwicklung von Systemen zu integrieren. Im Kontext der Datenlöschung bedeutet dies, dass Daten, sobald der Nutzer die Nicht-Verwendung für Trainingszwecke wählt, unwiederbringlich gelöscht werden, um die Privatsphäre zu gewährleisten. Während dies aus datenschutzrechtlicher Sicht lobenswert sein mag, muss die Umsetzung so erfolgen, dass Nutzer nicht versehentlich wichtige Informationen verlieren.
Die Diskussion um "Privacy by Design" muss daher auch die "Usability" und die "Data Loss Prevention" (Verhinderung von Datenverlust) umfassen. Ein ausgewogenes Verhältnis zwischen maximalem Datenschutz und der Absicherung gegen ungewollten Datenverlust ist hierbei der Schlüssel. Die Erwartung, dass ein zahlender Abonnent grundlegende Schutzmechanismen wie Warnungen und Wiederherstellungsoptionen erwarten darf, ist eine legitime Forderung, die von KI-Anbietern ernst genommen werden sollte.
Der Fall des Kölner Professors dient als eindringliche Mahnung für alle Unternehmen, die auf KI-Technologien setzen. Die Leistungsfähigkeit von KI-Tools ist enorm, doch die Verantwortung für die eigenen Daten bleibt letztlich beim Nutzer. Eine proaktive Herangehensweise an Datensicherheit, klare interne Richtlinien und eine kontinuierliche Evaluierung der eingesetzten Tools sind unerlässlich, um ähnliche Verluste zu vermeiden und das volle Potenzial der KI sicher zu nutzen. Die Investition in umfassende Backup-Lösungen und die Sensibilisierung der Mitarbeiter sind dabei nicht nur eine technische, sondern eine strategische Notwendigkeit.
Bibliography: - Fuhrmann, Marvin. "Ein Klick, zwei Jahre weg: Wie ein Professor versehentlich seine komplette ChatGPT-Forschung löschte", t3n, 7. Februar 2026. - Sheridan, Leila. "A Professor Trusted ChatGPT With 2 Years of Work—Then 1 Click Wiped It All Away", Inc., 23. Januar 2026. - Prada, Luis. "Scientist Loses Years of Work After Tweaking ChatGPT Settings", VICE, 28. Januar 2026. - Tangermann, Victor. "Scientist Horrified as ChatGPT Deletes All His 'Research'", Futurism, 24. Januar 2026. - Konecny, Jaromir. "Der Fluch der Umkehrung", SciLogs - Spektrum.de, 8. August 2024. - Notebookcheck.com. "ChatGPT: Professor verliert zwei Jahre Arbeit", 23. Januar 2026. - Nature. "When two years of academic work vanished with a single click", Nature, 2026.Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen