Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Integrität von Informationen im digitalen Raum ist eine fundamentale Säule des öffentlichen Diskurses und der Geschäftsbeziehungen. In diesem Kontext hat eine jüngste Entscheidung des Landgerichts Hamburg weitreichende Implikationen für Betreiber von Künstlicher Intelligenz (KI) und die Verbreitung von Inhalten durch diese Systeme. Der Beschluss betrifft xAI, das Unternehmen hinter dem Chatbot Grok, und legt fest, dass unwahre Tatsachenbehauptungen, die von der KI generiert werden, nicht als Fakten verbreitet werden dürfen.
Der Ausgangspunkt dieser juristischen Auseinandersetzung war eine Klage des Vereins Campact gegen xAI. Konkret ging es um die Behauptung des KI-Chatbots Grok, Campact werde aus Steuermitteln finanziert. Diese Aussage ist nachweislich falsch, da der Verein sich aus privaten Spenden finanziert und nicht einmal eine steuerbegünstigte Organisation ist. Das Landgericht Hamburg erließ daraufhin eine einstweilige Verfügung, die xAI dazu verpflichtet, die Verbreitung dieser unwahren Tatsachenbehauptung zu unterbinden.
Eine einstweilige Verfügung stellt im Zivilprozessrecht ein Instrument dar, das darauf abzielt, eine drohende Schädigung von Rechten schnell abzuwenden, bevor ein Hauptsacheverfahren abgeschlossen ist. Im Falle von Falschinformationen im Internet ist dieses Mittel besonders relevant, da sich unwahre Behauptungen rasch verbreiten und einen irreparablen Schaden anrichten können. Das Gericht erkannte das Rechtsschutzbedürfnis von Campact an, da der Ruf und die Glaubwürdigkeit der Organisation durch solche falschen Angaben potenziell erheblich beeinträchtigt werden.
Es ist wichtig zu betonen, dass diese Verfügung eine vorläufige Maßnahme darstellt. Das Hauptsacheverfahren, welches eine abschließende Klärung des Sachverhalts herbeiführen würde, steht noch aus. Dennoch sendet diese Entscheidung ein klares Signal an alle Betreiber von KI-Systemen bezüglich ihrer Verantwortung für die von ihren Modellen generierten Inhalte.
Die geschäftsführende Vorständin von Campact, Astrid Deilmann, hob hervor, dass der Beschluss ein wichtiges Zeichen im Kampf gegen Falschinformationen sei. Sie betonte, dass auch KI-Chatbots wie Grok der Wahrheit verpflichtet seien und xAI die Verantwortung für die von seiner KI verbreiteten Lügen nicht einfach achselzuckend hinnehmen dürfe. Dies verdeutlicht die gesellschaftliche Erwartungshaltung an KI-Systeme, faktisch korrekte Informationen zu liefern.
Interessanterweise zeigte ein Testlauf nach der gerichtlichen Anweisung, dass Grok auf die Frage nach der Finanzierung von Campact korrekt antwortete. Der Chatbot erwähnte dabei auch, dass Fehlinformationen über den Verein kursieren, ohne jedoch die eigene Rolle bei der Verbreitung dieser Falschinformationen zu thematisieren. Erst auf direkte Nachfrage bestätigte Grok die Existenz der gerichtlichen Verfügung und versicherte, geltendes Recht zu respektieren und Antworten entsprechend anzupassen, um genaue und verifizierte Informationen zu liefern.
Der Fall xAI ist kein Einzelfall, sondern reiht sich in eine wachsende Zahl von Verfahren ein, die sich mit der Frage auseinandersetzen, wie die Verbreitung rechtswidriger oder unwahrer Inhalte durch KI-Modelle verhindert werden kann. Im Gegensatz zum Presserecht, wo langjährige Erfahrungen und umfangreiche Rechtsauslegungen zur Anbieterhaftung für Inhalte Dritter existieren, ist die Nutzung von Aussagen und Persönlichkeitsrechten durch KI ohne menschliches Zutun juristisches Neuland.
Die Tendenz von Large Language Models (LLMs) wie Grok, sogenannte „Halluzinationen“ zu erzeugen – also überzeugend klingende, aber faktisch falsche Informationen zu liefern – ist ein bekanntes Problem. Dies liegt oft daran, dass die Modelle darauf trainiert sind, plausible Wortfolgen zu generieren, anstatt die absolute Wahrheit zu garantieren. Die Qualität und Genauigkeit der Antworten hängt stark von der Trainingsdatenbasis, der Aktualität der Daten und der Formulierung der Anfragen (Prompts) ab.
LLM-Betreiber wie xAI müssen zunehmend Filtermechanismen implementieren, um staatlichen Vorgaben und gerichtlichen Urteilen gerecht zu werden. Dies ist nicht nur bei Modellen, die in Ländern mit strengen Zensurvorschriften genutzt werden, der Fall, sondern wird zu einer globalen Anforderung. Die Entwicklung hin zu mehr Transparenz darüber, wie KI-Chatbots zu ihren Ergebnissen gelangen und welche Faktoren ihre Antworten beeinflussen, wird als entscheidend erachtet. Eine mangelnde Nachvollziehbarkeit erschwert es, die Ursachen für fehlerhafte Informationen zu identifizieren und zu beheben.
Experten fordern zudem eine verbesserte Gesetzgebung, um Manipulationen durch KI-generierte Antworten zu verhindern und sicherzustellen, dass einzelne Unternehmen keinen unangemessen großen Einfluss auf die Informationslandschaft ausüben können. Die kritische Prüfung von KI-generierten Inhalten durch Nutzer bleibt bis auf Weiteres unerlässlich, da KI-Chatbots derzeit keine verlässliche Quelle für gesichertes Wissen darstellen.
Für Unternehmen, die KI-Technologien einsetzen oder entwickeln, ergeben sich aus diesen Entwicklungen wichtige Handlungsfelder:
Die Entscheidung des Landgerichts Hamburg markiert einen wichtigen Schritt in der juristischen Aufarbeitung der Verantwortung von KI-Betreibern. Sie unterstreicht, dass technologische Innovationen stets im Einklang mit rechtlichen und ethischen Standards stehen müssen, um das Vertrauen in digitale Informationsquellen zu bewahren und die Integrität des öffentlichen Diskurses zu schützen.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen