Die Zuverlässigkeit von Künstlicher Intelligenz (KI) ist ein aktuell viel diskutiertes Thema. Dario Amodei, CEO des KI-Unternehmens Anthropic, sorgte kürzlich für Aufsehen mit der Behauptung, moderne KI-Modelle würden seltener halluzinieren als Menschen. Diese Aussage, die er unter anderem auf dem Anthropic-Entwicklerevent „Code with Claude“ tätigte, basiert laut Amodei auf faktenbasierten Aufgaben in kontrollierten Tests. Doch was genau ist unter „Halluzinationen“ im Kontext von KI zu verstehen und wie lässt sich Amodeis These einordnen?
Im Bereich der KI bezieht sich der Begriff "Halluzination" auf die Generierung von Inhalten, die keiner realen Grundlage entsprechen. Die KI erfindet im Prinzip Informationen, präsentiert diese aber mit der gleichen Überzeugung wie korrekte Daten. Dies kann von der falschen Darstellung von Fakten bis hin zur Erfindung ganzer Geschichten reichen.
Amodei sieht in den gelegentlichen Fehlern kein Hindernis auf dem Weg zur Künstlichen Allgemeinen Intelligenz (AGI). Er vergleicht KI-Halluzinationen mit menschlichen Fehlern, wie sie auch bei Journalist:innen oder Politiker:innen vorkommen. Diese optimistische Einschätzung wird jedoch nicht von allen geteilt. Demis Hassabis, CEO von Google DeepMind, äußerte sich beispielsweise deutlich zurückhaltender und sieht in den bestehenden Schwächen der aktuellen KI-Modelle ein erhebliches Hindernis.
Ein zentrales Problem in der Debatte ist die Schwierigkeit, KI-Halluzinationen objektiv zu messen. Bisherige Benchmarks vergleichen meist nur verschiedene KI-Modelle untereinander, nicht aber die KI mit dem Menschen. Ein standardisierter Vergleich, der die Fehleranfälligkeit von Mensch und Maschine in gleichen Szenarien misst, fehlt bislang. Zudem ist die Datenlage zur Fehleranfälligkeit von KI-Modellen widersprüchlich. Während einige Studien auf sinkende Halluzinationsraten bei neueren Modellen hinweisen, zeigen andere, dass komplexere Modelle teilweise höhere Fehlerraten aufweisen.
Ein bekanntes Beispiel für die potenziellen Probleme von KI-Halluzinationen ist der Fall eines Anwalts, der einen KI-Chatbot für eine Klageschrift verwendete. Der Chatbot erfand dabei Namen und Aktenzeichen, was zu erheblichen Schwierigkeiten führte. Amodei räumt ein, dass das größte Problem nicht der Fehler an sich sei, sondern das Selbstbewusstsein, mit dem die KI falsche Informationen präsentiert. Dies stellt eine Herausforderung dar, die es zu bewältigen gilt.
Die Diskussion um die Zuverlässigkeit von KI und das Phänomen der Halluzinationen wird die Entwicklung der Technologie weiter begleiten. Ob KI-Modelle tatsächlich seltener halluzinieren als Menschen, lässt sich derzeit aufgrund der fehlenden Vergleichsstandards nicht abschließend beurteilen. Klar ist jedoch, dass die Entwicklung robuster und zuverlässiger KI-Systeme ein zentrales Anliegen der Forschung und Entwicklung bleibt. Die Frage, ob eine halluzinierende KI überhaupt die Definition von AGI erfüllen kann, bleibt eine der spannendsten Fragen in der aktuellen KI-Debatte.
Mindverse bietet als deutsches Unternehmen umfassende KI-Lösungen für Text, Bild und Recherche. Von Chatbots und Voicebots über KI-Suchmaschinen bis hin zu maßgeschneiderten Wissensmanagementsystemen – Mindverse unterstützt Unternehmen bei der Integration von KI in ihre Geschäftsprozesse.
Bibliographie: - https://t3n.de/news/luegt-claude-seltener-als-du-1689477/ - https://t3n.de/tag/kuenstliche-intelligenz/ - https://t3n.de/news/anthropic-ceo-warnt-ki-koennte-millionen-gut-bezahlte-jobs-vernichten-1690332/ - https://the-decoder.de/anthropic-ceo-sagt-massive-job-verluste-vorher-und-schlaegt-eine-token-steuer-vor/ - https://t3n.de/ - https://www.all-ai.de/news/topbeitraege/ki-mensch-halluzination - https://t3n.de/news/maschinen-psychologie-ki-modelle-wehren-sich-gegen-abschaltung-1690102/ - https://retail-news.de/ki-buero-arbeitsplaetze-jobverlust/ - https://www.vietnam.vn/de/ai-ao-giac-nhung-con-nguoi-bi-con-nhieu-hon