Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Zwar mögen 1,4 Prozent gering erscheinen, doch die potenziellen Auswirkungen sind enorm, wenn man die weit verbreitete Nutzung der Software bedenkt. Wenn Whisper oder ähnliche Software millionenfach verwendet wird, summieren sich diese Fehler schnell.
Und es ist nicht nur eine Frage der Quantität, sondern auch die Qualität dieser Fabrikationen ist beunruhigend. Die Forscher fanden heraus, dass 38 Prozent der erfundenen Inhalte problematisches Material enthielten, von Gewaltdarstellungen über falsche Zuschreibungen bis hin zu irreführenden Behauptungen von Autorität.
Die Studie nennt längere Sprechpausen als einen Hauptgrund für die Fehler. Wenn es eine Lücke in der Audiodatei gibt, versucht Whisper, die Lücken auf der Grundlage seines allgemeinen Sprachwissens zu füllen – und dabei kann es zu Fehlern kommen.
Dieses Problem betrifft Menschen mit Sprachstörungen wie Aphasie stärker als andere, da sie dazu neigen, häufiger zu pausieren. Die Fehlerrate stieg auf 1,7 Prozent im Vergleich zu 1,2 Prozent bei der Kontrollgruppe. Dies erinnert daran, dass die Vorurteile und blinden Flecken der KI sehr reale Folgen für marginalisierte Gemeinschaften haben können.
Andere Forscher haben laut AP ähnliche Probleme dokumentiert. Ein Forscher der Universität von Michigan fand erfundene Inhalte in acht von zehn Transkripten, während ein Ingenieur für maschinelles Lernen Fehler in etwa der Hälfte der mehr als 100 Stunden an Aufnahmen fand, die er analysierte. Ein anderer Entwickler berichtete, Fehler in fast allen seiner 26.000 Transkripte gefunden zu haben, berichtet AP.
OpenAI räumt diese Einschränkungen ein und rät davon ab, Whisper in „risikoreichen Bereichen wie Entscheidungskontexten einzusetzen, in denen Ungenauigkeiten zu schwerwiegenden Fehlern bei den Ergebnissen führen können“.
Auch das neueste Whisper v3-Modell leidet unter Halluzinationen. OpenAI geht davon aus, dass diese auftreten, „weil die Modelle aufgrund ihres allgemeinen Sprachwissens versuchen, das nächste Wort in einer Audiodatei vorherzusagen und gleichzeitig die Audiodatei selbst zu transkribieren“.
Die Tatsache, dass audiobasierte KI-Tools wie Whisper genauso sehr halluzinieren wie ChatGPT, ist gut dokumentiert, aber offenbar nicht jedem bewusst, wie der jüngste Hype um KI-generierte Podcasts zeigt.
Tools wie Audio Overviews von NotebookLM können aus kurzen Themen lange Diskussionen spinnen, was noch mehr Raum für Fehler lässt. Und mit natürlich klingenden KI-Stimmen ist es nur allzu leicht, die Ausgabe für bare Münze zu nehmen.
Das bedeutet nicht, dass KI-Podcasts per se schlecht oder nutzlos sind. Sie können zum Beispiel für die Erstellung von Bildungsinhalten nützlich sein, solange das Material gründlich überprüft werden kann. Sich aber auf sie zu verlassen, um neue Informationen ohne Überprüfung zu erhalten, ist eine schlechte Idee.
Die wichtigste Erkenntnis ist, dass menschliche Aufsicht für jede Art von KI-generierten Inhalten unerlässlich ist, egal ob es sich um Texte, Transkripte oder Podcasts handelt. Wir brauchen Experten, die das Thema verstehen, um die Ergebnisse zu überprüfen und zu validieren. Denn mit der aktuellen Technologie ist es ein sicherer Weg, Fehler zu übersehen, wenn man KI-generierten Inhalten blind vertraut, unabhängig vom Format.
https://medium.com/analytics-matters/generative-ai-its-all-a-hallucination-6b8798445044
https://outshift.cisco.com/blog/what-are-ai-hallucinations
https://www.aporia.com/learn/ai-hallucinations/
https://curiousthing.io/blog/what-are-ai-hallucinations
https://www.linkedin.com/pulse/yes-even-robots-lie-sometimes-how-spot-handle-ai-josh-dreller-lkhyc
https://qz.com/artificial-intelligence-hallucinations-ai-chatgpt-bard-1850429708
https://insideainews.com/2024/01/16/generative-ai-models-are-built-to-hallucinate-the-question-is-how-to-control-them/
https://www.salesforce.com/blog/generative-ai-hallucinations/
https://www.economist.com/science-and-technology/2024/02/28/ai-models-make-stuff-up-how-can-hallucinations-be-controlled
https://thereader.mitpress.mit.edu/hallucinating-ais-sound-creative-but-lets-not-celebrate-being-wrong/
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen