Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Große Sprachmodelle (LLMs) beeindrucken mit ihrer Fähigkeit, komplexe Aufgaben zu bewältigen und menschenähnliche Texte zu generieren. Sie nutzen dabei sowohl ihr vortrainiertes Wissen (parametrisches Wissen) als auch externes, im Kontext bereitgestelltes Wissen (kontextuelles Wissen). Trotz der Fortschritte in der Nutzung beider Wissensformen bleibt die Herausforderung bestehen, dass LLMs in Situationen, in denen ihnen relevantes Wissen fehlt, oftmals ungenaue oder gar frei erfundene Informationen, sogenannte Halluzinationen, produzieren. Dies stellt insbesondere in kritischen Anwendungsbereichen ein erhebliches Problem dar.
Eine neue Forschungsarbeit widmet sich genau dieser Problematik und stellt eine Methode vor, die LLMs befähigt, in solchen Situationen gezielt zu schweigen. Der vorgestellte Ansatz, "Contrastive Decoding with Abstention" (CDA), ermöglicht es LLMs, zwischen Antwortgenerierung und Enthaltung zu wählen. CDA analysiert die Relevanz des verfügbaren Wissens für eine gegebene Anfrage und entscheidet adaptiv, welches Wissen priorisiert oder gänzlich ignoriert werden soll. Bemerkenswert ist, dass CDA ohne zusätzliches Training des Modells auskommt und somit einfach zu implementieren ist.
CDA basiert auf der Idee, die Wahrscheinlichkeit einer Antwort mit der Wahrscheinlichkeit einer Enthaltung zu vergleichen. Dafür wird ein "Null-Token" eingeführt, der die Enthaltung repräsentiert. Während des Dekodierungsprozesses berechnet CDA die Wahrscheinlichkeit für jedes Token, einschließlich des Null-Tokens, basierend auf dem verfügbaren Wissen. Ist die Wahrscheinlichkeit für das Null-Token höher als die Wahrscheinlichkeit für alle anderen Tokens, enthält sich das Modell. Andernfalls generiert es die Antwort mit der höchsten Wahrscheinlichkeit.
Die Stärke von CDA liegt in seiner Fähigkeit, die Relevanz des verfügbaren Wissens dynamisch zu bewerten. Steht ausreichend relevantes Wissen zur Verfügung, generiert das Modell eine fundierte Antwort. Fehlt hingegen relevantes Wissen, entscheidet sich das Modell für die Enthaltung und vermeidet somit die Generierung von Halluzinationen.
Die Wirksamkeit von CDA wurde in umfassenden Experimenten mit vier verschiedenen LLMs und drei Frage-Antwort-Datensätzen evaluiert. Die Ergebnisse zeigen, dass CDA in der Lage ist, sowohl akkurate Antworten zu generieren als auch sich situationsgerecht zu enthalten. Dies unterstreicht das Potenzial von CDA, die Zuverlässigkeit von LLMs zu erhöhen und das Vertrauen der Nutzer zu stärken.
Für Mindverse, ein deutsches Unternehmen, das KI-gestützte Content-Tools entwickelt, sind diese Forschungsergebnisse von besonderer Relevanz. Mindverse bietet eine All-in-One-Plattform für KI-Texte, Bilder, Recherche und mehr. Darüber hinaus entwickelt Mindverse maßgeschneiderte Lösungen wie Chatbots, Voicebots, KI-Suchmaschinen und Wissenssysteme. Die Integration von CDA in die von Mindverse angebotenen Lösungen könnte die Qualität und Zuverlässigkeit der generierten Inhalte deutlich verbessern. Insbesondere in Anwendungsfällen, in denen die Vermeidung von Fehlinformationen entscheidend ist, bietet CDA einen wertvollen Ansatz.
Die Forschung im Bereich der Enthaltung für LLMs steht noch am Anfang. Zukünftige Arbeiten könnten sich auf die Verbesserung der Genauigkeit der Relevanzbewertung und die Entwicklung von Methoden zur dynamischen Anpassung der Enthaltungsschwelle konzentrieren. Die Integration von CDA in verschiedene Anwendungsbereiche, wie beispielsweise medizinische Diagnostik oder juristische Beratung, bietet ebenfalls großes Potenzial.
Bibliographie: https://arxiv.org/abs/2412.12527 https://www.arxiv.org/pdf/2412.12527 https://aclanthology.org/2024.emnlp-main.463.pdf https://pmc.ncbi.nlm.nih.gov/articles/PMC11548250/ https://aclanthology.org/2024.findings-emnlp.197.pdf https://jmlr.org/tmlr/papers/ https://www.researchgate.net/publication/381666781_Teaching_LLMs_to_Abstain_across_Languages_via_Multilingual_Feedback https://github.com/BradyFU/Awesome-Multimodal-Large-Language-Models https://slimessid.github.io/research/publications/ https://openreview.net/forum?id=kJUS5nD0vPBLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen