Jetzt reinschauen – neue Umgebung live

Automatisierte Qualitätssicherung von KI-Ergebnissen durch DeepCritic und große Sprachmodelle

Kategorien:
No items found.
Freigegeben:
May 5, 2025

Artikel jetzt als Podcast anhören

Automatisierte Qualitätskontrolle für KI: DeepCritic nutzt große Sprachmodelle zur detaillierten Bewertung

Große Sprachmodelle (LLMs) entwickeln sich rasant weiter. Damit einher geht die dringende Notwendigkeit, ihre Ergebnisse akkurat zu bewerten und zu kontrollieren. Ein vielversprechender Ansatz zur Bewältigung dieser Herausforderung ist die Nutzung von LLMs als Kritikmodelle für eine automatisierte Supervision. Ein aktuelles Forschungsvorhaben konzentriert sich auf die Verbesserung der mathematischen Kritikfähigkeit von LLMs und stellt den neuen Ansatz "DeepCritic" vor.

Herausforderungen bestehender Kritikmodelle

Bisherige LLM-basierte Kritikmodelle liefern oft oberflächliche und unzureichende Rückmeldungen zu einzelnen Rechenschritten. Dies führt zu einer geringen Genauigkeit bei der Beurteilung der Ergebnisse und erschwert es dem generierenden LLM, Fehler zu korrigieren. Die Kritik bietet nicht genug Substanz, um den Generierungsprozess zu optimieren.

DeepCritic: Ein zweistufiger Ansatz für detaillierte Kritik

Um dieses Problem anzugehen, wurde DeepCritic, ein innovatives zweistufiges Framework entwickelt. Ziel ist es, LLM-Kritiker zu entwickeln, die in der Lage sind, jeden einzelnen Rechenschritt einer mathematischen Lösung sorgfältig zu prüfen.

In der ersten Stufe wird Qwen2.5-72B-Instruct verwendet, um 4.500 ausführliche Kritiken als Seed-Daten für das überwachte Finetuning zu generieren. Jede dieser Kritiken besteht aus detaillierten, schrittweisen Bewertungen, die sowohl multiperspektivische Überprüfungen als auch eingehende Kritiken der ursprünglichen Bewertungen für jeden einzelnen Rechenschritt umfassen.

In der zweiten Stufe wird das feinabgestimmte Modell mit Reinforcement Learning weiter optimiert. Dafür werden entweder vorhandene, von Menschen annotierte Daten aus PRM800K oder automatisch annotierte Daten verwendet, die durch eine auf Monte-Carlo-Sampling basierende Korrektheitseinschätzung gewonnen wurden. Dieser Schritt soll die Kritikfähigkeit des Modells weiter verbessern.

Überzeugende Ergebnisse im Vergleich zu anderen Modellen

Das auf Qwen2.5-7B-Instruct basierende Kritikmodell von DeepCritic übertrifft bestehende LLM-Kritiker, einschließlich der DeepSeek-R1-distill Modelle gleicher Größe und GPT-4o, in verschiedenen Benchmarks zur Fehleridentifikation deutlich. Darüber hinaus unterstützt es den generierenden LLM durch detaillierteres Feedback effektiver bei der Korrektur fehlerhafter Schritte.

Potenzial für die Zukunft der KI-Entwicklung

DeepCritic demonstriert das Potenzial von LLMs für die automatisierte Qualitätskontrolle und bietet eine vielversprechende Lösung für die wachsende Herausforderung der Bewertung von LLM-generierten Inhalten. Die detaillierten, schrittweisen Kritiken ermöglichen eine tiefere Analyse und ein besseres Verständnis der Stärken und Schwächen von LLMs. Dies trägt dazu bei, die Genauigkeit und Zuverlässigkeit von KI-Systemen zu verbessern und ebnet den Weg für komplexere und anspruchsvollere Anwendungen in der Zukunft.

Bibliographie: Yang, W., Chen, J., Lin, Y., & Wen, J.-R. (2025). DeepCritic: Deliberate Critique with Large Language Models. arXiv preprint arXiv:2505.00662. http://paperreading.club/page?id=302967 https://huggingface.co/papers https://chatpaper.com/chatpaper/zh-CN?id=3&date=1746115200&page=1 https://arxiv.org/list/cs.CL/recent https://huggingface.co/Tommy930/activity/all https://github.com/llm-as-a-judge/Awesome-LLM-as-a-judge https://chatpaper.com/chatpaper/ja?id=3&date=1746115200&page=1 https://www.researchgate.net/publication/389748148_DeepReview_Improving_LLM-based_Paper_Review_with_Human-like_Deep_Thinking_Process
Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.