Jetzt reinschauen – neue Umgebung live

Erweiterte Kontextverarbeitung in KI-Modellen für Langzeitgedächtnis-Agenten

Kategorien:
No items found.
Freigegeben:
January 15, 2025

Artikel jetzt als Podcast anhören

KI-Modelle mit erweitertem Kontextfenster für Agenten mit Langzeitgedächtnis

Das chinesische KI-Startup MiniMax hat die Open-Source-Modellfamilie MiniMax-01 veröffentlicht. Diese umfasst zwei Modelle: MiniMax-Text-01 für die Textverarbeitung und MiniMax-VL-01 für die Verarbeitung von Text- und Bilddaten. Besonders hervorzuheben ist die Fähigkeit von MiniMax-Text-01, Kontexte mit bis zu 4 Millionen Token zu verarbeiten – doppelt so viel wie der bisherige Spitzenreiter.

"Lightning Attention" und Mixture-of-Experts-Architektur

Für die effiziente Verarbeitung solch langer Kontexte verwendet MiniMax einen hybriden Ansatz. Das System kombiniert den "Lightning Attention"-Mechanismus mit traditionellen Transformer-Blöcken in einem Verhältnis von 7:1. Laut MiniMax reduziert diese Architektur den Rechenaufwand für lange Eingaben erheblich, während die Vorteile der Transformer-Architektur erhalten bleiben.

Ergänzend kommt eine "Mixture of Experts" (MoE)-Struktur zum Einsatz. Hierbei handelt es sich um eine Schicht spezialisierter Submodelle, die für unterschiedliche Aufgaben optimiert sind. Das System wählt die am besten geeigneten Experten basierend auf dem Kontext aus und kombiniert deren Ergebnisse. MiniMax-Text-01 verfügt über 32 solcher Experten mit jeweils 45,9 Milliarden Parametern, was eine Gesamtzahl von etwa 456 Milliarden Parametern ergibt.

Benchmark-Tests und Leistungsfähigkeit

In Benchmark-Tests zeigt MiniMax-01 eine Leistung, die mit führenden kommerziellen Modellen wie GPT-4 und Claude 3.5 Sonnet vergleichbar ist. Besonders bei Aufgaben mit langen Kontexten erzielt das Modell gute Ergebnisse. MiniMax gibt an, dass MiniMax-Text-01 im "Needle-In-A-Haystack"-Test mit 4 Millionen Token eine Genauigkeit von 100% erreicht.

Es ist jedoch anzumerken, dass Googles Gemini 1.5 Pro mit seinem 2-Millionen-Token-Fenster ebenfalls eine perfekte Punktzahl in diesem Benchmark erreicht hat. Studien deuten darauf hin, dass extrem große Kontextfenster in Kombination mit Retrieval-Augmented Generation (RAG)-Systemen möglicherweise keine signifikanten Vorteile gegenüber kleineren Kontextfenstern bieten.

Open Source und Verfügbarkeit

Die MiniMax-01-Modelle sind auf GitHub und Hugging Face zum Download verfügbar. Nutzer können sie über den Hailuo AI Chatbot von MiniMax testen oder über eine API integrieren. Die API-Kosten sind im Vergleich zu anderen Anbietern relativ günstig.

MiniMax, unterstützt von Alibaba und gegründet Ende 2021, erlangte bereits im Herbst letzten Jahres mit seinem Video-01-Generator Aufmerksamkeit. Während MiniMax DeepSeek als Konkurrenten betrachtet, werden die Modelle beider Unternehmen wahrscheinlich Einschränkungen durch die chinesische Zensur erfahren.

Langzeitgedächtnis und KI-Agenten

Die Erweiterung des Kontextfensters ermöglicht KI-Agenten eine Form von "Langzeitgedächtnis". Sie können Informationen aus verschiedenen Quellen sammeln, verknüpfen und für spätere Aufgaben speichern. Dies ist besonders relevant für komplexe Aufgaben, die ein Verständnis von Zusammenhängen über längere Zeiträume erfordern.

Die Entwicklung von KI-Agenten mit Langzeitgedächtnis ist ein aktives Forschungsgebiet. Die Fortschritte von MiniMax mit der MiniMax-01-Modellfamilie stellen einen wichtigen Beitrag zu diesem Bereich dar und eröffnen neue Möglichkeiten für die Entwicklung intelligenterer und anpassungsfähigerer KI-Systeme.

https://the-decoder.com/minimax-introduces-ai-models-with-record-context-length-for-agents-with-long-term-memory/ https://venturebeat.com/ai/minimax-unveils-its-own-open-source-llm-with-industry-leading-4m-token-context/ https://arxiv.org/abs/2409.14908 https://www.sciencedirect.com/science/article/pii/S2666675821001041 https://www.linkedin.com/pulse/ai-agents-memory-context-retention-beyond-short-ganesh-jagadeesan-7hcoc https://aiindex.stanford.edu/wp-content/uploads/2023/04/HAI_AI-Index-Report_2023.pdf https://developers.google.com/machine-learning/glossary https://medium.com/@lorenzobradanini964/long-term-memory-for-ai-agents-1d93516c08ae https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf
Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.