Lineare Transformer haben als effiziente Alternative zu Standard-Transformern an Bedeutung gewonnen, zeigen aber bei Aufgaben mit langem Kontext und im Retrieval-Bereich Schwächen. Um diese Einschränkungen zu überwinden, wurden in der aktuellen Forschung zwei Mechanismen untersucht: Gating für die adaptive Speichersteuerung und die Delta-Update-Regel für präzise Speichermodifikationen. Eine neue Forschungsarbeit argumentiert, dass diese Mechanismen komplementär sind: Gating ermöglicht schnelles Löschen von Speicherinhalten, während die Delta-Regel gezielte Aktualisierungen ermöglicht.
Basierend auf dieser Erkenntnis stellen die Forscher die "Gated Delta Rule" vor und entwickeln einen parallelen Trainingsalgorithmus, der für moderne Hardware optimiert ist. Die vorgeschlagene Architektur, Gated DeltaNet, übertrifft bestehende Modelle wie Mamba2 und DeltaNet in verschiedenen Benchmarks, darunter Sprachmodellierung, Common-Sense-Reasoning, In-Context-Retrieval, Längenextrapolation und Long-Context-Understanding.
Gating-Mechanismen ermöglichen es dem Modell, den Informationsfluss innerhalb des Netzwerks zu steuern. Sie wirken wie Filter, die bestimmen, welche Informationen relevant sind und welche ignoriert werden können. Dies ist besonders in langen Sequenzen wichtig, um irrelevante Informationen auszublenden und die Rechenkosten zu reduzieren.
Die Delta-Regel hingegen konzentriert sich auf die präzise Aktualisierung von Speicherinhalten. Anstatt den gesamten Speicherzustand in jedem Schritt neu zu berechnen, werden nur die notwendigen Änderungen vorgenommen. Dies führt zu einer effizienteren Nutzung des Speichers und ermöglicht eine gezieltere Anpassung an neue Informationen.
Gated DeltaNet kombiniert die Stärken von Gating und der Delta-Regel. Durch die Integration des Gating-Mechanismus in die Delta-Regel wird eine feinere Kontrolle über die Speicheraktualisierungen erreicht. Das Modell kann Informationen schnell löschen und gleichzeitig gezielte Aktualisierungen vornehmen, was zu einer verbesserten Leistung in verschiedenen Aufgaben führt.
Zusätzlich zu Gated DeltaNet wurden hybride Architekturen entwickelt, die Gated DeltaNet-Schichten mit Sliding-Window-Attention oder Mamba2-Schichten kombinieren. Diese hybriden Ansätze zielen darauf ab, die Trainingseffizienz weiter zu verbessern und gleichzeitig die Vorteile von Gated DeltaNet zu erhalten. Die Ergebnisse zeigen, dass diese hybriden Modelle sowohl in Bezug auf die Trainingsgeschwindigkeit als auch die Aufgabenerfüllung vielversprechend sind.
Die Entwicklung von Gated DeltaNet und den hybriden Architekturen stellt einen wichtigen Fortschritt im Bereich der linearen Transformer dar. Die verbesserte Effizienz und Leistung dieser Modelle eröffnen neue Möglichkeiten für den Einsatz in verschiedenen KI-Anwendungen, insbesondere im Bereich der Verarbeitung langer Sequenzen und im Retrieval.
Für Unternehmen wie Mindverse, die sich auf die Entwicklung von KI-Lösungen spezialisiert haben, sind diese Fortschritte von besonderer Bedeutung. Effizientere und leistungsfähigere Modelle ermöglichen die Entwicklung von anspruchsvolleren Anwendungen, wie z.B. Chatbots, Voicebots, KI-Suchmaschinen und Wissenssysteme. Die Forschungsergebnisse zu Gated Delta Networks tragen dazu bei, die Grenzen des Machbaren im Bereich der KI zu erweitern und neue Anwendungsmöglichkeiten zu erschließen.
Quellenverzeichnis: Yang, S., Kautz, J., & Hatamizadeh, A. (2024). Gated Delta Networks: Improving Mamba2 with Delta Rule. arXiv preprint arXiv:2412.06464. https://openreview.net/forum?id=r8H7xhYPwz¬eId=U0uk5A0VlT https://arxiv.org/pdf/2412.06464? https://openreview.net/pdf/b4364be17e738609185d8d77f9c2ae800f22c28c.pdf https://chatpaper.com/chatpaper/ja?id=3&date=1733760000&page=1 https://github.com/sustcsonglin/flash-linear-attention https://www.researchgate.net/publication/384887072_The_structure_of_the_token_space_for_large_language_models https://github.com/state-spaces/mamba/issues/410 https://www.researchgate.net/publication/381313744_Parallelizing_Linear_Transformers_with_the_Delta_Rule_over_Sequence_Length https://sustcsonglin.github.io/assets/pdf/talk_240425.pdf