Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
GitHub, eine zentrale Plattform für Softwareentwicklung und Versionskontrolle, passt die Abrechnungsstruktur für seinen KI-gestützten Programmierassistenten Copilot an. Ab dem 1. Juni 2026 wird das bisherige Modell, das hauptsächlich auf Premium-Anfragen basierte, durch eine nutzungsbasierte Abrechnung ersetzt. Diese Änderung, die weitreichende Implikationen für individuelle Entwickler, Bildungseinrichtungen und Unternehmen haben dürfte, zielt darauf ab, den gestiegenen Anforderungen an Rechen- und Inferenzleistung gerecht zu werden, die mit der zunehmenden Nutzung von "agentic coding" einhergehen.
Das Kernstück der Umstellung ist die Einführung von "AI Credits". Anstatt einer pauschalen Anzahl von Premium-Anfragen wird der Verbrauch von Tokens abgerechnet, wobei ein Credit einem Wert von 0,01 US-Dollar entspricht. Die Kosten pro Token variieren je nach dem verwendeten KI-Modell; leistungsfähigere Modelle erfordern einen höheren Credit-Einsatz pro Token. Dies umfasst Eingabe-, Ausgabe- und Cache-Tokens, deren Preise je nach Modell deutlich differieren können. Beispielsweise können eine Million Output-Tokens für das Modell GPT-5.4 nano 1,25 US-Dollar kosten, während für GPT-5.5 bis zu 30 US-Dollar anfallen können. Claude Opus 4.7 wird mit 25 US-Dollar und Gemini 3.1 Pro mit 12 US-Dollar pro Million Output-Tokens berechnet.
Eine signifikante Neuerung ist das Entfallen der kostenlosen Fallback-Modelle, wie GPT-5 mini, GPT-4.1 und GPT-4o. Wenn das zugewiesene Budget an AI Credits aufgebraucht ist, müssen Nutzer zusätzliche Credits erwerben, um die Nutzung fortzusetzen. Für Code-Reviews fallen zudem die üblichen Minutenpreise für GitHub Actions an.
GitHub begründet die Anpassung des Abrechnungsmodells mit der rasanten Entwicklung und Intensivierung der Nutzung von Copilot. Insbesondere "agentic workflows", die lange, parallelisierte Sitzungen umfassen und komplexe Programmierprobleme lösen, beanspruchen weitaus mehr Ressourcen als die ursprüngliche Tarifstruktur vorsah. Die Nutzung von KI-Agenten, die immer mehr Aufgaben übernehmen, führt zu einem erheblich höheren Bedarf an Rechen- und Inferenzleistung. Das bisherige Modell, das Premiumanfragen unabhängig vom Umfang der Anfrage berechnete, war laut GitHub nicht mehr nachhaltig, da die Komplexität und der Kontext von Anfragen mit Agenten erheblich zugenommen haben.
Für bestehende monatliche Abonnenten erfolgt die Umstellung auf das neue nutzungsbasierte Modell automatisch. Jährliche Verträge werden nicht verlängert; stattdessen wird für die verbleibende Laufzeit ein Multiplikator für teurere Modelle angewendet. Ab Mai 2026 wird GitHub auf der Abrechnungsseite eine Vorschau der voraussichtlichen Kosten unter dem neuen Modell bereitstellen.
Business- und Enterprise-Kunden erhalten in den ersten drei Monaten nach der Umstellung zusätzliche Promotion-Credits im Wert von 30 US-Dollar bzw. 70 US-Dollar. Die kürzlich eingeführte temporäre Sperre für individuelle Neuanmeldungen zu den Copilot Pro, Pro+ und Student-Tarifen wird mit der Einführung der neuen Tarife aufgehoben.
Der Free-Tarif wird grundsätzlich beibehalten, jedoch mit eingeschränkter Funktionalität. Er umfasst derzeit 50 Premium-Anfragen und 2000 Code-Vorschläge pro Monat. Für Studierende, die bisher von kostenlosem Zugang zu Modellen wie GPT-5.4, Claude Opus und Sonnet profitierten, bedeutet die Umstellung, dass diese leistungsstärkeren Modelle nicht mehr kostenlos zur Verfügung stehen. GitHub verweist darauf, dass dies notwendig sei, um den kostenlosen Zugang für Millionen von Studierenden weltweit nachhaltig zu gestalten. Studierende haben die Möglichkeit, auf kostenpflichtige Pro- oder Pro+-Pläne aufzurüsten, um weiterhin Zugriff auf diese Modelle zu erhalten.
Die Änderungen haben in der Community zu Diskussionen geführt. Insbesondere der Wegfall der kostenlosen Fallback-Modelle wird von Anwendern auf der FAQ-Seite kritisiert. Viele sahen in dieser Möglichkeit einen wesentlichen Vorteil des bisherigen Copilot-Tarifs gegenüber Konkurrenzprodukten. Das Fehlen dieser Option könnte insbesondere für Entwickler mit begrenztem Budget oder Studierende eine Herausforderung darstellen, da sie nun bei Erreichen des zugewiesenen Kontingents zusätzliche Kosten tragen müssen.
GitHub hat angekündigt, die Transparenz bezüglich der Nutzungslimits zu verbessern. In VS Code und dem Copilot CLI wird der verfügbare Verbrauch angezeigt, um Nutzern eine bessere Kontrolle über ihre Ausgaben zu ermöglichen. Empfehlungen zur effizienteren Nutzung beinhalten den Einsatz kleinerer Modelle für einfachere Aufgaben, die Reduzierung paralleler Workflows und gegebenenfalls ein Upgrade auf einen höherwertigen Plan.
Zusammenfassend lässt sich festhalten, dass die Anpassung des Abrechnungsmodells eine Reaktion auf die veränderten Nutzungsweisen und den gestiegenen Rechenbedarf von KI-gestützten Entwicklungstools darstellt. Während die Umstellung auf eine nutzungsbasierte Abrechnung eine größere Fairness in Bezug auf den tatsächlichen Ressourcenverbrauch ermöglichen soll, stellt sie Nutzer auch vor die Notwendigkeit, ihren Verbrauch genauer zu überwachen und gegebenenfalls ihre Budgetplanung anzupassen.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen