Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Große Sprachmodelle (LLMs) werden immer kompakter und leistungsfähiger und ermöglichen so die Ausführung direkt auf dem Smartphone. Modelle wie DeepSeek R1 Distil Qwen 2.5 mit 1,5 Milliarden Parametern demonstrieren eindrucksvoll, wie fortschrittliche KI in die Hosentasche passt.
Dieser Artikel erklärt die Entwicklung einer mobilen App, die die lokale Kommunikation mit diesen leistungsstarken Modellen ermöglicht. Inspiriert von der Pocket Pal App, wird hier eine einfache React Native Anwendung erstellt, die LLMs vom Hugging Face Hub herunterlädt und so Privatsphäre und Offline-Funktionalität gewährleistet. Llama.rn, eine Schnittstelle zu llama.cpp, wird für das effiziente Laden von GGUF-Dateien verwendet.
Die Größe des Modells spielt bei der Ausführung auf mobilen Geräten eine entscheidende Rolle:
GGUF-Quantisierungsformate beeinflussen die Balance zwischen Modellgröße und Leistung:
Legacy Quants (Q4_0, Q4_1, Q8_0):
K-Quants (Q3_K_S, Q5_K_M, ...):
I-Quants (IQ2_XXS, IQ3_S, ...):
Empfohlene Modelle:
React Native ermöglicht die Entwicklung plattformübergreifender mobiler Anwendungen mit JavaScript und React. Folgende Tools werden benötigt:
Die App-Struktur umfasst folgende Ordner und Dateien:
Die App wird mit folgendem Befehl initialisiert:
npx @react-native-community/cli@latest init <Projektname>
Zum Ausführen der Demo:
git clone https://github.com/MekkCyber/EdgeLLM.git
- Zum Projektverzeichnis navigieren: cd EdgeLLMPlus
oder cd EdgeLLMBasic
- Abhängigkeiten installieren: npm install
- In den iOS-Ordner navigieren und installieren: cd ios && pod install
- Metro Bundler starten: npm start
- App im Simulator starten: npm run ios
oder npm run android
.
Zunächst werden die benötigten Pakete installiert:
npm install axios react-native-fs llama.rn
Das State-Management in React Native verfolgt verschiedene Zustände der App, wie z.B. den Chatverlauf, die Benutzereingabe, das ausgewählte Modellformat, den Download-Fortschritt und den Modell-Ladezustand.
Die verfügbaren GGUF-Modelle werden vom Hugging Face Hub abgerufen. Die Modellformate und ihre Repositories werden definiert. Ein API-Aufruf an Hugging Face liefert die verfügbaren GGUF-Dateien, die dann in der App angezeigt werden.
Die Download-Funktionalität lädt die ausgewählte GGUF-Datei herunter und speichert sie im Dokumentenverzeichnis der App. Das react-native-fs
Modul ermöglicht den Zugriff auf das Dateisystem des Geräts.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen