KI für Ihr Unternehmen – Jetzt Demo buchen

Künstliche Intelligenz auf Smartphones: Die Zukunft der mobilen Sprachmodelle

Kategorien:
No items found.
Freigegeben:
March 11, 2025

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    LLMs auf dem Smartphone: KI in der Hosentasche

    Große Sprachmodelle (LLMs) werden immer kompakter und leistungsfähiger und ermöglichen so die Ausführung direkt auf dem Smartphone. Modelle wie DeepSeek R1 Distil Qwen 2.5 mit 1,5 Milliarden Parametern demonstrieren eindrucksvoll, wie fortschrittliche KI in die Hosentasche passt.

    Dieser Artikel erklärt die Entwicklung einer mobilen App, die die lokale Kommunikation mit diesen leistungsstarken Modellen ermöglicht. Inspiriert von der Pocket Pal App, wird hier eine einfache React Native Anwendung erstellt, die LLMs vom Hugging Face Hub herunterlädt und so Privatsphäre und Offline-Funktionalität gewährleistet. Llama.rn, eine Schnittstelle zu llama.cpp, wird für das effiziente Laden von GGUF-Dateien verwendet.

    Die Wahl des richtigen Modells

    Die Größe des Modells spielt bei der Ausführung auf mobilen Geräten eine entscheidende Rolle:

      - Kleine Modelle (1-3B Parameter): Ideal für die meisten Geräte, gute Leistung und geringe Latenz. - Mittlere Modelle (4-7B Parameter): Funktionieren gut auf neueren High-End-Geräten, können aber auf älteren Smartphones zu Verzögerungen führen. - Große Modelle (8B+ Parameter): Generell zu ressourcenintensiv, können aber durch Quantisierung auf niedrige Präzisionsformate wie Q2_K oder Q4_K_M verwendet werden.

    GGUF-Quantisierungsformate beeinflussen die Balance zwischen Modellgröße und Leistung:

    Legacy Quants (Q4_0, Q4_1, Q8_0):

      - Einfachere Quantisierungsmethoden. - Jeder Block wird mit quantisierten Werten und ein oder zwei Skalierungskonstanten gespeichert. - Schnell, aber weniger effizient als neuere Methoden.

    K-Quants (Q3_K_S, Q5_K_M, ...):

      - Intelligentere Bit-Allokation. - "K" steht für ein gemischtes Quantisierungsformat. - Suffixe (_XS, _S, _M) beziehen sich auf spezifische Quantisierungsmixe (kleiner = mehr Kompression).

    I-Quants (IQ2_XXS, IQ3_S, ...):

      - Blockbasierte Quantisierung mit neuen Funktionen, inspiriert von QuIP. - Kleinere Dateigrößen, möglicherweise langsamer auf bestimmter Hardware. - Ideal für Geräte mit hoher Rechenleistung, aber begrenztem Speicher.

    Empfohlene Modelle:

      - SmolLM2-1.7B-Instruct - Qwen2-0.5B-Instruct - Llama-3.2-1B-Instruct - DeepSeek-R1-Distill-Qwen-1.5B

    Entwicklungsumgebung einrichten

    React Native ermöglicht die Entwicklung plattformübergreifender mobiler Anwendungen mit JavaScript und React. Folgende Tools werden benötigt:

      - Node.js: JavaScript-Laufzeitumgebung. - react-native-community/cli: Kommandozeilenschnittstelle für React Native. - Virtuelles Gerät: Emulator oder Simulator für Android und iOS.

    Die App erstellen

    Die App-Struktur umfasst folgende Ordner und Dateien:

      - android/: Native Android-Projektdateien. - ios/: Native iOS-Projektdateien. - node_modules/: NPM-Abhängigkeiten. - App.tsx: Hauptkomponente der App. - index.js: Registriert die Hauptkomponente.

    Die App wird mit folgendem Befehl initialisiert:

    npx @react-native-community/cli@latest init <Projektname>
    

    Demo und Projekt ausführen

    Zum Ausführen der Demo:

      - Repository klonen: git clone https://github.com/MekkCyber/EdgeLLM.git - Zum Projektverzeichnis navigieren: cd EdgeLLMPlus oder cd EdgeLLMBasic - Abhängigkeiten installieren: npm install - In den iOS-Ordner navigieren und installieren: cd ios && pod install - Metro Bundler starten: npm start - App im Simulator starten: npm run ios oder npm run android.

    App-Implementierung

    Zunächst werden die benötigten Pakete installiert:

    npm install axios react-native-fs llama.rn
    

    Das State-Management in React Native verfolgt verschiedene Zustände der App, wie z.B. den Chatverlauf, die Benutzereingabe, das ausgewählte Modellformat, den Download-Fortschritt und den Modell-Ladezustand.

    Die verfügbaren GGUF-Modelle werden vom Hugging Face Hub abgerufen. Die Modellformate und ihre Repositories werden definiert. Ein API-Aufruf an Hugging Face liefert die verfügbaren GGUF-Dateien, die dann in der App angezeigt werden.

    Die Download-Funktionalität lädt die ausgewählte GGUF-Datei herunter und speichert sie im Dokumentenverzeichnis der App. Das react-native-fs Modul ermöglicht den Zugriff auf das Dateisystem des Geräts.

    Bibliographie: https://huggingface.co/blog/llm-inference-on-edge https://huggingface.co/blog https://www.reddit.com/r/reactnative/comments/1hvs3of/react_native_local_ai/ https://medium.com/@meet30997/on-device-llm-processing-in-android-using-gemma-2b-a3cc5258e7ed https://github.com/Hannibal046/Awesome-LLM https://ai.google.dev/edge/mediapipe/solutions/genai/llm_inference/android https://github.com/underlines/awesome-ml/blob/master/llm-tools.md https://medium.com/@meirgotroot/beyond-hello-world-crafting-a-react-native-chatbot-with-local-llm-integration-90a613975b85 https://blog.swmansion.com/bringing-native-ai-to-your-mobile-apps-with-executorch-part-i-ios-f1562a4556e8 https://underjord.io/challenges-of-local-first-llms.html

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen