Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Google hat eine neue Streaming-API für sein multimodales Modell Gemini 2.0 veröffentlicht. Diese ermöglicht Echtzeit-Interaktionen über Audio, Video und Text. Entwickler Simon Willison demonstrierte die Technologie in einem kurzen iPhone-Video, das eine Live-Konversation mit Gemini über Objekte zeigt, die es durch die Kamera sehen konnte. Die API ist nun in einer Preview-Version für Entwickler verfügbar, die sie testen möchten, wobei ein gewisser technischer Einrichtungsaufwand erforderlich ist.
Diese Veröffentlichung erfolgt zeitgleich mit der Einführung einer ähnlichen Funktion für ChatGPT von OpenAI, die es der KI ermöglicht, in Echtzeit Videoinhalte von Smartphones zu diskutieren. Damit zeichnet sich ein Trend ab, bei dem KI-Modelle zunehmend in der Lage sind, Informationen aus verschiedenen Modalitäten zu verarbeiten und in Echtzeit zu interagieren.
Gemini 1.0, das erste nativ multimodale Modell von Google, wurde im Dezember 2023 vorgestellt. Es ermöglichte bereits große Fortschritte in der Multimodalität und der Verarbeitung von langen Kontexten, um Informationen aus Text, Video, Bildern, Audio und Code zu verstehen.
Mit Gemini 2.0 geht Google einen Schritt weiter und konzentriert sich auf die Entwicklung "agentenorientierter" Modelle. Diese Modelle können die Welt um den Nutzer herum besser verstehen, mehrere Schritte im Voraus denken und im Auftrag des Nutzers, unter dessen Aufsicht, Handlungen ausführen.
Gemini 2.0 Flash, die experimentelle Version des neuen Modells, bietet neben multimodalen Eingaben nun auch multimodale Ausgaben wie nativ generierte Bilder gemischt mit Text und steuerbare, mehrsprachige Text-to-Speech-Audioausgaben. Es kann auch nativ Tools wie die Google-Suche, Codeausführung sowie benutzerdefinierte Funktionen von Drittanbietern aufrufen.
Die neuen Funktionen von Gemini 2.0 eröffnen eine Vielzahl von Anwendungsmöglichkeiten. Google erforscht diese mit verschiedenen Prototypen:
Project Astra: Ein Forschungsprototyp, der die zukünftigen Möglichkeiten eines universellen KI-Assistenten untersucht. Verbesserungen in der neuesten Version mit Gemini 2.0 umfassen eine bessere Dialogführung, die Nutzung neuer Tools wie Google Search, Lens und Maps, ein verbessertes Gedächtnis und eine geringere Latenz.
Project Mariner: Dieser Prototyp erforscht die Zukunft der Mensch-Agenten-Interaktion im Browser. Er kann Informationen auf dem Browserbildschirm verstehen und verarbeiten, einschließlich Pixeln und Webelementen wie Text, Code, Bildern und Formularen, um Aufgaben für den Benutzer zu erledigen.
Jules: Ein KI-gestützter Code-Agent, der Entwicklern helfen kann, indem er beispielsweise Bugfixes und andere zeitaufwendige Aufgaben übernimmt.
Gemini 2.0 Flash ist ab sofort als experimentelles Modell für Entwickler über die Gemini API in Google AI Studio und Vertex AI verfügbar. Die allgemeine Verfügbarkeit ist für Januar 2025 geplant, zusammen mit weiteren Modellgrößen.
Die Integration von Gemini 2.0 in weitere Google-Produkte, beginnend mit der Gemini App und der Google-Suche, ist ebenfalls für Anfang 2025 vorgesehen. Die erweiterten Argumentationsfähigkeiten von Gemini 2.0 sollen es ermöglichen, komplexere Themen und mehrstufige Fragen in der Google-Suche zu bearbeiten, einschließlich fortgeschrittener mathematischer Gleichungen, multimodaler Abfragen und Programmiercode.
Mit Gemini 2.0 setzt Google einen wichtigen Meilenstein in der Entwicklung von KI-Modellen. Die Echtzeit-Interaktion über Video und die erweiterten agentenorientierten Funktionen eröffnen neue Möglichkeiten für die Interaktion mit KI und versprechen eine spannende Zukunft für die Anwendung von künstlicher Intelligenz in verschiedenen Bereichen.
Bibliographie: https://blog.google/technology/google-deepmind/google-gemini-ai-update-december-2024/ https://www.theregister.com/2024/12/11/google_gemini_20_flash_shines/ https://www.youtube.com/watch?v=CZ9WaMbiTO4 https://ai.google.dev/gemini-api/docs/models/gemini-v2 https://highlearningrate.substack.com/p/gemini-20-flash-is-here-real-time https://cloud.google.com/vertex-ai/generative-ai/docs/gemini-v2 https://gilgam3sh.medium.com/gemini-2-0-decoding-googles-next-gen-ai-real-time-power-app-integration-and-beyond-all-028021badaca https://techcrunch.com/2024/12/12/what-is-google-gemini-ai/ https://medium.com/@cognidownunder/googles-gemini-2-0-the-dawn-of-truly-agentic-ai-7bd3ed94da00 https://decrypt.co/296459/chatgpt-watch-interact-real-timeLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen