Jetzt reinschauen – neue Umgebung live

Apple enthüllt 4M KI Modell und dessen Anwendungsmöglichkeiten

Kategorien:
No items found.
Freigegeben:
July 10, 2024

Artikel jetzt als Podcast anhören

Apple zeigt die Fähigkeiten seiner KI: So können Sie die 4M-Demo selbst ausprobieren

Apple hat kürzlich die Demoversion seines neuesten KI-Modells, bekannt als 4M, der Öffentlichkeit zugänglich gemacht. Das 4M-Modell, das für „Massively Multimodal Masked Modelling“ steht, ist ein bedeutender Schritt in der Welt der künstlichen Intelligenz und hat das Potenzial, die Art und Weise, wie wir mit KI interagieren, grundlegend zu verändern.

Einführung des 4M-Modells

Das 4M-Modell wurde entwickelt, um als Framework für das Training multimodaler Any-to-Any-Grundlagenmodelle zu dienen. Es ist skalierbar, Open Source und kann über verschiedene Modalitäten und Aufgaben hinweg arbeiten. Einfach ausgedrückt, kann dieses Modell Daten aus verschiedenen Disziplinen manipulieren. Es kann beispielsweise Bilder aus Texten generieren, 3D-Szenen mit natürlicher Sprache bearbeiten oder komplexe Objekte in Bildern erkennen.

Verfügbarkeit und Nutzung

Die Demoversion des 4M-Modells ist auf der Plattform Hugging Face verfügbar. Diese Plattform bietet eine benutzerfreundliche Umgebung, in der Entwickler und Interessierte das Modell testen können. Benutzer können ein Bild hochladen, mit der Webcam aufnehmen oder aus der Zwischenablage einfügen. Mit einem Klick auf den Button „Predict with 4M-21 XL“ versucht das Modell, alle Modalitäten des Bildes zu erkennen, einschließlich der RGB-Ebene, Tiefen, Farbpalette sowie Objekten wie Menschen, Fenster und Wände. Zudem erstellt es eine Überschrift für das Bild, erkennt Metadaten und weitere Ebenen.

Multimodale Fähigkeiten des 4M-Modells

Die Demonstration zeigt, dass das 4M-Modell in der Lage ist, multimodale Ebenen in Bildern zu erkennen. Dies könnte in der Praxis verwendet werden, um Apples Software neue Funktionen zu verleihen, wie zum Beispiel die Bearbeitung von Bildern und Videos mit natürlicher Sprache. Diese multimodalen Fähigkeiten eröffnen neue Möglichkeiten in der Anwendung von KI in verschiedenen Bereichen.

Technologische Hintergründe

Die benötigten Daten für das Modell wurden bereits vor einigen Monaten auf GitHub veröffentlicht. Dies erleichtert die Nutzung und das Training des Modells erheblich. Auf der Plattform Hugging Face wird das Modell als ein Framework beschrieben, das zum Trainieren multimodaler Any-to-Any-Grundlagenmodelle dient. Es ist skalierbar, Open Source und arbeitet über Dutzende Modalitäten und Aufgaben hinweg.

Neue Funktionen mit Apple Intelligence

Zusätzlich zu 4M hat Apple auf der WWDC 2024 eine Reihe neuer KI-Funktionen vorgestellt, die in ihre Produkte integriert werden sollen. Darunter fällt auch die sogenannte „Apple Intelligence“, die eine neue Art von persönlicher Intelligenz auf iPhone, iPad und Mac bringt. Diese Funktionen konzentrieren sich auf Datenschutz, Sicherheit und Privatsphäre und bieten eine neue Ebene der Integration von KI in den Alltag.

Einblicke in die Apple Intelligence

Apple Intelligence ermöglicht es den Nutzern, mit Genmoji eigene Emojis zu erstellen oder Bilder in den Stilen Illustration, Animation oder Skizze zu generieren. Diese Funktionen sind tief in die Betriebssysteme von Apple integriert und bieten eine nahtlose Benutzererfahrung. Die Writing Tools, die überall dort verfügbar sind, wo ein Cursor vorhanden ist, unterstützen die Nutzer beim Schreiben und Korrekturlesen von Texten.

Datenschutz und Privatsphäre

Ein zentraler Aspekt von Apple Intelligence ist der Fokus auf Datenschutz und Privatsphäre. Apple hat eine Infrastruktur entwickelt, die sicherstellt, dass alle Daten der Nutzer geschützt bleiben. Das System besteht aus drei Teilen: einem kleinen Modell, das auf dem Gerät läuft, einem größeren Modell, das in einem eigenen Server-Netzwerk ausgeführt wird, und optional einer Weitergabe von Anfragen an externe Modelle wie ChatGPT.

Integration von ChatGPT

Apple hat eine Partnerschaft mit OpenAI geschlossen, um den Nutzern den Zugang zu ChatGPT zu ermöglichen. Dabei wird jedoch jedes Mal um Erlaubnis gefragt, bevor Daten an ChatGPT gesendet werden. Dies stellt sicher, dass die Privatsphäre der Nutzer gewahrt bleibt.

Neue Hardware erforderlich

Es sei jedoch darauf hingewiesen, dass viele der neuen KI-Funktionen eine aktuelle Hardware erfordern. So müssen Nutzer mindestens ein iPhone 15 Pro oder einen Mac mit einem Apple-Chip der M-Serie besitzen, um die neuen Funktionen nutzen zu können.

Fazit

Mit der Veröffentlichung des 4M-Modells und der Einführung von Apple Intelligence zeigt Apple, dass es ernsthaft in den Bereich der künstlichen Intelligenz einsteigen möchte. Die neuen Funktionen und Modelle bieten spannende Möglichkeiten für Entwickler und Nutzer gleichermaßen. Es bleibt abzuwarten, wie sich diese Technologien in der Praxis bewähren und welche neuen Anwendungen und Innovationen sie hervorbringen werden.

Bibliographie:



- https://t3n.de/news/apple-ki-modell-oeffentlich-ausprobieren-1633571/
- https://www.finanznachrichten.de/nachrichten-2024-07/62637344-apple-macht-sein-ki-modell-4m-oeffentlich-zugaenglich-so-koennt-ihr-es-ausprobieren-397.htm
- https://www.bluewin.ch/de/digital/so-kannst-du-apples-ki-modell-4m-selber-ausprobieren-2268651.html
- https://stadt-bremerhaven.de/apple-veroffentlicht-demo-seines-4m-ki-modells/
- https://kiupdates.de/apple-zeigt-ki-power-teste-das-4m-modell-jetzt/
- https://www.apfeltalk.de/community/threads/4m-apple-praesentiert-oeffentliche-demo-seines-ki-modells.580903/
- https://www.nextpit.de/apples-ki-greift-an-ai-steht-ab-sofort-fuer-apple-intelligence
- https://www.mind-verse.de/news/apple-stellt-neues-ki-modell-4m-vor

Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.