Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Wissenschaft der Bioakustik, die sich mit der Erforschung von Tierlauten befasst, steht an einem Wendepunkt. Eine aktuelle Entwicklung von Google DeepMind zeigt das Potenzial von Künstlicher Intelligenz (KI) auf, die Grenzen der Domänenspezialisierung zu überwinden. Das Bioakustik-Modell Perch 2.0, das primär auf Vogelstimmen trainiert wurde, demonstriert eine überraschende Fähigkeit, Walgesänge mit höherer Präzision zu identifizieren als Modelle, die speziell für marine Anwendungen entwickelt wurden.
Die Erforschung des Verhaltens von Walen und Delfinen basiert in hohem Maße auf der Analyse ihrer Lautäußerungen, da der visuelle Kontakt unter Wasser oft limitiert ist. Die Entwicklung zuverlässiger KI-Klassifikatoren für Unterwasser-Audiodaten ist jedoch komplex. Die Datenerfassung erfordert spezielle und kostspielige Ausrüstung. Zudem kann es Jahrzehnte dauern, bis neu entdeckte Laute einer bestimmten Spezies zugeordnet werden können. Diese Herausforderungen unterstreichen die Notwendigkeit robuster und anpassungsfähiger Analysewerkzeuge.
Ein Team von Google DeepMind und Google Research hat in einer aktuellen Publikation aufgezeigt, dass ein generalistischer Ansatz in der Bioakustik überlegen sein kann. Ihr Modell, Perch 2.0, wurde hauptsächlich mit über 1,5 Millionen Tierlautaufnahmen von mindestens 14.500 Arten trainiert, wobei der Großteil aus Vogelstimmen bestand. Unterwasseraufnahmen waren in den Trainingsdaten kaum vorhanden; lediglich etwa ein Dutzend Walaufnahmen, zumeist über Wasser mit Mobiltelefonen gemacht, wurden verwendet. Trotz dieser terrestrischen Prägung übertraf Perch 2.0 in Tests zur Klassifikation von Walgesängen nahezu durchgängig alle Vergleichsmodelle, einschließlich eines Google-Modells, das explizit für Wale trainiert wurde.
Zur Bewertung der Leistungsfähigkeit von Perch 2.0 unter Wasser wurden drei marine Datensätze herangezogen:
Das Modell erzeugt für jede Aufnahme eine kompakte numerische Darstellung, ein sogenanntes Embedding. Auf diesen Embeddings wird anschließend ein einfacher Klassifikator mit wenigen gelabelten Beispielen trainiert, um Laute den korrekten Arten zuzuordnen.
Im Vergleich zu sechs anderen Modellen, darunter das spezialisierte Google Multispecies Whale Model (GMWM), zeigte Perch 2.0 eine bemerkenswerte Performance. Gemessen am AUC-ROC-Score, einem Metrik für die Genauigkeit von Klassifikatoren (wobei 1,0 eine perfekte Diskriminierung bedeutet), erreichte Perch 2.0 bei der Unterscheidung von Orca-Unterpopulationen einen Wert von 0,945, während das Walmodell nur 0,821 erzielte. Bei der Klassifizierung von Unterwasserlauten erreichte Perch 2.0 0,977 gegenüber 0,914 des GMWM, und dies mit nur 16 Trainingsbeispielen pro Kategorie.
Die Leistungsdifferenz vergrößerte sich weiter, wenn das GMWM direkt als fertiger Klassifikator ohne Transfer Learning eingesetzt wurde, wobei die Leistung auf 0,612 sank. Dies lässt vermuten, dass spezialisierte Modelle zu Overfitting auf spezifische Mikrofone oder andere Artefakte in ihren Trainingsdaten neigen und ihre Generalisierungsfähigkeit einschränken.
Die Forscher bieten drei Hauptgründe für diese unerwartete domänenübergreifende Transferleistung an:
Der praktische Nutzen dieser Entwicklung liegt im sogenannten "Agile Modeling". Passive akustische Daten können in einer Vektordatenbank eingebettet werden, und lineare Klassifikatoren auf vorab berechneten Embeddings lassen sich innerhalb weniger Stunden trainieren. Dies ist von großer Bedeutung, da in der marinen Bioakustik ständig neue Laute entdeckt werden. Beispielsweise wurde der mysteriöse "Biotwang"-Laut erst kürzlich den Bryde-Walen zugeordnet.
Google stellt ein End-to-End-Tutorial in Google Colab zur Verfügung und veröffentlicht die Tools auf GitHub. Dies demokratisiert den Zugang zu fortschrittlichen KI-Werkzeugen für Meeresbiologen und Naturschützer, die nun schnell benutzerdefinierte Klassifikatoren erstellen können, um Walpopulationen zu überwachen, die Gesundheit von Korallenriffen zu beurteilen oder unbekannte Geräusche mit erhöhter Geschwindigkeit und Genauigkeit zu identifizieren.
Diese Fortschritte in der Bioakustik unterstreichen das Potenzial von KI, nicht nur die Grenzen der Computerwissenschaft zu erweitern, sondern auch einen entscheidenden Beitrag zum Verständnis und Schutz der marinen Ökosysteme zu leisten.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen