KI für Ihr Unternehmen – Jetzt Demo buchen

Durchbruch in der Bioakustik: KI-Modell identifiziert Walgesänge durch Vogelstimmentraining

Kategorien:
No items found.
Freigegeben:
February 15, 2026

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • Google DeepMinds Bioakustik-Modell Perch 2.0, ursprünglich auf Vogelstimmen trainiert, übertrifft spezialisierte Walmodelle bei der Erkennung von Walgesängen.
    • Dieser Erfolg wird auf die Fähigkeit des Modells zurückgeführt, feine akustische Unterschiede zu erkennen, die für die Vogelklassifikation notwendig sind und sich auf andere Tiergruppen übertragen lassen.
    • Die Forschungsergebnisse deuten darauf hin, dass verallgemeinerungsfähige KI-Modelle in der Bioakustik eine hohe Effizienz und Anpassungsfähigkeit an neue Daten und Arten aufweisen.
    • Die Übertragbarkeit der Lernleistung wird durch neuronale Skalierungsgesetze, die "Bitter-Lektion" der Vogelklassifikation und gemeinsame evolutionäre Mechanismen der Lauterzeugung erklärt.
    • Diese Entwicklung ermöglicht die schnelle Erstellung von Klassifikatoren für neue akustische Entdeckungen, was die Meeresforschung und den Artenschutz erheblich beschleunigen kann.

    Revolution in der Bioakustik: Wie ein vogel-trainiertes KI-Modell Wale entdeckt

    Die Wissenschaft der Bioakustik, die sich mit der Erforschung von Tierlauten befasst, steht an einem Wendepunkt. Eine aktuelle Entwicklung von Google DeepMind zeigt das Potenzial von Künstlicher Intelligenz (KI) auf, die Grenzen der Domänenspezialisierung zu überwinden. Das Bioakustik-Modell Perch 2.0, das primär auf Vogelstimmen trainiert wurde, demonstriert eine überraschende Fähigkeit, Walgesänge mit höherer Präzision zu identifizieren als Modelle, die speziell für marine Anwendungen entwickelt wurden.

    Herausforderungen in der marinen Bioakustik

    Die Erforschung des Verhaltens von Walen und Delfinen basiert in hohem Maße auf der Analyse ihrer Lautäußerungen, da der visuelle Kontakt unter Wasser oft limitiert ist. Die Entwicklung zuverlässiger KI-Klassifikatoren für Unterwasser-Audiodaten ist jedoch komplex. Die Datenerfassung erfordert spezielle und kostspielige Ausrüstung. Zudem kann es Jahrzehnte dauern, bis neu entdeckte Laute einer bestimmten Spezies zugeordnet werden können. Diese Herausforderungen unterstreichen die Notwendigkeit robuster und anpassungsfähiger Analysewerkzeuge.

    Perch 2.0: Ein generalistischer Ansatz mit unerwartetem Erfolg

    Ein Team von Google DeepMind und Google Research hat in einer aktuellen Publikation aufgezeigt, dass ein generalistischer Ansatz in der Bioakustik überlegen sein kann. Ihr Modell, Perch 2.0, wurde hauptsächlich mit über 1,5 Millionen Tierlautaufnahmen von mindestens 14.500 Arten trainiert, wobei der Großteil aus Vogelstimmen bestand. Unterwasseraufnahmen waren in den Trainingsdaten kaum vorhanden; lediglich etwa ein Dutzend Walaufnahmen, zumeist über Wasser mit Mobiltelefonen gemacht, wurden verwendet. Trotz dieser terrestrischen Prägung übertraf Perch 2.0 in Tests zur Klassifikation von Walgesängen nahezu durchgängig alle Vergleichsmodelle, einschließlich eines Google-Modells, das explizit für Wale trainiert wurde.

    Überlegene Leistung bei der Walerkennung

    Zur Bewertung der Leistungsfähigkeit von Perch 2.0 unter Wasser wurden drei marine Datensätze herangezogen:

    • NOAA PIPAN: Enthält verschiedene Bartenwalarten aus dem Pazifik.
    • ReefSet: Umfasst Riffgeräusche wie Knistern und Knurren.
    • DCLDE 2026: Besteht aus über 200.000 annotierten Orca- und Buckelwal-Lauten.

    Das Modell erzeugt für jede Aufnahme eine kompakte numerische Darstellung, ein sogenanntes Embedding. Auf diesen Embeddings wird anschließend ein einfacher Klassifikator mit wenigen gelabelten Beispielen trainiert, um Laute den korrekten Arten zuzuordnen.

    Im Vergleich zu sechs anderen Modellen, darunter das spezialisierte Google Multispecies Whale Model (GMWM), zeigte Perch 2.0 eine bemerkenswerte Performance. Gemessen am AUC-ROC-Score, einem Metrik für die Genauigkeit von Klassifikatoren (wobei 1,0 eine perfekte Diskriminierung bedeutet), erreichte Perch 2.0 bei der Unterscheidung von Orca-Unterpopulationen einen Wert von 0,945, während das Walmodell nur 0,821 erzielte. Bei der Klassifizierung von Unterwasserlauten erreichte Perch 2.0 0,977 gegenüber 0,914 des GMWM, und dies mit nur 16 Trainingsbeispielen pro Kategorie.

    Die Leistungsdifferenz vergrößerte sich weiter, wenn das GMWM direkt als fertiger Klassifikator ohne Transfer Learning eingesetzt wurde, wobei die Leistung auf 0,612 sank. Dies lässt vermuten, dass spezialisierte Modelle zu Overfitting auf spezifische Mikrofone oder andere Artefakte in ihren Trainingsdaten neigen und ihre Generalisierungsfähigkeit einschränken.

    Erklärungsansätze für die Generalisierungsfähigkeit

    Die Forscher bieten drei Hauptgründe für diese unerwartete domänenübergreifende Transferleistung an:

    1. Neuronale Skalierungsgesetze: Größere Modelle mit umfangreicheren Trainingsdaten zeigen eine bessere Generalisierungsfähigkeit, selbst bei Aufgaben außerhalb ihres ursprünglichen Trainingsbereichs.
    2. Die "Bitter-Lektion" der Bioakustik: Die Klassifikation von Vogelstimmen ist eine anspruchsvolle Aufgabe, da die Unterschiede zwischen den Arten oft minimal sind. Ein Modell, das diese feinen akustischen Nuancen zuverlässig erkennt, lernt Merkmale, die sich auch für andere bioakustische Aufgaben als nützlich erweisen. Dies wird in Anlehnung an die "Bitter Lesson" in der KI-Forschung als "Bittern Lesson" bezeichnet.
    3. Evolutionär-biologische Verbindung: Vögel und Meeressäugetiere haben unabhängig voneinander ähnliche Mechanismen zur Lauterzeugung entwickelt, bekannt als der myoelastisch-aerodynamische Mechanismus. Diese gemeinsame physikalische Grundlage könnte erklären, warum akustische Merkmale so leicht zwischen diesen Tiergruppen übertragen werden können.

    Praktische Implikationen für die Meeresforschung

    Der praktische Nutzen dieser Entwicklung liegt im sogenannten "Agile Modeling". Passive akustische Daten können in einer Vektordatenbank eingebettet werden, und lineare Klassifikatoren auf vorab berechneten Embeddings lassen sich innerhalb weniger Stunden trainieren. Dies ist von großer Bedeutung, da in der marinen Bioakustik ständig neue Laute entdeckt werden. Beispielsweise wurde der mysteriöse "Biotwang"-Laut erst kürzlich den Bryde-Walen zugeordnet.

    Google stellt ein End-to-End-Tutorial in Google Colab zur Verfügung und veröffentlicht die Tools auf GitHub. Dies demokratisiert den Zugang zu fortschrittlichen KI-Werkzeugen für Meeresbiologen und Naturschützer, die nun schnell benutzerdefinierte Klassifikatoren erstellen können, um Walpopulationen zu überwachen, die Gesundheit von Korallenriffen zu beurteilen oder unbekannte Geräusche mit erhöhter Geschwindigkeit und Genauigkeit zu identifizieren.

    Diese Fortschritte in der Bioakustik unterstreichen das Potenzial von KI, nicht nur die Grenzen der Computerwissenschaft zu erweitern, sondern auch einen entscheidenden Beitrag zum Verständnis und Schutz der marinen Ökosysteme zu leisten.

    Bibliographie

    - Google Research Blog: "How AI trained on birds is surfacing underwater mysteries" (2026). - ArXiv: "Perch 2.0 transfers ‘whale’ to underwater tasks" (2025). - Creati.ai: "Google DeepMind's Perch 2.0 AI Trained on Birds Now Detects Underwater Whale Sounds" (2026). - The Decoder: "Google Deepmind's new bioacoustic model shows the power of generalization by detecting whales with bird training" (2026). - The Rift: "Google DeepMind's Perch 2.0 AI model excels at whale vocalization classification despite no underwater training" (2026). - LinkedIn Post von Yossi Matias über Perch 2.0 (2026). - DeepMind Blog: "How AI is helping advance the science of bioacoustics to save endangered species" (2025).

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen