Die Lippensynchronisation, also die Anpassung von Lippenbewegungen in einem bestehenden Video an neues Audiomaterial, stellt eine besondere Herausforderung im Bereich der KI-gestützten Videobearbeitung dar. Während sie oft als vereinfachte Variante der audio-getriebenen Gesichtsanimation betrachtet wird, birgt sie spezifische Schwierigkeiten. Neben den bekannten Problemen der Talking-Head-Generierung, wie beispielsweise der zeitlichen Konsistenz, treten bei der Lippensynchronisation zusätzliche Hürden auf. Dazu zählen unter anderem das ungewollte Übertragen von Gesichtsausdrücken aus dem Originalvideo, sogenannte "Expression Leakage", sowie die korrekte Darstellung bei Verdeckungen des Mundes. Diese Aspekte können die Qualität von Anwendungen wie der automatisierten Synchronisation erheblich beeinträchtigen, werden aber in bestehenden Lösungen oft vernachlässigt.
Ein neues Verfahren namens KeySync verspricht nun, diese Schwierigkeiten zu überwinden. Das zweistufige Framework adressiert nicht nur die zeitliche Konsistenz, sondern bietet auch Lösungen für Expression Leakage und Verdeckungen durch eine ausgeklügelte Maskierungsstrategie. Im ersten Schritt extrahiert KeySync die relevanten Merkmale aus dem Eingabevideo und dem Audio. Im zweiten Schritt werden diese Merkmale kombiniert, um ein neues Video mit synchronisierten Lippenbewegungen zu generieren. Die Maskierungsstrategie spielt dabei eine entscheidende Rolle, indem sie Bereiche des Gesichts, die nicht von der Lippensynchronisation betroffen sein sollen, gezielt schützt. So wird verhindert, dass Emotionen oder andere Gesichtsausdrücke aus dem Originalvideo ungewollt in das synchronisierte Video übertragen werden. Gleichzeitig ermöglicht die Maskierung eine realistische Darstellung von Lippensynchronisation auch bei teilweisen Verdeckungen des Mundes, beispielsweise durch Hände oder Gegenstände.
Erste Ergebnisse zeigen, dass KeySync im Vergleich zu bisherigen Verfahren eine verbesserte visuelle Qualität und eine reduzierte Expression Leakage erreicht. Zur objektiven Bewertung wurde eine neue Metrik namens LipLeak entwickelt, die speziell das Ausmaß des ungewollten Ausdruckstransfers misst. Diese Metrik ermöglicht eine präzisere Beurteilung der Leistung von Lippensynchronisationsverfahren und trägt dazu bei, die Entwicklung in diesem Bereich voranzutreiben.
Die Entwickler von KeySync haben die Effektivität ihres Ansatzes durch verschiedene Ablationsstudien validiert. Dabei wurden einzelne Komponenten des Frameworks systematisch entfernt oder verändert, um ihren Einfluss auf das Gesamtergebnis zu untersuchen. Diese Studien bestätigen die Bedeutung der Maskierungsstrategie und der Architektur des zweistufigen Modells für die Erreichung der hohen Qualität und Robustheit von KeySync.
Die verbesserte Lippensynchronisation durch KeySync eröffnet neue Möglichkeiten für verschiedene Anwendungen. Neben der automatisierten Synchronisation von Filmen und Videos in andere Sprachen, profitiert auch die Erstellung von virtuellen Avataren und digitalen Assistenten von dieser Technologie. Auch im Bereich der virtuellen und erweiterten Realität (VR/AR) kann KeySync dazu beitragen, realistischere und immersive Erlebnisse zu schaffen. Durch die Minimierung von Expression Leakage und die verbesserte Handhabung von Verdeckungen wird die Illusion einer natürlichen Kommunikation gestärkt, was die Akzeptanz und den Nutzen dieser Technologien weiter erhöhen kann.
Der Code und die Modellgewichte von KeySync sind öffentlich zugänglich, um die weitere Forschung und Entwicklung in diesem Bereich zu fördern und die Technologie einem breiten Publikum zur Verfügung zu stellen. Die Entwickler hoffen, dass KeySync dazu beitragen wird, die Qualität und den Realismus von KI-generierten Videos weiter zu verbessern und neue Anwendungsfelder zu erschließen.
Bibliographie: - Bigata, A., Mira, R., Bounareli, S., Stypułkowski, M., Vougioukas, K., Petridis, S., & Pantic, M. (2025). KeySync: A Robust Approach for Leakage-free Lip Synchronization in High Resolution. arXiv preprint arXiv:2505.00497. - Gupta, V., Singh, A., Arora, A., Jawahar, C. V., & Cherian, A. (2023). Towards Generating Ultra-High Resolution Talking-Face Videos With Lip Synchronization. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (pp. 4850-4859). - Lee, D. Y., Han, J. W., Lee, H. Y., & Ko, H. P. (2024). RADIO: Reference-Agnostic Dubbing Video Synthesis. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision. - Cheng, Z., Zhang, S., Zhao, Y., Liu, Y., & Yang, Y. (2022). VideoReTalking: Audio-based Lip Synchronization for Talking Head Video Editing In NeurIPS. - Diverse aktuelle Arbeiten aus dem Bereich Computer Vision: https://arxiv.org/list/cs.CV/recent - Zusammenfassung und Diskussion von "KeySync: A Robust Approach for Leakage-free Lip Synchronization in High Resolution": https://paperreading.club/page?id=302991