Das israelische Start-up Deepdub nutzt Künstliche Intelligenz, um Schauspieler und Moderatoren in anderen Sprachen sprechen zu lassen. Doch: Macht KI nun Tausende Synchronsprecher arbeitslos?
Für Menschen in Deutschland ist es fast schon normal, dass Schauspieler:innen in Serien und Filmen Deutsch sprechen – auch wenn sie ursprünglich aus einem anderen Land stammen. Synchronsprecher:innen machen es möglich. Doch in vielen anderen Ländern sieht das anders aus.
In Polen übersetzt beispielsweise eine einzige männliche Stimme den gesamten Film, während im Hintergrund weiterhin der Original-Ton läuft. Andere Länder bieten den Zuschauer:innen lediglich Untertitel an. Das israelisches Start-up Deepdub will das nun ändern.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media und PR Specialist (m/w/d) BeA GmbH in Ahrensburg |
||
Social Media Manager B2B (m/w/d) WM SE in Osnabrück |
Deepdub: Künstliche Intelligenz ersetzt Synchronsprecher
Das Unternehmen übernimmt die Arbeit der Synchronsprecher:innen und transformiert die Originalstimmen mithilfe von Künstlicher Intelligenz in beliebig viele Sprachen. Wie das funktioniert gibt ein Video preis. In diesem zeigt das Start-up einen Ausschnitt aus einer Motorradshow.
„Deepdub überbrückt die Sprachbarriere und die kulturelle Kluft von Unterhaltungserlebnissen durch qualitativ hochwertige Lokalisierung mit einem Mausklick“, heißt es dort. „Durch den Einsatz von fortschrittlichem Deep Learning bietet Deepdub unvergleichliche Synchronisationsdienste von der Globalisierung und Lokalisierung der Sprache bis hin zur Überlagerung von neuen Akzenten und der Beibehaltung der Originalstimmen in verschiedenen Sprachen.“
Außerdem ist zu sehen, wie die Sprache mit nur einem Klick von English zu Deutsch, Spanisch oder Französisch wechselt. „Wir fügen uns in den Postproduktionsprozess ein und kümmern uns um alle Lokalisierungsanforderungen mit einer schnelleren Durchlaufzeit und zu einem Bruchteil der Kosten herkömmlicher Synchronisationsdienste“, so die Erklärung.
Klaut Künstliche Intelligenz Synchronsprechern die Arbeit?
Die von den Gründer-Brüdern Nir und Ofir Krakowski genutzte Künstliche Intelligenz lernt und studiert in Kombination mit Deep-Learning-Technologie die Originalstimme der Schauspieler:innen sowie deren Stil und die charakteristischen Eigenschaften beim Sprechen, um sie anschließend zu reproduzieren. Danach konvertiert die Plattform den Originalton in die gewünschte Sprache. Das geschient mithilfe des sogenannten Natural Language Processing.
Wer nun sagt, dass die KI nie eine echte menschliche Stimme ersetzen könnte, wird von den Krakowski-Brüdern eines Besseren belehrt. Bei Filmen müsse man ein viel breiteres Spektrum an Emotionen, verschiedenen Charakteren und Situationen unterstützen. Die Deepdub-Technologie würde sogar den stimmlichen Unterschied einer Person, die beim Essen spricht, berücksichtigen – zudem auch Schreien, Flüstern und andere Eigenschaften.
Auch andere Unternehmen wollen Synchronisations-Dienst anbieten
Dass die Sorge um den Berufsstand der Synchronsprecher:innen im Moment jedoch nicht allzu groß ist, zeigen die Investorengelder, die Deepdub bisher sammeln konnte – laut Handelsblatt insgesamt 26 Millionen US-Dollar. Die Reaktionen der Film-und Fernsehindustrie seien jedoch überwältigend, so die Gründer.
Deepdub bietet seinen Dienst derzeit in 30 Sprachen an. Bis Ende des Jahres möchten die Brüder diese Zahl noch verdoppeln. Der Übersetzungsprozess für ein Spielfilmprojekt benötigt derzeit noch bis zu acht Wochen. Das Ziel sind zwei Wochen.
Allerdings ist Deepdub nicht das einzige Unternehmen, dass diese Art von Service anbietet. Auch das Mailänder Start-up Voiseed hat eine virtuelle Sprachmaschine entwickelt, die es ermöglicht, Stimmen in anderen Sprache zu produzieren. Auch Unternehmen aus den USA und Dubai versuchen sich an einer ähnlichen Technologie.
Auch interessant: