Spotify synthetisiert Stimmen und übersetzt Podcasts automatisch
Ihr habt vermutlich schon Videos gesehen, in dem die »künstliche Intelligenz« die Stimme des Protagonisten nachahmt und diesen in anderen Sprachen sprechen lässt. Das wird Spotify auch bei Podcasts machen. Das Unternehmen hat eine Partnerschaft mit einigen Podcastern geschlossen, um ihre Episoden mithilfe eines neuen Tools ins Spanische und Französische zu übersetzen. Zudem plant man, in den nächsten Wochen auch deutsche Episoden anzubieten. Für die Übersetzungsfunktion nutzen sie OpenAIs Sprachtranskriptionstool Whisper, welches sowohl Englisch transkribieren als auch andere Sprachen ins Englische übersetzen kann. Jedoch geht das Tool von Spotify über eine herkömmliche Sprache-zu-Text-Übersetzung hinaus. Es übersetzt den Podcast in eine andere Sprache und gibt ihn in einer synthetisierten Version der Stimme des jeweiligen Podcasters wieder.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Na, da bin ich ja mal gespannt, ob sich das besser anhört, als die KI-Werbestimme auf YouTube…
Also werden alle Synchronsprecher und damit verbundenen Jobs demnächst arbeitslos. Warten wir es ab.
Das ist eher ein deutsches Problem. Wir haben hier eine breit aufgestellte Synchronisierungs-Industrie. Schaut man in andere Länder, gibt es manchmal einen Synchronsprecher für einen kompletten Film (ja, der synchronisiert dann halt männliche und weibliche Stimmen) oder gar keine Synchronisierung. Selbst in Deutschland gibt es Filme und Serien, die nicht synchronisiert werden (z.B. Mangabereich).
Außerdem gehen natürlich durch eine Synchronisierung Stimmton und auch tonaler Ausdruck des Schauspielers verloren und damit ein essentieller Teil des Films. Und es ist natürlich ein zeitlicher Aufwand, der zu stemmen ist, bevor ein Film ins Kino kommt.
Im Großen und Ganzen ist es zwar schade für die Künstler, für die Konsumenten (und für die wird ein Film ja gemacht) ist es ein Gewinn.
Der letzte Absatz klingt so überheblich und mit dem Mittelfinger auf die Synchronbranche zeigend, dass man sich am liebsten übergeben möchte
Für mich als Konsumenten ist es auf jeden Fall kein Gewinn, mir statt der Vertonung eines professionell ausgebildeten Synchronsprechers zukünftig eine KI-generierte Grütze anzuhören, die vielleicht tonal näher am Original ist…
Verstehe das Problem nicht. Wenn das Ergebnis ähnlich gut ist, hat die Branche es halt hinter sich.
Das war aber schon lange absehbar. Zumindest seit Adobe vor zig Jahren mal ihr KI-Stimmen Feature vorgestellt hatte. Hat man inzwischen eingestellt weil Missbrauchspotenzial sehr hoch, was natürlich andere Akteure nicht davon abhält eigene Produkte anzubieten bzw. zu erstellen.
Hoffentlich ist es nicht wie bei Google und optional.
Ich will meine Podcasts im Originalton hören.
Das ist kein Problem, solange man die Sprache versteht. Der einzige Anwendungsfall, den ich für diese automatische Übersetzung sehe, ist der, dass ich z. B. eine spanischsprachigen Podcast hören kann, ohne dass ich spanisch beherrschen muss.
So richtig anfreunden kann ich mich damit dennoch nicht.