Ein israelisches Start-Up Unternehmen, hat eine KI-basierte Synchronisationsplattform entwickelt, die die Stimmen von Schauspielern in andere Sprachen umwandeln kann. Heißt, dass die Synchro so klingt, als hätte er bzw. sie die jeweilige Sprache gelernt und würde sie fließend sprechen. Zunächst startet die "Deepdub" benannte Plattform in Deutsch, Englisch, Spanisch und Französisch.
Q:
tagesschau
Einerseits klingt das interessant. Und es könnte auch dazu führen, dass viel mehr Filme synchronisiert werden.
Andererseits frage ich mich, wie es mit der Lippensynchronisation aussieht. Und ob die KI es tatsächlich schaffen würde, Emotionen so zu setzen wie im Original. Außerdem würden dann die gewohnten und beliebten Sprecher wegfallen (bzw. was dabei entscheidender wäre: es würden so einige Leute arbeitslos werden).
Was ich auf jeden Fall bei dieser Synchronisation nicht bräuchte, wären Dialekte. Hochdeutsch bitte. Ich brauche weder einen bayrisch sprechenden Chris Hemsworth, noch einen sächselnden George Clooney oder eine plattdeutsch sprechende Jennifer Lawrence. Wenn sie das ohne großen Mehraufwand/ große Mehrkosten zusätzlichen anbieten können, dann für diejenigen, die das gut finden würden, meinetwegen. Aber wenn nur eine deutsche Version möglich ist, dann auf jeden Fall Hochdeutsch (Ausnahmen meinetwegen, wenn ein Film einige Szenen in einer entsprechenden Region hat, aber dann bitte nicht das übelste bayrisch, sächsisch, kölsch, etc. sondern eins, dass man noch einigermaßen verstehen kann).
Was meint ihr?