Synchronisation | Voice-Over, Post-Production, Audio-Editing | Britannica, alles, was Sie über das Synchronisieren wissen müssen
Alles, was Sie über das Synchronisieren wissen müssen
Contents
- 1 Alles, was Sie über das Synchronisieren wissen müssen
- 1.1 Synchronisation
- 1.2 Alles, was Sie über das Synchronisieren wissen müssen
- 1.3 Gehen Sie zu Ihren Einstellungen und schalten Sie diesen englischen Dub ein. Wir haben Ihren Leitfaden zu allen Dingen, die DUB zu tun haben.
- 1.4 ?
- 1.5 Die Geschichte des Synchronisierens
- 1.6 Warum ist es wichtig, wichtig zu sein??
- 1.7
- 1.8 Dubs steigen an Popularität
- 1.9 Amerikas Verachtung gegenüber Dubs
- 1.10 In Anime synchronisieren
- 1.11 Wie man einen schlechten Dub vermeidet
- 1.12 Was macht einen guten Dub aus?
- 1.13 Beste Tools zum Synchronisieren
Wie u.S. Die Kartellgesetzgebung zwang die Studios, die Standards des Kinos zu innovieren oder zu erhöhen. Studios beschloss, das Problem der Klangqualität zu lösen, indem sie auf einem 360-Grad-Soundtrack auf sechs Kanalmagneten aufgenommen wurden. Erst in den frühen 70ern, als Ray Dolby eine Rauschreduktionstechnologie für Multi-Track-Rekorder für Cinema Sound anpasste. Dolby verstand, dass Theaterbesitzer nur Audioausrüstung kaufen würden, die ausreichend genug waren, um das investitionsgeforderte Investitionsniveau zu rechtfertigen.
Synchronisation
Während alle Anstrengungen unternommen wurden, um Zitierstilregeln zu befolgen, gibt es möglicherweise einige Unstimmigkeiten. Bitte beachten Sie das entsprechende Stilhandbuch oder andere Quellen, wenn Sie Fragen haben.
Wählen Sie Zitierstil
An soziale Medien teilen
Danke für Ihre Rückmeldung
Unsere Redakteure überprüfen, was Sie eingereicht haben, und bestimmen, ob Sie den Artikel überarbeiten sollen.
Während alle Anstrengungen unternommen wurden, um Zitierstilregeln zu befolgen, gibt es möglicherweise einige Unstimmigkeiten. Bitte beachten Sie das entsprechende Stilhandbuch oder andere Quellen, wenn Sie Fragen haben.
Wählen Sie Zitierstil
An soziale Medien teilen
Auch bekannt als: Postsynchronisierung, Sprachsubstitution
Geschrieben und faktisch überprüft von
Die Redakteure von Encyclopaedia Britannica überwachen Fachbereiche, in denen sie über umfassende Kenntnisse verfügen, sei es aus jahrelang. Sie schreiben neue Inhalte und überprüfen und bearbeiten Inhalte, die von Mitwirkenden empfangen werden.
Die Herausgeber von Encyclopaedia Britannica
Synchronisation, Im Filmemachen ist der Prozess des Hinzufügens eines neuen Dialogs oder anderen Sounds zum Sound -Track eines Films, der bereits gedreht wurde. Das Synchronisieren ist dem Publikum am bekanntesten als Mittel, um ausländische Filme in die Sprache des Publikums zu übersetzen. Wenn eine Fremdsprache bezeichnet wird, wird die Übersetzung des ursprünglichen Dialogs sorgfältig mit den Lippenbewegungen der Schauspieler im Film überein. .
Das Synchronisieren wird häufig aus technischen Gründen in der originalsprachigen Version eines Soundtracks eingesetzt. Filmemacher verwenden es routinemäßig, um Defekte zu beheben, die sich aus synchronisierten Dreharbeiten ergeben (in denen die Stimmen der Schauspieler gleichzeitig mit der Fotografie aufgenommen werden). Der synchron erfasste Dialog kann in einem Fernaufschuss oder aufgrund eines versehentlichen Flugverkehrs über Kopf unklar oder unhörbar sein, oder es kann einfach unmöglich sein, ein Mikrofon nahe genug zu verbergen, um die Stimmen der Schauspieler inverstandlich aufzunehmen. . Das Synchronisieren wird auch verwendet, um dem Original -Soundtrack Soundeffekte zu verleihen. .
Klassische Schließlinien
Die Filmemacher einiger Länder verlassen sich darauf, den Sound -Track eines gesamten Films zu liefern, da die Technik weniger teuer und problematisch sein kann als synchronisierte Dreharbeiten.
Alles, was Sie über das Synchronisieren wissen müssen
Gehen Sie zu Ihren Einstellungen und schalten Sie diesen englischen Dub ein. Wir haben Ihren Leitfaden zu allen Dingen, die DUB zu tun haben.
Das Synchronisieren im Film und im Fernsehen hat die Tür für endlose Möglichkeiten geöffnet. .
Unabhängig davon, wie Synchronisation verwendet wird, können wir uns einig sein, dass es sich um ein Postproduktionsinstrument handelt, das einem Film oder einer TV-Serie Leben einhauchen kann. Streaming hat fremde Inhalte ermöglicht wie Geldraub, M.F.K.Z, Und Dunkel . .
Während die Debatte über Untertitel vs. . Das Verständnis der Geschichte des Synchronisierens im Filmemachen und warum viele Filmemacher das Postproduktionstool noch verwenden, werden Sie Dubs gegenüber Subs bevorzugen. Lassen Sie uns die Bedeutung des Synchronisierens aufschlüsseln und wie man in Ihrem nächsten Projekt einen guten Dub erstellt.
Inhaltsverzeichnis
?
Das Synchronisieren ist der Prozess des Hinzufügens eines neuen Dialogs oder anderen Sounds zum Audio -Track eines Projekts, das bereits gedreht wurde. Der Begriff “Synchronisieren” entstand aus der Verdoppelung der Vitaphon -Soundscheibe, um den Klang mit einem Film zu synchronisieren, oder von der Verdoppelung der Stimme eines Schauspielers zu Filmen in den Anfängen des Sound -Äras.
Das Synchronisieren wird in der Regel verwendet, um ausländische Filme in die Sprache des Publikums zu übersetzen. Fremdsprachfilme werden aus dem ursprünglichen Dialog des Projekts übersetzt, und der Übersetzer entscheidet sorgfältig, welche Wörter auf der Grundlage von Lippenbewegungen, Ton und Skript verwendet werden sollen.
. Das Animations -Dynamik ermöglicht es den Sprachakteuren, mit ihren Auftritten mehr Freiheit zu haben, da animierte Gesichter nicht so nuanciert sind wie menschliche Gesichter. Live-Action-Synchronisation ist eine Nachahmung der Schauspielerin des ursprünglichen Darstellers, aber mit einer anderen Stimme. Es ist einschränkender und begrenzt die Freiheit der Leistung des Sprachschauspielers.
Ein Redakteur könnte auch das Audio beachten, wenn das Original -Audio aus der Dreharbeiten nicht verwendbar ist. .
Mehrere andere Gründe, die das Synchronisieren von Voice-Over-Erzählungen, Soundeffekten zum Original-Soundtrack hinzufügen oder Musiknummern für eine ansprechendere Stimme ersetzen, bevor die Musiknummern gedreht werden. .
Die Geschichte des Synchronisierens
Das Synchronisieren gab es aufgrund der Einschränkungen des Sound-on-Films in den frühen Tagen des Kinos. .
Das Cameraphon von Gaumont von Chronophon und Nolan folgte Edisons Erfindungen, aber es würde erst 1923 sein.
Leider entwickelten Bell Labs und seine Tochtergesellschaft Western Electric eine 16-Zoll-Shellac-Disc, die sich bei 33 drehte.. beschlossen, mit dem Industrieriesen voranzukommen. . Das Vitaphon debütierte 1925 in einem gepackten Auditorium in New York und San Francisco, wo eine Aufzeichnung der Rede von Präsident Harding gespielt wurde.
Von diesem Moment an war die Suche nach Technologie, um Sound in Filme zu mischen.
Bis 1926 Warner Bros. hatte eine exklusive Lizenz für das Vitaphone Sound-on-Disc-System erworben und ihren ersten sprechenden Film veröffentlicht, Don Juan, später im selben Jahr. George Groves benutzte das Vitaphon, um den Soundtrack aufzunehmen, der zusammen mit dem Film spielen würde, und wurde damit der erste Musikmixer in der Filmgeschichte.
Das Vitaphon
, wurde veröffentlicht und wurde die erste “Talkie” der Länge “Länge”.. .
Als das Kino von der Ära des Stummfilms zum Klang überging, war der Kampf um einen sauberen und klaren Dialog im Einsatz. Mit dem Synchronisieren, wie wir es wissen, begann um 1930 mit Filmen wie Rouben Mamoulian’s Beifall . Mamoulian experimentierte mit der Bearbeitung aller Sound. Immer mehr Filme begannen, den Dialog der Schauspieler nach dem Aufnehmen von Szenen aufzunehmen und dann den Dialog zur Szene zu synchronisieren. Es gab Fälle, in denen andere Schauspieler eingestellt wurden, um die Stimmen von Stars zu machen, die sich weigerten, ihre stillen Szenen wie der Fall von Louise Brooks, der in der Hauptrolle zustande Der Fall Kanarienmord.
In den frühen 30ern bestand die Standard -Subbing -Vorbereitung darin, den Dialog auf einem Track zu legen und drei Tracks zwischen Musik und Soundeffekten zu teilen, die geteilt werden sollen. Die Errungenschaft des Synchronisierens ermöglichte es Künstlern wie Fred Astaire, seine Tap-Schritte genau so zu reduzieren, wie er sie in seinen Filmen tanzen würde. In den 1940er Jahren Disney’s .. Die Theater installierten die Ausrüstung.
Wie u.. Die Kartellgesetzgebung zwang die Studios, die Standards des Kinos zu innovieren oder zu erhöhen. Studios beschloss, das Problem der Klangqualität zu lösen, indem sie auf einem 360-Grad-Soundtrack auf sechs Kanalmagneten aufgenommen wurden. Erst in den frühen 70ern, als Ray Dolby eine Rauschreduktionstechnologie für Multi-Track-Rekorder für Cinema Sound anpasste. .
Dolbys Lösung für die AudioqualitätKredit: Local695
Die Standardpraxis für die Codierung von Dolby Mag Masters bestand darin, separate Vier-Track-Masters für Dialog, Effekte und Musik zu erstellen, die mit links, zentraler, rechts und Surround-Sound codiert wurden.
Mit vier Track-Meistern, die die Geräusche und Effekte in einem Film trennen. Diese Praxis befindet sich noch im modernen Filmemachen, aber Filmemacher haben auch andere Verwendungszwecke für das Synchronisieren gefunden. .
Warum ist es wichtig, wichtig zu sein??
Das Synchronisieren kann die Reichweite eines Projekts erhöhen. Wenn ein Film international veröffentlicht werden will, um einem breiteren Publikum ausgesetzt zu sein, muss der Film in die Sprache des Landes synchronisiert werden, in dem er veröffentlicht wird, in dem er veröffentlicht wird.
. Zum einen verbieten einige Länder einen Film, in seiner Originalsprache gezeigt zu werden. Ein weiterer Grund ist, dass einige Zuschauer feststellen können, dass die Untertitel von dem, was auf dem Bildschirm geschieht. .
Ein weiterer Grund dafür, dass das Subeln wichtig ist, ist in Fällen, in denen das ursprüngliche Audio nicht rettbar ist. Der Dialog war möglicherweise unklar oder unhörbar in einer Ferngeschichte oder aus versehentlichem Flugverkehr, Hintergrundgeräuschen oder das Mikrofon konnte die Stimmen der Schauspieler nicht abholen. In diesen Fällen kann der Dialog nach dem Filmen und Audio in den Film aufgenommen werden, ohne dass das Publikum einen Dialog verpasst.
Das Audio -Synchronfall erfordert eine Planung, insbesondere wenn Sie den Dialog aus einer anderen Sprache übersetzen.
Der Prozess beginnt, wenn ein Videomaster an den Lokalisierungsanbieter gesendet wird. . Das Skript wird dann zeitlich codiert, die Referenznummer, die einem bestimmten Zeitpunkt in einer Mediendatei gegeben wurde. Wenn kein Skript gesendet wird, transkriiert der Anbieter den Dialog in einen geschriebenen Text.
Ein Skript wird von einem Übersetzer und Skriptwriter erstellt. Sie werden sich hinsetzen und das Skript in jeder Sprache schreiben, auf die sie auf der Grundlage des Dialogs im Projekt übersetzt werden. Der Übersetzer muss die sprachlichen Unterschiede berücksichtigen und gleichzeitig übersetzen, um den Dialog eher konversatorisch als eine unangenehme direkte Übersetzung zu halten, die Google übersetzt würde.
Der Übersetzer und der Drehbuchautor, manchmal dieselbe Person, werden versuchen, die besten Wörter zu finden, die den Ton des Dialogs und der Szene, die bereits im Projekt festgelegten Leistungen und die Themen der Geschichte erhalten, während sie Wörter finden, die mit der Lippe übereinstimmen Bewegungen eines Charakters. Schlechte Synchronisierung zwischen den Lippenbewegungen des Charakters und dem Dub kann für das Publikum sehr ablenkend sein.
Übersetzungsredakteure sind der Kleber zum Synchronisieren und Subieren von Fremdfilmen.Kredit: Synchronisation King
Der Übersetzer weiß, wie er für jede Original -Szene im Projekt Szenenzeitstempel erstellt, um den Sprachakteuren zu helfen, die Zeit, in der verschiedene Dialoge stattfinden lang.
Während das Skript übersetzt wird, müssen Sprachakteure gegossen werden, um das Skript auszuführen. Es ist sehr wichtig, Sprachakteure zu finden, die fließend in der Sprache sprechen, in der das Projekt synchronisiert wird. Die Stimmen sollten den Stimmen oder den Klang der ursprünglichen Schauspieler ähnlich klingen, als ob sie der Charakter auf dem Bildschirm sein könnten. Wenn der ursprüngliche Schauspieler oder der ursprüngliche Charakter eine tiefe Stimme hat und so aussieht, als ob sie eine tiefe Stimme haben sollten, werfen Sie einen Sprachschauspieler, der eine tiefe Stimme machen kann. Der Dub muss natürlich klingen und den Ton der Stimme und Leistung eines Charakters anpassen.
Während der Aufnahme werden der Regisseur und ein Soundingenieur eng mit dem Sprachschauspieler zusammenarbeiten, um sicherzustellen, dass die Weltauswahl mit den Lippenbewegungen eines Charakters synchronisiert werden. . Der Soundingenieur ist da, um sicherzustellen.
Sobald Sprachakteure ihre Zeilen aufgezeichnet haben, ist es Zeit, den Dub in den vorhandenen Audiospur zu bearbeiten. Ein neuer Audio-Track wird von einem Soundingenieur und Editor während der Postproduktion mit dem vorhandenen Audio gemischt. Die Redakteure müssen das Timing des Dubs in den Szenen anpassen, indem Sie einen Bildschirm verlangsamen oder beschleunigen, damit die neuen Audio -Übereinstimmung entsprechen.
Dubs steigen an Popularität
Das Synchronisieren war schon immer beliebt im Filmemachen, aber der Einsatz von Filmen für ausländische Sprache fand in den späten 1930er und 40er Jahren Beliebtheit an. Mit den europäischen Ländern beschränkten sich die Bürger dieser Länder auf Filme und Unterhaltung, die sich in der Landessprache ihres Landes befanden.
Viele ausländische Filme, die in diesen extrem nationalistischen Ländern wie Nazi -Deutschland, Mussolinis Italien und Franos Spanien angesehen wurden.
Die Sowjetunion benutzte das Synchronisieren ihrer kommunistischen Zensurprogramme, die bis in die 1980er Jahre andauerte. In diesen Zeiten begannen zuvor verbotene Filme unter der Form von minderwertigen, hausgemachten Videos mit einem Voice-Over-Dub, der als alle Schauspieler im Film spreche, ins Land zu fliegen. Überraschenderweise ist dieser Ein-Voice-Over-Dub im russischen Fernsehen immer noch üblich. Nur Filme haben ein Budget, das für hochwertige Dubs groß genug ist.
Jetzt wurden viele Länder demokratisiert, aber die Wurzeln des Nationalismus sind noch vorhanden. Frankreich hat das Toubon -Gesetz, das die Einfuhr ausländischer Filme verbietet, es sei denn, es wird in Französisch bezeichnet. Österreich hat die höchste Ablehnungsrate an Untertiteln der Welt, wobei mehr als 70% ihres Publikums über Subbed bevorzugt werden.
Obwohl Englisch und Französisch die Nationalsprachen in den Provinzen Quebec sind, alle u.S. Filme müssen in Französisch bezeichnet werden.
Amerikas Verachtung gegenüber Dubs
Während die meisten asiatischen und europäischen Länder eine allgemeine Einstellung haben, die das Synchronisieren gut ist, ist der allgemeine Kinogänger und das Streaming -Publikum in der U.S. sind gegen den Synchronisieren von philosophischen und künstlerischen Gründen.
Das ältere Publikum war in den 70er und 80ern schlechten, außergewöhnlichen Dubs asiatischer und europäischer Filme ausgesetzt und war nicht viel aus fremdsprachigem Inhalt von ausländischen Sprachen gesehen Wie der größte Teil der Welt. Mit Filmen wie Das Klagen Und Parasit Der durchschnittliche Kinegehörer findet massiven Erfolg im amerikanischen Kino und bewahrt es vor, die Kunst des Originalfilms durch das Lesen der Untertitel zu bewahren.
Diese neue Bekämpfung ausländischer Unterhaltung in Streaming -Diensten hat eine neue Verachtung zum Synchronisieren des amerikanischen Publikums geschaffen.
Ein Großteil der ausländischen Unterhaltung bietet den amerikanischen Zuschauern synchronisierten und unterbetten. Als u.S. ist immer mehr ausländische Serien und Filme ausgesetzt, die Abneigung gegenüber Dubs möglicherweise verblassen.
In Anime synchronisieren
Das sub vs. Dub Debatte ist ein Hot-Button-Thema für Anime-Fans. Im Gegensatz zu Live-Action-Filmen und -Shows ermöglicht Animation die Freiheit der Sprachakteure, ohne zu viele Einschränkungen aufzutreten. Die Mundbewegungen des Charakters müssen sich nicht perfekt mit dem Audio anpassen, und der Übersetzer interpretiert die Show für ein Englisch oder ein anderes Publikum erneut.
Das Problem mit Untertiteln ist, dass es sich. Die Übersetzungen sind nicht immer perfekt, und was gesagt wird, wird normalerweise in verdauliche Bisse abgeschnitten, die ein Betrachter schnell lesen kann. Untertitel können jemanden aus der Szene nehmen, indem Sie Sie dazu zwingen, weiter zu lesen, anstatt zuzuschauen.
Einige Leute berichteten auch, dass sie Informationen besser beibehalten, wenn sie sie hören, anstatt sie zu lesen. Das Hören des Dialogs in einer Show bleibt länger bei ihnen.
Eines der Hauptprobleme im Synchronisierungsanime ist die Zensur. Der amerikanisch verwirrte Anime hat eine jüngere Zielgruppe.S. . Goku in der synchronisierten Version von Dragon Ball Z Klingt nach einem erwachsenen Mann mit einer tiefen Stimme, wirkt sich aber wie ein Kind. In der japanischen Version des Anime klingt Goku wie ein Kind. Dies war eine offensichtliche Auswahl der Charakter, die die Schöpfer der Show getroffen hatten.
Der Hauptgrund, warum die Zuschauer nicht gefallen.”Es ist eine seltsame Anomalie, die existiert, weil amerikanische Publikum mit ausländischen Shows, Filmen oder Inhalten nicht vertraut ist. Wenn die Zuschauer für diese Shows wächst, wird das Budget zu Dub erhöht und den Showrunnern erfahrenere Sprachdarsteller, Direktoren und Redakteure zur Verfügung stellen.
Ich habe keine Präferenz und höre normalerweise sowohl die Sub- als auch die DUB -Version eines Anime an, den ich sehe, was mir am besten gefällt.
Wie man einen schlechten Dub vermeidet
Ein Film oder eine Show zu synchieren kann schwierig sein. Das Letzte, was ein Filmemacher möchte, ist, dass ein Dub das Publikum von der Geschichte ablenkt.
Die meiste Zeit arbeiten Sprachschauspieler und Regisseure an den Dubs mit Skripten, die in der Nacht zuvor geschrieben wurden, seit die Turnaround -Zeit für Dubs so schnell ist. Viele der letzten Zeilen, die es in die endgültige synchronisierte Version eines ausländischen Projekts schaffen.
Manchmal kann das Synchronisation sehr unruhig und nicht synchronisiert sein. Ein Film oder eine Serie kann Szenen erstellen, die unangenehm, schlecht synchronisiert sind und sich einfach nur schick ansehen, um sie anzusehen. Schauen Sie sich diese Szene aus Tintenfischspiel um zu sehen, was ich meine:
. Ein Teil davon hängt damit zu tun.
Obwohl der Sprachschauspieler auf ihre Auftritte mit Live-Action-Projekten beschränkt ist, sollte ein Sprachschauspieler in der Lage sein, die Leistung einer Schauspieler durch ihre Stimme nachzuahmen, indem sie die Gesten der ursprünglichen Schauspieler, nuancierte Gesichtsbewegungen und Lippenbewegungen beobachten, wenn sie sprechen. Sprachakteure sind in der Regel allein in einem Aufnahmestand und können die Darbietungen der anderen Schauspieler nicht hören. Der Sprachdirektor gibt Tipps, um die Leistung nach ihren Wünschen zu formen, sodass sich die synchronisierten Stimmen so natürlich wie möglich anfühlen.
Was macht einen guten Dub aus?
Ein kreativer und technischer Prozess, der Talent und Zeit erfordert. Die Turnaround-Zeit für einen Film mit Spielfilms beträgt normalerweise etwa sechs bis 12 Wochen. Diesmal beinhaltet das Umschreiben des Skripts in eine andere Sprache, Aufnahme und Klangmischung.
Gute Leistungen zu finden, die mit dem Projekt synchronisiert werden. Es dauert länger, um einen guten Dub von Sprachdarstellern und Regisseuren zu bekommen, die wenig synchronisierte Erfahrung haben.
Sound Engineering und Mischung sind auch Komponenten für einen guten Dub. Sogne Stimmen können so klingen, als wären sie vor Ort aufgenommen und in den Soundtrack vermischt worden.
Schauen Sie sich diesen Clip von an Geldraub Um zu sehen, wie die synchronisierten Stimmen gut in die Aktionen und andere Soundeffekte der Show gemischt werden:
Beste Tools zum Synchronisieren
Wenn Sie Erfahrungen im Synchronisieren erhalten möchten, finden Sie hier einige der besten Software -Software, die Sie herunterladen können.
Adobe Audition CC: Adobe Audition CC ist eines der besten Audio -Synchronisierungsprogramme auf dem Markt. Benutzer der Software haben eine enorme Audiobearbeitungsleistung durch Bearbeiten, Mischen und Erstellen einer knackigen Audioproduktion, die die Qualität jedes Films, Films, Shows oder Shorts verbessern wird. Sie können Audiospuren in die gewünschten Videoclips einfügen, Soundeffekte, Reinigung und Audio -Restaurierung hinzufügen, während Sie Zugriff auf eine Vielzahl von Tools zum Bearbeiten und Ändern von Audiospuren haben.
Wellenstoffe: Es gibt auch Wavepad, eine Software, mit der Sie Audio aufzeichnen und eine breite Palette von Audioformaten importieren können, darunter GSM, Vox, WMA, OGG, FLAC, MP3 und mehr. Mit Wavepad können Sie Audio bearbeiten, Rauschen reduzieren, Audio wiederherstellen und eine breite Palette von Audioeffekten haben, die einfach zu bedienen sind. Für längere Projekte bietet WavePad eine Lesezeichenfunktion, damit Sie nie Ihren Platz verlieren.
Diese Software ist perfekt für alle, die gerade erst in die Soundmischung geraten. Magix Music Maker verfügt über eine visuell ansprechende Oberfläche und ein System, das leicht zu navigieren ist. . Viele professionelle Soundingenieure verwenden diese Software wegen ihrer Einfachheit, während sie dennoch die gleichen Funktionen wie die beste Software zum Synchronisation erfüllen können.
Kühnheit: Audacity ist ein kostenloses Audio -Dynamik -Tool, das sowohl Amateure als auch Fachkräfte verwenden. Die Schnittstelle ist einfach und einfach zu bedienen, macht aber den Mangel an Flackern mit ihrer Funktionalität wieder wett. Das Audio -Bearbeitungsprogramm bietet viele Funktionen wie das Verwalten mehrerer Aufnahme -Tracks, Sprachstufen und Aufzeichnung von Mikrofonen oder mehreren Kanälen.
Kredit: Prosound -Netzwerk
Ohne die Entdeckung von Dubs und die Synchronisierung von Klang mit Filmbildern hätte das Kino bis heute schweigend gezeigt werden können. Dubs haben den Verlauf des Klangs in Film und Fernsehen für immer verändert, indem sie den Weg für eine bessere Audioqualität beinhalten. .
Wenn Sie das nächste Mal eine Serie oder einen Film sehen, schalten Sie die Dubs ein. Möglicherweise finden Sie einen besseren Weg, um das Skript zu übersetzen oder das Audio besser zu mischen, damit die Dub -Stimmen natürlich klingen lassen. .
Da immer mehr fremde Inhalte in der U beliebt sind.S., Die Nachfrage nach Sprachakteuren, Sprachdirektoren und Soundingenieuren wird zunehmen, und Sie arbeiten möglicherweise an diesen Projekten mit Ihrem neu entdeckten Kenntnis.