Phollux

Robert Kerick
Sprechprobe
Link
Hallo liebe(r) Cutter(innen),
mich würde mal interessieren, ob es für den Dialogschnitt eine gewisse Guideline gibt, der man folgen könnte? Wenn ich anfange zu basteln, fühlt es sich für mich eben noch sehr nach "herumprobieren" an, d.h. es gibt diverse Punkte die ich zwar abarbeiten würde, ohne aber wirklich eine Sicherheit zu verspüren: "Jo, das hat jetzt Hand und Fuß"

Mein bisheriges Vorgehen für den Dialogschnitt wäre:

1. Einladen aller Aufnahmen in den jeweiligen Sequenzer. (Ich benutze Samplitude ProX3 Suite, aber ich glaube mit Spuren zu arbeiten ist in jedem Sequenzerprogramm Standard). Pro Sprecher jeweils eine Spur.

2. Die Aufnahmen jedes einzelnen Sprechers beurteilen, anhand folgender Punkte:
- Sauberkeit der Aufnahme (Ploppser, Schmatzer, ungewollte Atemgeräusche)
- Hintergrundrauschen
- Lautstärke der Aufnahme (In welchem dB-Bereich liegt die Aufnahme?)
- Klang der Aufnahme

3. Abarbeiten der unter 2. genannten Punkte
- Trennen, Schneiden und Zurechtstutzen der jeweiligen unsauberen Aufnahmen, um unerwünschte Nebengeräusche zu entfernen.
- Entfernen des Hintergrundrauschens via Noise Sample und De-Noiser.
- Einjustieren der Lautstärke der jeweiligen Aufnahmen bei z.B. -3 dB. Hierzu benutze ich wahlweise einen Komressor, den Lautstärke-Zieh-Marker eines Samples oder den Lautstärkeregler einer ganzen Spur.
- Benutzen eines EQs um den Klang der einzelnen Aufnahmen aller Sprecher aneinander anzunähern. Klingt eine Aufnahme A im Vergleich zu Aufnahme B dumpf, hebe ich den hohen Frequenzbereich (A) etwas an, oder senke den hohen Frequenzbereich in der anderen Aufnahme (B) etwas ab.

Gerade in Bezug auf die Lautstärkenanpassung bin ich mir extrem unsicher. Welcher Weg hat welche Vor- und Nachteile? Ich habe -3 dB einfach mal als Beispiel herangezogen (schwach genug um nicht zu übersteuern, aber stark genug um klar deutlich hörbar zu sein). In Hinblick auf den späteren Mixingprozess und die Aufsummierung aller Audiosignale im Master- oder Summenkanal (Verstärkung/Abschwächung) frage ich mich aber, ob solch ein Vorgehen überhaupt Sinn macht? Bzw. wie groß sollte der dB-Puffer (für die späteren Soundeffekte, Sounds, Atmos und Musik) sein, um am Ende nichts zu übersteuern?

Vielleicht mag mir der(die) eine oder andere ja Feedback zu den obigen Punkten geben?
Ich würd mich freuen. :)
 

Nightblack

Meinhard Schulte
Sprechprobe
Link
Ich kann ja jetzt nur mal erzählen, wie ich bei den letzten Szenen, die ich bei Parapol Luxemburg geschnitten habe, vorgegangen bin.
Die Takes der Sprecher waren sehr unterschiedlich in der Aussteuerung / Lautstärke - Ich habe sie alle mit Audacity zunächst normalisiert ( auch auf -3db ) wobei ich schon vorhandene Spitzen nicht markiert habe - war also recht aufwendig. Anschließend noisesample des Grundrauschen genommen und dann erst die eigentliche Rauschunterdrückung. Letztere einzupegeln ist nicht ganz sooo einfach bzw. vielleicht auch Geschmackssache. In Samplitude habe ich dann erst mit Effekten wie EQ und Reverb /Impulseresponses gearbeitet weil man dort manchmal mit Automatisierung arbeiten muss.
 
G

Gelöschtes Mitglied 6038

- Entfernen des Hintergrundrauschens via Noise Sample und De-Noiser.
- Einjustieren der Lautstärke der jeweiligen Aufnahmen bei z.B. -3 dB. Hierzu benutze ich wahlweise einen Komressor, den Lautstärke-Zieh-Marker eines Samples oder den Lautstärkeregler einer ganzen Spur.
- Benutzen eines EQs um den Klang der einzelnen Aufnahmen aller Sprecher aneinander anzunähern. Klingt eine Aufnahme A im Vergleich zu Aufnahme B dumpf, hebe ich den hohen Frequenzbereich (A) etwas an, oder senke den hohen Frequenzbereich in der anderen Aufnahme (B) etwas ab.

Da du Samplitude nutzt: Probier auch mal den Dehisser aus. Tolles Tool. Es entfernt breitbandig Rauschen welches durch die Technik: "Preamp, Audio-Interface und Mikrofon" entsteht. Dezent eingesetzt ein mächtiges kleines Tool welches neben Denoiser eine sehr gute Rauschentfernung ermöglicht.

Normalisieren der Sprache finde ich nicht so geschickt. Eine Kombination aus Kompressor und Limiter ist hier mein Mittel der Wahl. Man kann auch nur mit Limiter only arbeiten. Ist auch Geschmackssache und kommt ein wenig auf die Arbeitsweise an. Waves "Vocal Rider" ist hier auch eine Erwähnung wert. Wobei man auch ein wenig die Elemente der Psycho-Akustik beachten muss: Eine hohe / helle Frauenstimme klingt erstmal lauter als ein bassiger tiefer Mann. Zumindest aus nächster Nähe... Wobei lauter nicht unbedingt das richtige Wort ist... sagen wir: "Durchsetzungsfähiger". Umso weiter weg man von der Soundquelle ist umso mehr dreht sich das Verhältnis. Tiefe Frequenzen sind einfach super für Langstrecken und hohe Frequenzen eher für kurze Distanzen. Da muss man ggf. auch nochmal händisch nachjustieren. Lange Rede kurzer Sinn: Wenn beide Tonspuren -3dB aussteuerung anzeigen, muss das nicht heißen das man das Subjektiv auch so empfindet. So wie du das beschreibst klingt das auf jeden Fall so als ist dir das bewusst.

EQ und Faltungshall ist mein Mittel der Wahl um den Klang anzugleichen.
Jeder Sprecher kriegt dein (gleichen) Faltungshall in der jeweilig nötigen Intensität. EQ ist natürlich auch wichtig. Um das ein wenig anzugleichen. Vergleiche am besten immer zwei Sprecherspuren miteinander. Spur A mit Spur B. Dann Spur A mit C. Dann Spur B mit C. Klingt das alles homogen, aus einem Guss? Wenn nicht schau wie du die in Einklang kriegst. Wenn du das geschafft hast fahre einfach mit den nächsten Spuren fort. A und B must du dann nicht mehr ändern, du nimmst dann einfach C als Referenz. Damit sind schon drei Sprecher "aus einem Guss" und den Rest gilt es anzugleichen. Fang mit den subjektiv härtesten Nüssen an. Welche Sprecher stechen enorm hervor? Nimm dir die zuerst vor und guck ob du die auf einen gemeinsamen Nenner kriegst. Umso "neutraler" eine Sprecherspur ist, umso besser lässt die sich in der Regel auch in den Mix einfügen

Bzw. wie groß sollte der dB-Puffer (für die späteren Soundeffekte, Sounds, Atmos und Musik) sein, um am Ende nichts zu übersteuern?

Am besten du betrachtest alle Punkte erstmal einzeln und verheiratest dann zum Schluss alle drei Spuren miteinander.
Hier kannst du mit Automationen ggf. nochmal nachjustieren wenn ein SFX bspw. durch Stimme + Musik plötzlich untergeht welcher wichtig ist.
Wichtig auch hier: Die Soundeffekte auch durch die gleichen / ähnliche Impulsantworten wie die Stimmen jagen. Auch wenn Faltungshalle immer nur mit "Hall" in Verbindung gebracht werden sind sie doch so viel mehr. Sie haben einen großen Einfluss auf den klanglichen Charakter und haben färbende Eigenschaften.
 

Lupin Wolf

Klaus S. - The Evil Master of Deasaster
Sprechprobe
Link
Ich kann den MV2 (Waves) echt empfehlen.
Da werfe ich noch den LoudMax Limiter dazu. Vom Preis ein wenig günstiger (FREE ;) ), doch genauso simpel wie MV2 (und dazu noch Plattformübergreifend für Windows, Mac und Linux).

Ziemlich ausgefuchst, weniger simpel, doch in der gleichen (kostenfreien) Preisklasse: MCompressor

Alternativen halt, auch wenn jede DAW ihre eigenen Kompressoren/Limiter bereit hält. Aber gefallen muss es einen nicht, oder manchmal ist auch weniger an Drehknöpfen/Slidern halt mehr.

Gerade in Bezug auf die Lautstärkenanpassung bin ich mir extrem unsicher. Welcher Weg hat welche Vor- und Nachteile? Ich habe -3 dB einfach mal als Beispiel herangezogen
Die -3 dB gibt dir sicher einen Puffer, aber vorhersehen kannst du das auch nicht immer. Je nachdem mit was für einem Effektbombardement du arbeiten mußt, kommt da je nach Stimme was völlig unterschiedliches bei raus. Insofern belasse ich es beim normalisieren auf -0,5dB (pro Spur und deren höchstem Peak) und richte das später aus, wenn ich die Peakspitzen danach sehe. Später beim Gesammtbild anpassen, wo es noch nicht passt muss man sowieso nach regeln.

Ich verweise dazu einfach auf den Artikel hier:
http://mixingundmastering.de/2014/10/30/metering-und-gain-staging/

Lange Rede kurzer Sinn: Wenn beide Tonspuren -3dB aussteuerung anzeigen, muss das nicht heißen das man das Subjektiv auch so empfindet.
Genau das ist der Knackpunkt.

Klingt eine Aufnahme A im Vergleich zu Aufnahme B dumpf, hebe ich den hohen Frequenzbereich (A) etwas an, oder senke den hohen Frequenzbereich in der anderen Aufnahme (B) etwas ab.
Wobei du nicht vergessen solltest, das da wo nix ist, nichts hinzu geregelt werden kann. Entsprechend...

und den Rest gilt es anzugleichen. Fang mit den subjektiv härtesten Nüssen an.
Zustimm. Ist schon verrückt: das bedeutet auch, das meiste zu verschlechtern, damit es insgesamt besser klingt. Klingt komisch, aber ist der einzige Weg bei unseren dezentralen und völlig unterschiedlichen Aufnahmebedingungen, die am Ende zusammen spielen sollen.
 

Nonowe

Mitglied
Sprechprobe
Link
Wenn eine Stimme dumpf klingt, kann man auch einen Enhancer wie Overtone GEQ (gratis) benutzen - fehlende Frequenzen werden dann wieder dazugerechnet, die Stimme klingt dann viel präsenter und weniger dumpf.

Beim Schneiden gehe ich übrigens ganz anders vor ;-) Ich höre mir jeden Sprecher einzeln in Audacity an, entrausche die ganze Spur. Dann wähle ich die Takes aus, die ich benutzen will (oder schnippele sie zusammen), entploppe und repariere sie. Dann markiere und exportiere ich sie, mithilfe einer Textspur. Für manche Takes exportiere ich vll auch zwei Varianten. Dann lade ich die Takes, die nach ihren Nummern benannt sind, in Cubase, eine Spur pro Rolle, normalisiere sie einzeln.
Dann nehme ich mir die Szenen vor - den Hall, die Geräusche, das Timing, und die Effekte pro Spur. Ich finde, wenn ich vorm Szenenhall schon mit Effekten loslegen würde, müsste ich die Effekte und Lautstärke dann ein zweites Mal einstellen. Ich würde den Dialog auch nicht ohne Geräusche und Musik timen (aber das ist natürlich auch mein eigener Geschmack, damit genug Platz für die Musik ist ;-))
 

Phollux

Robert Kerick
Sprechprobe
Link
Vielen Dank schonmal für die tollen Antworten. Hab mich gestern auch nochmal mit HaPe darüber unterhalten und mich mit ihm ausgetauscht.

Ich habe sie alle mit Audacity zunächst normalisiert ( auch auf -3db ) wobei ich schon vorhandene Spitzen nicht markiert habe - war also recht aufwendig.
eben aus diesem Grund würde ich "normalisieren" selten anwenden. Ich hab da die Befürchtung, dass die Sprünge in der Lautstärke zu extrem und "hörbar" ausfallen könnten, weil sich solche Spitzen ja, nicht unbedingt gut trennbar, mitten in den Wörtern befinden.

Probier auch mal den Dehisser aus. Tolles Tool. Es entfernt breitbandig Rauschen welches durch die Technik: "Preamp, Audio-Interface und Mikrofon" entsteht. Dezent eingesetzt ein mächtiges kleines Tool welches neben Denoiser eine sehr gute Rauschentfernung ermöglicht.
Den habe ich bislang so ziemlich ignoriert, weil ich mit ihm den Fall verbinde starke Zisch und Ssss Laute zu entfernen. Da die meisten Aufnahmen in diesem Fall für mich "okay" waren, war für mich nie die Anforderung gegeben einen De-hisser (ist das eig. gleichbedeutend zu einem De-esser?) zu benutzen.

Wobei lauter nicht unbedingt das richtige Wort ist... sagen wir: "Durchsetzungsfähiger".
Ich bin voll bei Dir! :)

So wie du das beschreibst klingt das auf jeden Fall so als ist dir das bewusst.
Nachdem ich mich über das Thema "Loudness-War" informiert hatte, wurde mir bewusst, das Lautstärke nicht mit Lautheit gleichzusetzen ist. ;)

Am besten du betrachtest alle Punkte erstmal einzeln und verheiratest dann zum Schluss alle drei Spuren miteinander.
Hier kannst du mit Automationen ggf. nochmal nachjustieren wenn ein SFX bspw. durch Stimme + Musik plötzlich untergeht welcher wichtig ist.
HaPe erinnerte mich gestern auch nochmal daran, dass es neben dem Angleichen der Stimmen (Klang und Lautstärke) eben auch ästhetische Aspekte gibt, die ich beachten darf. (Extremfall: Wenn ein zaghaftes Flüstern splötzlich lauter klingt als extremes Geschrei)

Wobei du nicht vergessen solltest, das da wo nix ist, nichts hinzu geregelt werden kann.
Früher hatte @Badda das Thema schonmal angestossen. Und @Nonowe
hat es mir mit dem Post:
Overtone GEQ: Stimmen präsenter machen, also "enttopfen" | HoerTalk.de - Hörspiel-Community
wieder in Erinnerung gerufen. :)

Ich höre mir jeden Sprecher einzeln in Audacity an, entrausche die ganze Spur. Dann wähle ich die Takes aus, die ich benutzen will (oder schnippele sie zusammen), entploppe und repariere sie. Dann markiere und exportiere ich sie, mithilfe einer Textspur. Für manche Takes exportiere ich vll auch zwei Varianten. Dann lade ich die Takes, die nach ihren Nummern benannt sind, in Cubase

Ein sehr interessanter Aspekt! :)
Was ich bis gestern gar nicht aufm Schirm hatte war, dass ich mir ja jederzeit auch neben dem eigentlichen Projekt ein Bastelprojekt daneben legen kann, in dem ich diverse Schritte ausprobieren kann, diverse Effekte "vor"konfigurieren kann um sie dann später im eig. Projekt per Copy&Paste einzufügen. Macht natürlich nur Sinn, wenn dies auch in ein und demselben Bearbeitungsprogramm erfolgt.
Audacity benutze ich recht häufig für Schnell-Lösungen. Das Programm präsentiert sich optisch sehr spartanisch ist aber wenn man Shortcuts benutzt ungeheuer effektiv.
 
Oben