soundjob

HÖRSPIEL MUSIK AUDIO
Sprechprobe
Link
Sounddesign für Fortgeschrittene. Atmosphärische Tiefenstaffelung in Stereo.

TIEFENSTAFFELUNG
Tiefenstaffelung bezeichnet eine Mixing-Technik, bei der Audio-Elemente – also Stimmen und Geräusche – so platziert werden, dass ein räumlicher Eindruck von Tiefe und Weite entsteht.
Gerade im Stereomix lässt sich durch gezielte Tiefenstaffelung ein nahezu dreidimensionaler Raum erzeugen: Events werden nicht nur links und rechts auf der Stereobühne verteilt, sondern mit Hilfe bestimmter Mixing-Techniken durch Lautstärkeabsenkung, Equalizing, sowie dem Einsatz von Effekten wie Nachhall und Echo so bearbeitet, dass auch ein klares „Vorne“ und „Hinten“ wahrnehmbar wird.
Ein Mix, der in der Tiefe gestaffelt ist, wirkt nicht nur transparenter und durchsetzungsfähiger, sondern zugleich dichter, atmosphärischer und realistischer.

So wird aus einer Bühne nicht bloß eine kleine flache Fläche, auf der sich alles in gefühlten 5–10 Metern Entfernung vor dem Zuhörer abspielt.
Stattdessen können wir auch den Eindruck erzeugen, dass etwas „weit hinten im Raum entfernt“, geschieht.

Tiefenstaffelung ist damit eine grundlegende Methode im Audiodesign – unabhängig davon, ob wir auf einer klassischen Stereo-Bühne oder in einem dreidimensionalen Atmos-Setup arbeiten.
Das zugrunde liegende Prinzip ist im Kern dasselbe und bildet die Basis für jeden Mix mit ausgeprägter räumlicher Tiefe.

Benötigt werden dafür lediglich, natürlich, eure DAW wie etwa *Cubase, Reaper oder Audacity, dazu Laustärkereduzierung, ein einfacher Equalizer, ein Hall (Reverb), ein Echo (Delay) und einen Stereo-Imager.
(⚠️Da nicht jede DAW einen Stereo-Imager mitbringt, verweise ich hier auf ein kostenloses VST Freeware-Tool: A1 Stereo Control für Win32/64/OSX.
Für Windows empfehle ich die x64-Version des Plug-in. Nach der Installation muss die DAW gegebenenfalls einmal neu nach Plug-ins scannen, damit das neue Tool erkannt wird).

Wir arbeiten mit Stereo-Spuren !
*
Importiere Sprachaufnahmen (Mono-Files) in deine DAW immer auf Stereo-Spuren, beziehungsweise wandle Mono-Spuren in Stereo um (explizit in Audacity) !
Warum?
Weil selbst hochwertige Stereo-Effekte wie Hall auf reinen Mono-Spuren meist blechern und unangenehm klingen.
Auch wenn wir viele Stereoeffekte später sehr mono-zentriert einstellen, ist eine Stereospur immer die korrekte Ausgangsbasis – sowohl für die Klangqualität der Effekte, als auch für weitere Stereo-Bearbeitungen, die mit reinen Mono-Files so nicht oder nur stark eingeschränkt möglich wären.

Das Prinzip der Tiefenstaffelung
Tiefenstaffelung folgt einem sehr einfachen Grundprinzip: Mithilfe eines Equalizers lassen sich eine vordere, eine mittlere und eine hintere Ebene im Mix anlegen.
Dabei werden gezielt Bass- und Höhenanteile gefiltert, um Audio-Elemente auf diese Ebenen zu verschieben – entsprechend dem natürlichem physikalischen Hören.
Zudem wird natürlich auch die Lautstärke des Audio-Elements reduziert, je weiter dieses vom Zuhörer entfernt sein soll.

Design Tiefenstaffelung.jpg


Vordere Ebene
Befindet sich ein Sprecher oder ein Geräusch quasi direkt vor uns, sind sämtliche Frequenzen deutlich wahrnehmbar – besonders die tiefen Frequenzen.
Je stärker der Bassanteil eines Signals, desto weiter vorne wirkt es im Mix.

Mittlere Ebene
Reduzieren wir mit dem EQ den Bassanteil, rückt das Audio-Element automatisch in die mittlere Ebene. Je mehr Tiefen wir wegnehmen, desto größer erscheint der Abstand zum Zuhörer.

Hintere Ebene
In der hinteren Ebene sind fast keine tiefen Frequenzen mehr vorhanden. Werden zusätzlich noch Höhenanteile abgesenkt, klingt das Element zunehmend weiter entfernt.
Das gezielte Absenken von Bässen und Höhen bestimmt letztlich, wie weit weg ein Ereignis im Raum wahrgenommen wird.
Doch Vorsicht ☝️: Nehmt immer nur so viel Frequenzen weg, so dass in der Entfernung kein „Telefonsound“ entsteht.
(Versucht immer nur so viel wegzunehmen, sodass die Natürlichkeit eines Klangs weitestgehend erhalten bleibt).

Die Art der Frequenzbearbeitung per Equalizer stellt die fundamentale Grundlage der Tiefenstaffelung im Mix dar.
Sie ist jedoch nur der erste Schritt.
Im zweiten Schritt wird der Raum selbst nachgebildet – durch den Einsatz eines Hall-Effekts, eines Echo-Effekts oder einer Kombination aus beiden.


Umgang mit Hall und Echo
Für Innenräume setzen wir vorzugsweise auf Hall und würzen bei Bedarf mit einer kleinen Prise Echo – Echo vor allem dann, wenn der Raum viele hart reflektierende Flächen wie Stein oder Metall besitzt.
Verfügt ein Raum hingegen über viel Holz, etwa durch Holzböden, Wände (Blockhaus) und Möbel, verzichten wir in der Regel auf Echo oder verwenden es nur äußerst sparsam und unauffällig an der Hörschwelle, da Holz einen Großteil des Echos absorbiert.

Zur Simulation einer Außensituation verfahren wir genau umgekehrt: Abhängig von Entfernung und Größe der Umgebung arbeiten wir mit mehr oder weniger dezentem Echo.
Optional kann eine sehr schwach dosierte Prise Hall hinzukommen – stets aber deutlich geringer als das Echo –, damit die Naturumgebung nicht zu trocken wirkt, wie man es nur aus nahezu vakuumartigen Verhältnissen kennt.

☝️Merke:
Gemäß einem physikalisch korrekten Höreindruck nimmt sowohl die Halldichte als auch der räumliche Ausbreitungsbereich des Halls über die gesamte Stereobühne mit wachsendem Abstand Hörer<> Schallquelle ab.
Der Hall wird mit zunehmender Entfernung schmaler, enger und Echoanteile (Delay/Pre-Delay) werden stärker. Insofern findet hierdurch ebenfalls eine Tiefenstaffelung der Effekte statt und wir somit die Möglichkeit haben, Hall entweder vorne oder "irgendwo im Raum" zu platzieren.

Illustration/Bespiele Ausweitungsbereiche (mit dem Stereo-Imager reduzier,- und präzise positionierbar).

Tut Ausweitungsbereiche.jpg


Audiobeispiele:

A)
Eine Person betritt einen Raum. Der klassisch verwendet weite Hall geht breit über die gesamte Stereobühne. Es entsteht der Eindruck, als würde die Person vorne am Eingang in unmittelbarer Nähe zum Zuhörer stehen.


B) Der Hall wurde in seinem Ausweitungsbereich mit dem Stereo-Imager stark begrenzt und etwas rechtslastiger im Raum platziert. Zusätzlich kam eine Prise Echo hinzu.
Es entsteht der Eindruck, als würde die Person irgendwo im Raum unterwegs sein und rufen, aber nicht direkt vorne am Eingang stehen.
Hier ergibt sich ein deutlich hörbarer räumlicher Unterschied zu Demo A und zeigt auf was geschieht, wenn Hall in seinem Ausweitungsbereich begrenzt wird.


C) Und hier noch ein Demo für eine Außenszene, in welcher anstelle von Hall, lediglich Echo verwendet wird und somit der Eindruck eines "Draußen" entsteht.


Hall kann weit und tief klingen, wie beispielsweise in einer Kathedrale.
Grundsätzlich aber- je weiter Hall über die gesamte Stereobühne ragt, entsteht immer der ganz natürliche Eindruck einer räumlichen Begrenzung... was natürlich auch absolut so gewollt sein kann und darf.
Ein dichter, aber sehr kurzer Hall von z.B. 0,3-0,5 Sekunden, wird einen Raum wie z.B. ein Wohnzimmer oder Konferenzraum suggerieren.
Um jedoch Entfernungen zu simulieren, ist es unabdingbar, Ausweitungsbereiche in ihrem Stereofeld zu begrenzen... je stärker begrenzt, um so weiter entfernt wird ein Audio-Element im Mix klingen.
Dies gilt gleichermaßen für Hall als auch für Echo.
☝️Bei einem Echo spielt allerdings noch der Faktor Zeitverzögerung eine ganz wesentliche Rolle, um Entfernungen und Weite zu simulieren !
Je schneller (und klarer) das Echo, um so kürzer die Entfernung. Je mehr Zeit ein Echo braucht (und dumpfer klingt), um so weitläufiger die Umgebung.

Stereo-Imager vs. simples L/R-Pan
Stereoimaging vs Pan.jpg

Platzieren wir ein auslösendes Audio-Event lediglich in ihrem Panorama auf 50% Links und wenden dann einen Stereo-Halleffekt an (siehe Beispiel A), so wird sich der Hall dennoch über die gesamte Stereobühne ausbreiten. Dies kann natürlich so gewollt sein... oder aber auch eben ganz und gar nicht und der Hall nur einen Teil des Raumes einnehmen soll (siehe Beispiel B), um zum Beispiel nur eine "hallige Ecke" eines Raumes zu simulieren, wie z.B. bei einem kleinem Musikkonzert in einer Bar, wofür ein Stereo-Imager zur Raumsimulation gebraucht wird, um Hall und Ausweitungsbereich ganz präzise zu positionieren.
Man kann die Spur, bzw. mit dem darauf liegenden Hall-Effekt auch im Ausweitungsbereich noch stark weiten (siehe Beispiel B auf 137%) und dennoch auf der Bühne in einer Ecke begrenzend platzieren, wodurch sich sehr interessante, separate "Raumeffekte im Raum" erzeugen lassen, wie z.B. eine "hallige Gesprächsecke" im trockenen Raum.
Auch lässt sich der Hall so weit mono-reduziert begrenzen, um ihn in seinem Ausweitungsbereich an einen sehr kleinen, ganz bestimmten Punkt im Raum zu setzen.
Diese "Raumseparierung", so wie gezielte Reduzierung, bzw. Maximierung von Ausweitungsbereichen, ist mit simplen L/R-Panning so nicht möglich.
Zusätzlich lassen sich aber auch in Kombination mit simplen L/R-Panning und Stereo-Imaging interessante Stereo-Effekte erzeugen, wie z.B. das Audio-Element trocken auf der linken Seite tönt, der Effektanteil aber vermehrt auf der rechten Seite zu hören ist. ;)

Routing
Der Stereo-Imager erfolgt i.d.R. als letzte Instanz einer FX-Kette (hier EQ > Reverb > Delay > Imager), um Effekte im Ausweitungsbereich zu reduzieren/maximieren.
Selbstverständlich lässt sich der Imager aber auch an anderer Stelle "irgendwo" dazwischen schalten, um besondere Stereo-Räume zu erzeugen und mit dem Panorama und Effektanteilen zu spielen.
Routing.jpg


Ich hoffe, euch war dieses kleine Tutorial dienlich hilfreich und ihr ein paar Grundlagen der Tiefenstaffelung für atmosphärischer klingende Mix mitnehmen konntet✌️
 
Zuletzt bearbeitet:

MaHe

Glück ist meine Superkraft!
Sprechprobe
Link
Grade genau mein Thema. Bin bei Spookster 2 grade an so einer Szene zugange und da kommen mir deine Tipps seeehr gelegen. Danke dafür! 🤩
Aber lesen und am Ende die richtige Umsetzung, sind bekanntlich zwei verschiedene paar Schuhe.:LOL: Mal sehen, ob ich das so gut hinbekomme. 😁
 

soundjob

HÖRSPIEL MUSIK AUDIO
Sprechprobe
Link
Grade genau mein Thema. Bin bei Spookster 2 grade an so einer Szene zugange und da kommen mir deine Tipps seeehr gelegen. Danke dafür! 🤩
Aber lesen und am Ende die richtige Umsetzung, sind bekanntlich zwei verschiedene paar Schuhe.:LOL: Mal sehen, ob ich das so gut hinbekomme. 😁
Probiern` geht über Studiern` 😊.
Und falsch machen, kann man da eigentlich nichts. Das ist das Tolle... es wird so oder so einen Aha-Effekt geben, selbst wenn man es "falsch" anwenden sollte (y).
 

Strom

What's real can't die
Wollte gerade nochmal nachfragen bzgl. Routing, aber wie ich sehe, hast du das nochmal nachgepflegt(y)
Da ich ja die Reverb Anteile immer über Sends zumische und automatisiere, wollte ich fragen, wie das dann laufen würde.
Aber ich probiere das mal an den Stellen, wo von zb. rechts hinten nach mitte vorne brabbelnd gelatscht wird 😁

An dieser Stelle dann ergänzt: denkt auch daran, das begleitende Getrippel und Klamottengeknusper und etwaige Abwinde des Sprechenden auch mit dem 3D-Movement zu versehen 🤪☝️
 

knilch

Hä? Was heißt das?
An dieser Stelle dann ergänzt: denkt auch daran, das begleitende Getrippel und Klamottengeknusper und etwaige Abwinde des Sprechenden auch mit dem 3D-Movement zu versehen 🤪☝️
Man kann das sinnvollerweise auch gruppieren und dann über einen gemeinsamen Kanal steuern, dann muss man das nicht immer mehrfach machen :)
 

Nee

Mitglied
Sprechprobe
Link
Spannendes Thema und cooles Tutorial.

Ich hab eine Frage zur ersten Grafik: Wieso wird bei A der Bassanteil ebenfalls reduziert - wenn auch nur wenig?
 

Strom

What's real can't die
Man kann das sinnvollerweise auch gruppieren und dann über einen gemeinsamen Kanal steuern, dann muss man das nicht immer mehrfach machen :)
Ja ist ne gute Möglichkeit, dass du dann immer alles 'pro Person/Sprecher' regeln kannst, oder?!

Hatte mich aber früh dazu entschieden lieber alles getrennt zu halten - vermutlich von meiner Art Musik zu mischen übernommen.
Also alle Stimmen auf ner Subgruppe, alles Schritte, alle SFX etc. So kann ich dann nen Vocals UP or DOWN Mix machen - und zb per sidechain die Musik nur durch die Dialoge ducken lassen etc etc.
Organisiere mir im Projekt dann trotzdem immer alles pro Rolle zusammen: Stimme, Schritte, SFX...

So kann ich den Furz dann auch getrennt vom Sprecher weiter hinten im Raum stehen lassen :ROFLMAO:
 

Strom

What's real can't die
Ich hab eine Frage zur ersten Grafik: Wieso wird bei A der Bassanteil ebenfalls reduziert - wenn auch nur wenig?
Da antworte ich einfach mal: bitte IMMER Lowcut/Highpass bei 80 - 100 Hz. Sonst fliegen mir hier auf meinem Subwoofer die Ohren weg.
Ihr glaubt gar nicht, was ich da alles erleiden muss 🤪
Hört man auf regulären Nearfield Monitoren, Kopfhörern oder gar Smartphonespeaker nicht.
 

Lauschecke

Lauschecke
Sprechprobe
Link
TOP, dass du dein fundiertes Wissen weitergibst! Da steckt wieder so viel Know-How drin - haste nicht mal vor als Dozent zu arbeiten?

Ich persönlich liebe ja dieses "kurze" Eintauchen in spezifische Themen. 😇

PS: Bei "Tiefenstaffelung" dachte ich zuerst, dass sich das Tutorial an die Newbies richtet, die zu viel von sich halten (im Sinne von "Stapel mal nicht so hoch oder trag nicht so dick auf") :ROFLMAO:
 

soundjob

HÖRSPIEL MUSIK AUDIO
Sprechprobe
Link
Da ich ja die Reverb Anteile immer über Sends zumische und automatisiere, wollte ich fragen, wie das dann laufen würde.
Man kann das sinnvollerweise auch gruppieren und dann über einen gemeinsamen Kanal steuern, dann muss man das nicht immer mehrfach machen
(Der Einfachheit halber hatte ich hier bei der Grafikerstellung lediglich eine simple Audiospur und die Inserts zur grafischen Darstellung genutzt, damit nicht erst eine zusätzliche Grafik noch mit einem Aux-Weg und Bus dargestellt werden muss... das hätte etwas Verwirrung stiften können, zumal auch viele mit Audacity arbeiten und es hier lediglich einen einzigen Masterbus gibt und daher in Audacity vorzugsweise mit Inserts gearbeitet werden muss).

Das kannst du klassischerweise natürlich auch über den Send-Effekt machen und diverse Räume anlegen...dennoch ist das allerdings nicht das Gleiche und sich ein Insert von einem Send eklatant unterscheidet, gerade bei Panning-Geschichten ☝️
Hier die gleichen Einstellungen jeweils einmal als Insert und einmal als Send:

INSERT FX


SEND FX


Ein Send-FX (AUX) ist immer eine Signal-Kopie, mit starken Anteilen des Direktsignals, was folgende Nachteile mit sich bringt:
- Das Direktsignal im Send ist immer um einige Dezibel summiert lauter, der Effektanteil jedoch leiser. Dementsprechend muss die Lautstärke des Direktsignals stärker abgesenkt werden und der Effekt, bzw. der Send-Anteil wesentlich verstärkt werden.
Das ist jedoch das übliche Verfahren.

Jetzt wird es allerdings komplexer:
- Panning allerdings, insbesondere mit dem Stereo-Imager, ist im Aux-Weg umständlicher und erzielt nicht das gleiche Resultat, bzw. ist die Panning-Arbeitsweise im AUX eine ganz andere und bedarf dann eines zusätzlich kleinen Tricks.
Während wir mit dem Stereo-Imager im INSERT die Position des Effektanteils ganz frei hin und her schwenkend positionieren und Ausweitungsbereiche nach Belieben reduzieren/maximieren können, ohne dabei aber die Pan-Regler des Kanals antasten zu müssen, funktioniert dies im AUX allerdings wiederum nur, wenn dann auch der Pan-Regler des Bus-Kanal entsprechend mitpositioniert wird, um Tiefe oder Positionen zu simulieren.
Der Nachteil der Bus-Geschichte ist zudem, da das Direktsignal immer auch mit auf dem Bus liegt, dass sich Positionen nicht ganz so weit und exakt an den spezifisch gewünschten Punkt verschieben lassen UND das der Effektanteil durch den Pan-Regler gleich unerwünscht mit verschiebt... was bedeutet, dass ein z.B. gewünschter kleiner Restraumanteil, den wir auf einer anderen Seite beibehalten wollen, dann auch mit verschoben wird.
AUX-Mixe klingen in der Regel dann nicht so breit, tief und weit, wie reine Insert-Mixe, was eben daran liegt, dass immer ein (unerwünschter) Direktanteil im Aux liegt und daher stets etwas zentralisiert mittenlastiger klingen (Ja, das ist ein schwer zu erklärendes Thema, was eigentlich ein Video bedarf).
Der Trick von dem ich sprach, um einen Aux-Mix auch breiter zu bekommen (und im Umkehrschluss Ausweitungsbereiche zu reduzieren), ohne dabei permanent ewaige Pan-Regler der Kanalspur zu automatisieren, ist mit einem Mid-Side Enhancer (Sidechain) zu arbeiten und den Aux-Weg etwas aufzuspreizen, bzw. die Mitte etwas leiser zu machen und die Seiten etwas zu verstärken, dann wirkt sich auch ein Stereo-Imager deutlich besser und präziser aus ;)

In der Regel geht es aber mit dem Send-FX über den Aux- und so mache ich schlussendlich ja auch alle meine Mixe, es erfordert aber mehr Fummelarbeit, Finetuning und präzises Leveln der Lautstärken.
 
Zuletzt bearbeitet:

soundjob

HÖRSPIEL MUSIK AUDIO
Sprechprobe
Link
Spannendes Thema und cooles Tutorial.

Ich hab eine Frage zur ersten Grafik: Wieso wird bei A der Bassanteil ebenfalls reduziert - wenn auch nur wenig?
Generell wird kein Sprecher im Frequenzbild völlig unmodifziert bleiben, unabhängig eines Effekts oder nicht ;)
Der erste grundlegende Effekt, der bei jeder Arbeit zum Einsatz kommt ist stets jener, wie Lars schon sagte:
bitte IMMER Lowcut/Highpass bei 80 - 100 Hz
Der Nahbesprechungsbereich wird reduziert, damit die Sprecher im Hörspiel nicht so klingen, als würden diese in einer Entfernung von ca. 5cm immer right in da Face, bzw. mit ihrer Nasenspitze berührend in die Ohren brabbeln. ;)
 
  • Like
Reaktionen: Nee
Oben