• Blut-Tetralogie   Dark Space

DerHarry

Mitglied
Ich versucht einiges umzusetzen was Jens hier sagt: Cutterschule (Beispiel): Wie schneidet man ein Hörspiel


In meiner DAW habe ich mir eine Vorlage für Hörspiele gebastelt. Es ist total anders wie alles was ich bisher mit Musik Produktionen gemacht habe, also war das sehr spannend und neu für mich!

fl-studio-tempate-1636288551.png



Genereller Aufbau

Ich verwende FL-Studio. Man kann das Konzept hier aber auch auf 100+1 andere DAWs übertragen. Es ist mein erster Versuch für ein Template. Ich bin mir deshalb sicher, ich habe Dinge nicht berücksichtig oder falsch gemacht. Manöverkritik gerne erwünscht und hiermit darum gebeten!


Aufbau des Mixers

FL-Studio kann (wie sehr viele DAWs) im Mixer mit Bus Systemen arbeiten. Ein Track wird also nicht wie in Audacity immer auf den Master gemischt, sondern man kann einen Track auf einen zusätzlichen Bus schicken und Sachen in Gruppen abarbeiten.

Der Vorteil ist, Effekte wie z.B. Hall müssen nur über ein einziges Plugin geschickt werden (CPU Nutzung) und man hat flexibilität, z.B. weil man "alle" Stimmen laut/leise schalten kann.


Umsetzung von den Iden von Jens

Ich habe eine generelle Trennung in folgende Bus Systeme vorgenommen (diese gehen dann einzeln auf den Master)

  • Erzähler (der muss immer drüber können)
  • Musik (das läuft auch immer drüber - außer es ist im Raum dann ist es da drin ein Effekt)
  • Raum (der hat Hall, Hintergrundgeräusche, Atmosphäre, Musik auf der Straße ...)
  • Alle Sprecher (die haben eine generelle Lautstärke gegenüber dem Raum in dem sie sind)

Erzähler

Den Erzähler route ich aktuell direkt in den Master. Ich kann mir hier aber vorstellen, dass man noch die eine oder andere Automatisierung oder Side Chaining braucht. In den John Sinclair Hörspielen ist das zum Teil richtig krass. John Sincliar hat eine Dialog Rolle und oben drüber wird er auch nochmal als Erzähler drüber gelegt und zum Teil fallen die sich ins Wort. Ggf. braucht man hier noch den einen oder anderen Trick.

Generell ist es aber so - der Erzähler liegt drüber.

Musik

Eigentlich das Gleiche wie beim Erzähler. Musik (Intro/Extro) liegt auch immer drüber. Es gibt ggf. Musik in einem Raum, der wird in diesem eigenen Bereich dann behandelt.

Raum

Besser gesagt Räume. Ich habe hier mal im Beispiel drei verwendet: Einen Keller, einen Garten und ein Auto.

Wie Jan das so schön sagt, haben Räume eine gennerelle "Eigenschaft" (meist Hall). Ich verwende dafür Convolution Reverb. Das benötigt sehr wenig CPU und es gibt Kostenlose Downloads (4-5GB) an Effekten über "echte" Umgebungen, die gesampelt wurden. Das schöne am Convolution Reverb - es ist nicht nur Hall - es kann auch ein Auto oder eine Café sein, das fast alles an Hall schluckt.

Dann gibt es 1000+1 Sound Effekte., Vögel, Maschinengeräusche, ein Kreuzfahrtschiff in der Ferne, Musik, ...

Als zentrale Eigenschaft: Ein Raum verändert alles was darin gesprochen wird. Er dient als Bühne für die Figuren.

Was mit bei Jans Ausführungen auch besonders gut gefallen hat, Figuren können in Räumen auch total unterschiedliche Perspektiven einnehmen.

Beispiel: Unser Kommisar steht in einem Stadion und redet da auf dem Rasen mit einem Spieler. Jemand der ihn belauscht und mit seinem Begleiter redet, steht am Eingang der Tribüne. Dort "hört" er den Kommisar (aber die Akkustik ist an der Stelle im Station anders wie der Kommisar auf dem Spielfeld). In der technischen Realisierung hätte man zwei Räume: "Raum Stadion" und "Raum Stadion Tribüne".

Wie schaltet man Räume um?

Über eine Automatisierung kann ich einen Raum generell "an" oder generell "aus" schalten. Der Voice Bus (also "alle" Simmen) werden erstmal in alle Räume geroutet. Es ist aber jeweils nur ein Raum zu einem Zeitpunkt aktiviert.



Master
Room Basement (Bus)
<- (from Voice Bus)
Room Basement SFX
Room Garten (Bus)
<- (from Voice Bus)
Room Garten SFX
Room Car (Bus)
<- (from Voice Bus)
Room Car SFX
Narrator (Bus)
Narrator SFX
Music


Sprecher


Sprecher haben alle eine Voice Spur. Hier ist der normalisierte (geschnittene) Dialog der Figuren zu hören.

Jede Figur hat eine eigene Sound Effekt Spur (Jake knittern, Schritte, ...)

Voice und Effekte werden auf den Bus geroutet.

Jetzt kommt der Trick.

Auf jedem Sprecher Bus (Stefan Bus, Namonai Bus, Mike Bus) habe ich jeweils einen "Fruty Balancer" von FL Studio. Das ist ein Knopf mit Links/Rechts und Volume.

Panning und Volume sind jeweils automatisiert. D.h. ich habe unter der Voice Spur direkt die Möglichkeit Sprache und Effekte im "Raum" zu platzieren und das auch optisch im Arrangement wiederzuspiegeln. Durch die Automatisierung ist es auch sehr einfach, dass die Figuren sich "bewegen" also von Rechts nach links gehen.

Ggf. ist zusätzlich noch ein Stereo Widening / Effekt EQ erforderlich, wenn man Figuren "weit in den Hintergrund" setzen möchte. Das wäre eine weitere Automatisierung.

Wichtig! Am Mixer stelle ich also nur die generelle Lautstärke ein und automatisiere über den "Fruty Balancer". Panning und Volume direkt am Mixer automatisieren nimmt später im Mix alle Optionen.


<- (to Voice Bus)
Stefan (Bus)
Stefan Voice
Stefan SFX
Voice (Bus)
<- (to Voice Bus)
Namonai (Bus)
Voice SFX
Namonai Voice
Namonai SFX
<- (to Voice Bus)
Mike (Bus)
Mike Voice
Mike SFX



Bitte um Feedback / Ideen


Das ist jetzt mal aktuell dort wo ich zur Zeit stehe.

Ich kann gerne die Projektdatei hochladen - bin aber aktuell zu doof dafür.
 
Zuletzt bearbeitet:

DerHarry

Mitglied
Ich habe mir auch so "Sprecher Effekte" gebaut.

  • Telefon
  • Helmfunk
  • ...
Die kann ich auch per Automatisierung auf der Sprecher Voice / Bus Spur dazuschalten.
 

Morton Norris

Mitglied
Wenn ich es recht verstanden habe, läuft das Routing der Charaktere so: Charakter > Voice-Bus > Raum. Ich sehe da ein potentielles Problem, falls zwei Charaktere in unterschiedlichen "Räumen" sein müssen. Ich würde auf den Voice-Bus verzichten und jeden Charakter einzeln zu dem gerade benötigten Raum-Bus routen.
 

Dolax

Shorty-Betreuer, Sprecher, Autor & Cutter
Sprechprobe
Link
Ich dachte, es gibt nur einen Raum Bus, der seine Eigenschaften wechseln kann (z.B. Plugins mit verschiedenen Presets on/off switchen)?
 

DerHarry

Mitglied
Wenn ich es recht verstanden habe, läuft das Routing der Charaktere so: Charakter > Voice-Bus > Raum. Ich sehe da ein potentielles Problem, falls zwei Charaktere in unterschiedlichen "Räumen" sein müssen. Ich würde auf den Voice-Bus verzichten und jeden Charakter einzeln zu dem gerade benötigten Raum-Bus routen.

Räume sind entweder aktiv oder nicht aktiv. In meiner Notation 100% Volume auf den Master oder 0% auf den Master. Gelöst über eine Effektspur mit einem Bus Plugin.

Ich kann mir kein Setting vorstellen bei dem eine Figur zum Zeitpunkt T "im Keller" ist und eine andere Figur gleichzeitig zum gleichen Zeitpunkt T "im Auto" ist.

Ich schalte die mit einer Automatisierung "um". Also Keller "ein" und dann aber gleichzeitig Garten oder Auto "aus".

Klar gibt es eine Situation das z.B. Stefan mit Anna telefoniert. Dann kann man sich vorstellen das man "die Perspektive Wechseln will" also Anna ruft Stefan an... Anna ist im Garten... Stefan ist über das Telefon zu hören... dann "build up" ... man hört über das Telefon Schritte -> Szenenwechsel... man Hört jetzt Stefan im "Keller" und Anna über das Telefon und bei Stefan hört man noch weitere Personen (die jetzt im Keller herumgehen).

Das wäre aber T1->T2->T3 unterschiedliche Zeitpunkte und dann geht hier die Volume vom R: Garten runter (auf 0%) und die von R: Basement wieder rauf (auf 100%).

Das coole bei dem Konzept ist - ich kann einfach 10 Räume dazu oder 5 weg machen. Ich speichere mit nur den Effektbus mit weg und fertig ist der "Keller", "Hubschrauber" etc.


Den Voice Bus habe ich gemacht, weil ich über eine Voice Bus Automatisierung ggf. alle Voice Sprachen "leiser" - im Verhältnis zum Raum - machen muss. "Einzeln" muss ich Volume/Panning und sonstige Effekte immer setzen pro Voice können.

Edit: Hier nochmal ne bessere Version von dem Bild. Jeder "Raum" hat einen 0/1 Schalter über 0% - 100% Automatisierung. Bei FL-Studio frisst das (weil "als erstes" in der Effekt Kette) auch nicht unnötig CPU.

fl-studio-tempate-1636306832.png
 
Zuletzt bearbeitet:

Morton Norris

Mitglied
Ich kann mir kein Setting vorstellen bei dem eine Figur zum Zeitpunkt T "im Keller" ist und eine andere Figur gleichzeitig zum gleichen Zeitpunkt T "im Auto" ist.
Selbst wenn sich mehrere Figuren zum selben Zeitpunkt im selben physischen Raum aufhalten, ist deren jeweiliger Klang von der Position im Raum abhängig.
Beispiel: In einem 30qm großen Büro sitzt Figur 1 am Schreibtisch in einer Ecke des Raums. Die imaginäre Position des Hörers ist nahe bei Figur 1, welche leise vor sich hin brabbelt. in der anderen Ecke des Raums schimpft Figur 2 lauthals.
In dieser Situation brauche ich unterschiedliche Hall-Einstellungen. Ich würde dafür zwei verschiedene Busse einrichten und Fig1 und 2 jeweils einem davon zuordnen.
 

DerHarry

Mitglied
In dieser Situation brauche ich unterschiedliche Hall-Einstellungen. Ich würde dafür zwei verschiedene Busse einrichten und Fig1 und 2 jeweils einem davon zuordnen.

Genau das passt physikalisch ja eben nicht. Du kannst - natürlich - auf eine Figur noch Panning/Volume machen oder diese per widening / reverb nochmal speziell "nach hinten" stellen.

Es ist aber nicht "generell" ein anderer Raum für den Zuhörer.

Es gibt das hier: Indoor das ist "perfekt". Es ist eingemessen etc. pp.

Hier wie die ihre "Welt" eingemessen haben.

Angeommen wir definieren die Position vom Hörer jetzt oben im Wohnzimmer mit dem Bärenfell. Wir stehen vorne im Eck und blicken nach Gegenüber in das andere Eck (wo das Micro in dem Bild steht).

Stefan sitzt auf dem Sofa Links, Sandra "schreit" von unten und die Geräusche kommen von der Treppe.
Physikalisch sind wir im Raum Wohnzimmer (Holzraum, Gedämmt durch das Fell, etc.)

Stefan ist links gepant. Sandra ist rechts gepant. (das wird an der Voice Spur als Automatisierung eingestellt)
Sandra ist "leiser" (das wird auch an der Voice Spur als Automatisierung eingestellt). Sie hat noch eigene Effekte drauf. (EQ / Reverb / ..)

In meiner Welt - ist das kein eigener "Raum". Das sind Effekte die Sandra in der Szene benötigt (und dann ggf. nie wieder).

Was für Vorteile hast du, wenn du weitere Räume definierst? Werden die Effekte auf der Sprachspur iwann mal "zu viel"? Ich kann da 10 Stück drauflegen. Die Situationen (so wie hier) das eine Figur sich mit einer über 2 Ettagen unterhält - ja. Sind das so viele?



log2-1636309897.jpg
 

DerHarry

Mitglied
In dieser Situation brauche ich unterschiedliche Hall-Einstellungen. Ich würde dafür zwei verschiedene Busse einrichten und Fig1 und 2 jeweils einem davon zuordnen.

Ja *check* so sind wir zusammen. Du nimmst die Effekte auf einen eigenen Bus und lässt sie nicht am "Stefan Voice" bus - in der Hoffnung du kannst das nochmal verwenden.

Leider hat die Sache so nen Problem. Du kannst das nie so bauen, das du es unabhänig wiederverwenden kannst.

Ich kann (bei FL Studio) das Routing von Mixer Bus nicht automatisieren.
 

DerHarry

Mitglied
Wie wäre folgende Idee?


Ich mache den Voice Bus weg (wie vorgeschlagen).

R: Keller< Stefan Bus, Namonai Bus, Mike Bus
R: Garten< Stefan Bus, Namonai Bus, Mike Bus
R: Auto< Stefan Bus, Namonai Bus, Mike Bus

Den Voice Bus (also die Automatiserung "aller" Lautstärken) kann ich mit einer Midi Automatisierung ggf. machen. Da muss ich aber noch was umbauen.


Zu der Thematik "weiterer Hallraum"

Ich stelle also fest - im Keller brauche ich eine zweite Ebene.

R: Keller (Weit weg)< Stefan Bus, Namonai Bus, Mike Bus
R: Keller< Stefan Bus, Namonai Bus, Mike Bus, R: Keller (Weit weg)
 

Morton Norris

Mitglied
R: Keller< Stefan Bus, Namonai Bus, Mike Bus, R: Keller (Weit weg)
Die Zeile verstehe ich nicht. Wenn beispielsweise Stefan und Namonai im Keller weiter vorne stehen und Mike im Keller weiter hinten, dann sähe die Verteilung so aus:
R: Keller< Stefan Bus, Namonai Bus
R: Keller (Weiter weg)< Mike Bus
 

DerHarry

Mitglied
Die Zeile verstehe ich nicht. Wenn beispielsweise Stefan und Namonai im Keller weiter vorne stehen und Mike im Keller weiter hinten, dann sähe die Verteilung so aus

Dann habe ich die Kernidee leider nicht richtig rübergebracht :(

Ich möchte zu jedem Zeitpunkt - ohne das Routing auf dem Mixer anzufassen oder zu Automatisieren - Figuren in Räume stellen können.

Das kann ich aber nur dann mit Automatisierung machen, wenn die Figuren alle schon auf den Raum geroutet sind.

Also muss - zwingen - Stefand, Namonai und Mike auf dem R: Keller stehen. Ich habe (wie oben in dem Bild steht) auf dem R: Keller eine Automatisierung und ich kann den An oder AU machen. Also Volume 0% = Aus Volume 100% = An. Der R: Keller ist damit als ganzes auf dem Master aktiv oder nicht.

Warum will man das? Weil halt gar keine Figur im Keller ist. Sondern die Figur ist im Auto oder im Garten.

Ein R: Keller (Weiter weg) ohne Routing durch R: Keller macht physikalisch keinen Sinn.
 

DerHarry

Mitglied
So jetzt hatte ich eine Erleuchtung. Das geht leider nur auf ne Kranke Art - die mir nicht gefällt.

Voice BusStefan Bus, Namonai Bus, Mike Bus
Aux Voice BusStefan Bus, Namonai Bus, Mike Bus
R: BasementVoice Bus
R: GardenVoice Bus
R: CarVoice Bus
SR: Basement (Far)Aux Voice Bus

Automatisiert wird jetzt wie folgt.

  • Voice Bus ist grundsätzlich On
  • Aux Voice Bus ist grundsätzlich Off

Szene im Garten:

  • R: Basement Volume Off
  • R: Car Volume Off
  • R: Garden On
=> Damit sind alle Sprecher im Garten. Alle Garten SFX sind zu hören.


Special superduper mega Dingens wo ein Sprecher im Basement (Far) stehen muss.

  • R: Basement Volume On
  • R: Car Volume Off
  • R: Garden Off
Der Sprecher der im Off steht ist dran

  • Voice Bus Off
  • (Damit hört man immer noch die ganzen SFX Effekte vom Basement mit Hall bla bla)
  • Aux Voice Bus On (für die Zeit die der Sprecher auf der Spezialposition steht)

fl-studio-1636326155.PNG
 

Jeln Pueskas

Michael Gerdes
Teammitglied
Sprechprobe
Link
Hiho.

Mein Nickname ist zwar nicht Jens, sondern Jeln aber ich gebe als Urheber der Videos kurz auch noch mal mein Senf dazu. Ich verwende in der Regel keine Busse. Das hängt damit zusammen, das ich am Anfang noch gar nicht weiß, was ich in welcher Situation erreichen will. Ich sehe bei einem Bus immer das Problem der fehlenden "Dynamik" beim Spiel (also nicht die Dynamik bei Kompressoreinsstellungen gemeint).

Für mich läuft der Produktionsweg in mehreren Stufen, da ich immer wieder auch Feedback zu den geschnittenen Szenen bekomme. Das bedeutet für mich, dass ich den Raumhall zwar grob setze, aber die Bewegungsabläufe in den Automatismen erst implementiere, wenn ich für die Szene grünes Licht habe. Was alles einen Raumklang erhält und mit welchen Reglern ich das steuere hängt davon ab, was die Rolle laut Skript tut.

Das Verfahren funktioniert für mich sehr gut, da ich hier schnell Korrekturen vornehmen kann. Es mag sein, dass ich da vielleicht nicht immer die beste Wahl getroffen habe aber das hinterfrage ich im Nachhinein, wenn ich sehe, dass die Methode nicht mehr hilft.

Für ein gut klingendes Hörspiel ist es wichtig, dass die Technik auch gut eingesetzt wird. Allerdings darf man nicht vergessen, dass die Hörerinnen und Hörer meist die Unterschiede überhören. Erst wenn etwas nicht passt, kommt das nicht gut an. Daher versteife ich mich beim Schneiden nicht auf technische Raffinessen.

Aber so mache ich das. Das Tutorial sollte Euch die Wahl lassen, wie ihr das macht. Und es ist gut, wenn Du Dich mit Bussen auseinandersetzt und die Ergebnisse überprüfst. Es hilft vor allem aber auch, wenn Du das Ergebnis deiner Einstellung mal vorstellst, so dass Du Feedback erhälst, ob das hörbare Ergebnis mit dem zusammenpasst, was Du erreichen willst. Oft hat man das Problem, dass man sich an eigene Höreindrücke so stark gewöhnt hat, dass man sie nicht mehr heraushört.
 

DerHarry

Mitglied
Es hilft vor allem aber auch, wenn Du das Ergebnis deiner Einstellung mal vorstellst, so dass Du Feedback erhälst, ob das hörbare Ergebnis mit dem zusammenpasst, was Du erreichen willst. Oft hat man das Problem, dass man sich an eigene Höreindrücke so stark gewöhnt hat, dass man sie nicht mehr heraushört.

Ganz wichtig... ich bau keine "Räume" sondern ein Template. Basement/Car/Garden sind Beispiele dafür.

Thema ist Routing.

Hier mal eine Probe für das Template.

Quellen der SFX/Stimmen

Code:
https://www.hoer-talk.de/threads/mikemalew.33458/
https://www.hoer-talk.de/threads/namonai.29672/
https://www.hoer-talk.de/threads/jan-borden.30813/
https://www.hoer-talk.de/threads/stefan-krombach.34155/
https://freesound.org/

Edit: Nochmal die funktionierende Datei.

 
 
Zuletzt bearbeitet:

Jeln Pueskas

Michael Gerdes
Teammitglied
Sprechprobe
Link
Ich habe mal reingehört, kann da aber noch nicht erkennen, was Du genau erreichen willst, da mir der Kontext fehlt. Also was tun die Rollen gerade, wieso sind sie in den jeweilgen Umgebungen? Welche Bedeutung haben die Geräusche? Davon hängt u.a. ab, ob Dein Verständnis das Gleiche ist, wie das Deiner Hörer. Für mich klingt das noch zu fragmentartig, da die Personen nicht aufeinander eingehen. Aufgefallen ist mir, dass die Frau, die in der Halle läuft auf der Stelle geht. Das wäre für mich erstmal seltsam. Wenn es aber ein Stilmittel ist, um eine surreale Umgebung aufzubauen, passt es wiederum. Das meine ich mit Kontext :)
 

DerHarry

Mitglied
Ich habe mal reingehört, kann da aber noch nicht erkennen, was Du genau erreichen willst, da mir der Kontext fehlt. :)

Ich möchte - ähnlich wie ich es bei meinen Musikproduktionen habe - ein Template bauen.

Es gibt da Dinge die sind "immer gleich" ... sie kommen nicht immer vor, aber ich habe für fast alles was ich 3x machen muss eine Schablone.

Isoliert hier bei der Frage geht es mir um das Thema Routing auf dem Mixer. Das ist das Ziel.

Jeder hat hier einen eigenen Workflow - das ist vollkommen legitim.

ich kenne auch Musikproduzenten, die immer mit einer leeren DAW anfangen. Ich habe mir Templates (und sogar Presets) für fast alles gemacht.


Beispiele bei einer Musik Produktion DAW sind das hier:

Template: youtube.com/watch?v=V5Lj6M1mdmI&list=PLx5i827-FDqPiLPjGxlUv3gjq7uCEVVfl&index=7
Mixer: youtube.com/watch?v=29BAPiVwip0&list=PLx5i827-FDqPiLPjGxlUv3gjq7uCEVVfl&index=17


Das Routing ist das was beim Hörspiel kommplett und vollkommen anders konzeptuell aufzubauen. Deshalb der Thread :)
 

Spirit328

Everything - STOP!
Teammitglied
Ob man jetzt Signale über einen Buss oder Subgruppe oder VCA Gruppe routet ist persönlicher Geschmack und Vorliebe.

Hall ist vom Wesen her komplex und kompliziert.

Beim Hall bzw. Raumeindruck ist für mich die Position der Hörenden ausschlaggebend. Im Umkehrschluß heißt das, daß es mir HERZLICH egal ist, welcher Charakter was wie hört, sofern es nicht für die Geschichte von Relevanz ist.

Hall entsteht durch Laufzeiten, also die Zeit, die ein Schallereignis benötigt um über Reflexionsflächen dem Direktschall hinterher zu kommen.

Also, wenn eine Person weiter weg von der hörenden Person steht, dann kommt nicht nur eine komplexe Schallsituation auf diese Person zu, sondern auch eine klanglich andere, als bei einer Person, die nahe an der Hörenden Person ist.
Dadurch kann man räumliche Tiefe oder auch Tiefenstaffelung erreichen.

Wenn es eine Erzähler Stimme aus dem Off gibt, ist die natürlich "trocken", sprich ohne Hall.
Gibt es mehrere "Off-Stimmen", route ich mir diese auf eine Stereo-Subgruppe und die auf den Master. Fertig!

Nun kann man die Spuren für die Charaktere in einem Raum auf eine Subgruppe legen und aus dieser Subgruppe über einen Aux-Weg Signal abgreifen und in einen Hall schicken und diesen über eine separate Return Spur (Stereo) zurückführen. Den Send steuere ich in aller Regel recht hoch aus, um den virtuellen Raum (Hall-Plugin) entsptechend anzuregen und reduziere am Return das Signal auf die gewünschte Intensität. So habe ich die Kontrolle auf einem Regler und das finde ich praktisch.

Meine bevorzugte Art ist, die Charaktere die sich in demselben Raum befinden auf dieselben Aux Send zu legen. Die jeweiligen Intensitäten, sofern sie unterschiedlich sein sollen kann ich so individuell einstellen und automatisieren, falls erforderlich.

Killip hat mal ein ganz großartiges BEISPIEL gemacht, wie eine Stimme aus dem Raum von hinten links zu der anderen Person herankommt, die sich in der akustischen Mitte vorne befindet. Nach einem kurzen Dialog geht der Charakter nach rechts hinten weg. Das sind alles Mono-Spuren und es ist nicht binaural aufgenommen, sondern alles durch Automation entstanden. Sehr großartig.
Dabei hat er mit mehreren Hallräumen gearbeitet, die über entsprechende Aux-Wege versorgt und über separate Returns automatisiert wurden. Auch den EQ hat er automatisiert. Denn sonst funktioniert das akustisch nicht.

Nun stellt sich die Frage: Lohnt es sich so viel Aufwand zu treiben? Da würde ich in alter Berater Manier antworten: It depends.
Welchen Anspruch willst Du erfüllen?

Die meisten Menschen werden das nicht wirklich bewußt wahrnehmen. Genauer gesagt, sie werden es nicht bewußt wahrnehmen, solange es ihren Hörgewohnheiten nicht zu sehr zuwider läuft. Ein paar Kenner werden die Unterschiede sehr wohl wahrnehmen, aber das sind vielleicht 5-10%.

Man kann einfach etwas "Hall für alle" spendieren und schon wird es einigermaßen räumlich, doch wenn Du Dir die Mühe machst, es auch entsprechend zu EQen, wird es halt realistischer und das kann der Geschichte etwas Besonderes geben.

Ob Du nun den Hall über Subgruppen oder Aux-Busse einbringst, ist Deiner persönlichen Vorliebe überlassen.
Ich würde jedoch das Verhältnis von Direkt-Signal und Hall-Signal NICHT im Hall-Plugin regeln. Da verliert man schnell den Überblick und dann hört es sich schnell merkwürdig an.
Und das Direkt-Signal ist wichtig und sollte direkt oder über Subgruppen auf dem Master hörbar sein. Egal wie man das mit dem Hall umsetzt, das Direkt-Signal ist immer zu hören. Ist es nicht zu hören, sondern nur der Hall, ist das ein Bruch mit den Hörgewohnheiten der Hörenden. Das kann man als Effekt nutzen, doch das würde ich sehr wohl dosiert und nicht zu oft einsetzen.

Doch für einen Shorty würde es mir reichen, die Stimmen, die in einem halligen Raum oder überhaupt einem Raum stehen, über einen Aux-Bus auszukoppeln, den Hall "heiß", also mit maximalen Pegel anzufahren und den Return so einzustellen, daß der gewünschte Raumeindruck entsteht.
Aber auch hier. Es hängt von Deinen Ansprüchen ab.

Bei einem aufwendigerem Hörspiel würde ich mir klar machen, wo die Personen stehen sollen, wie sie durch die Story im Raum bewegt werden und mir vorstellen, wo die Hörenden sich befinden.
Denn so kann man die Hörenden in die Geschichte "hineinziehen", weil Ihr Gehör ihnen sagt: Du bist dabei, Du stehst in diesem Raum, Du hörst, wie der Charakter A auf Charakter B zu stürmt und sie eine dufte Hauerei haben.

... und jede Szene verdient ihren eigenen Raum, so wie Off-Erzähler am besten "trocken" sind. Dann haben es die Hörenden leichter die unterschiedlichen Teile leichter zu unterscheiden.

Aber häufig sind nur ein paar Stimmen (4-10) in einem Raum. Dann mache ich mir meistens nicht die Mühe mit einem Routing über Subgruppen, es sei denn es ist wichtig, daß die Verhältnisse einiger Stimme zueinander fest bleiben soll, sie aber in diesem festen Verhältnis lauter und leiser werden. Da ist eine Subgruppe einfach praktisch.

Wenn ich mir nicht sofort klar darüber bin, wie eine Szene funktioniert, dann probiere ich einfach ein, zwei Versionen aus und höre sie mir einfach an. Dabei lasse ich mich von meinen Hörgewohnheiten leiten. Ist es realistisch, daß zwei Personen, die in einer großen fast leeren Lagerhalle keinen hörbaren Raum um sich herum haben? SIcherlich nicht.
Aber wie klingt der Raum, wenn sie sehr leise sprechen? Wie wenn einer schreit oder um Hilfe ruft und wie klingt der Schuß, der abgegeben wird?
Der Raum ist und bleibt derselbe. Also dasselbe Hall-Programm. Aber wenn die Stimmen leiser sind, weil sie raunen oder flüstern, wird der Raum kaum bis sehr, sehr wenig angeregt. Schreit einer, hört man das Echo, wie auch die kurzen Reflexionen.
Ein Schuß hingegen, ist nicht nur laut, sondern auch sehr kurz. Man hört also Direkt-Schall. Dann die erste Reflexion an der nächsten Wand, bzw. Boden, bzw. Decke.
Da es immer noch derselbe Raum ist, würde ich hier immer dasselbe Hallprogramm verwenden, aber durch die Auskopplung über die Aux (Post Fader versteht sich) Wege, die Lautstärke der Stimme entsprechend zum Raum regulieren.
Über den Return des Halls, kann man dann den hörbaren Raumanteil nahezu stufenlos regulieren.

Just my 2 cents.
 
Zuletzt bearbeitet:

MonacoSteve

Dipl.-Lachfalter - und nicht ganz Dichter
Teammitglied
Boah, wenn ich Euch Profis hier so diskutieren erlebe, wird mir eigentlich erst so richtig klar, wie wenig ich von all dem verstehe. Ich bräuchte wahrscheinlich ein zweites Leben, um halbwegs zu durchdringen, was man tontechnisch alles kann (und vielleicht sogar können müsste), um die richtig guten Ergebnisse zu erzielen.

Naiv genug war ich zum Glück immerhin, mich einfach mal völlig intuitiv in dieses Business zu stürzen - und das eine oder andere halt "by doing" zu lernen. Trotzdem habe ich das Gefühl, dabei grade mal an der Oberfläche über einem Tiefsee-Graben zu schwimmen...

Bei all dem finde ich allerdings auch noch eine Aussage wichtig, die hier jetzt auch schon mehrfach gemacht worden ist, nämlich die Frage, was ein Hörer am Ende tatsächlich noch an Feinheiten heraushören kann. Klar ist das zu differenzieren - welche Hörgewohnheiten/ -Erfahrungen hat jemand schon, und welche technisches Setup steht für das Hören zu Verfügung. Aber dem Gros derer, die man erreichen kann und will, geht es wahrscheinlich wie mir selber: im Zentrum von allem steht an Ende stets die Story; die muss nachvollziehbar und verständlich sein, und auch unvermeidliches kurzes "Abgleiten" in der Konzentration des Rezipienten aushalten. Sonst verliert man seine Kunden vermutlich während des Hörprozesses, auch wenn der Sound Königsklasse ist.
 

WolfsOhr

Mario Wolf
Sprechprobe
Link
Interessanterweise halte ich das genauso wie @Spirit328 schreibt.

Ich habe immer eine Subgruppe für Männer, eine für Frauen und dann eine für alle Sprecher, die von den beiden erstgenannten befüttert wird. Von hier schicke ich AUX-Sends zu etwaigen Effektkanälen mit Hall oder was auch immer. Falls eine spezielle Situation auftritt kommen für diese Szene die Sprecher dann dafür auf eine andere Spur, die dann ihr eigenes Routing bekommt, so dass sie von dem „Normalrouting“ bei mir losgelöst ist.
EQing und Panning läuft bei mir normalerweise auf den einzelnen Spuren (also jeder Sprecher, jedes Geräusch…).
Für Geräusche und Atmos mache ich das eigentlich analog dazu. Ich habe Subgruppen für Geräusche innen und außen, das selbe nochmal für Schritte innen und außen.

Und dann kommt man zum Punkt von @MonacoSteve: was kommt beim Hörer an und was braucht es erstmal um das zu erreichen, und wieviel ist dann meine eigene Spielerei?
Ich meine die wichtigsten Punkte sind:
1. Die Story muss gut und die Dialoge gut geschrieben sein.
2. Die Sprecher müssen gut performen.
Damit hat man dann meiner Meinung nach 70% abgedeckt.
3. Die wichtigsten Geräusche müssen vorhanden und gut gesetzt sein (z.B. Panning und EQing übereinstimmend mit Stimme). Läuft zum Beispiel jemand normal mit Schuhen durch eine leere Betonhalle, dann müssen da Schritte sein und diese mit entsprechendem Hall versehen sein. Ohne Schritte fehlt einfach was. Außerdem müssen Schritte wirklich nach Schritten klingen und im richtigen Tempo sein.
4. Gute Atmo und Musik, harmonisch gesetzt.

Damit hast du für den Hörspiel-Hörer 99%. Alle weiteren Details, die weitere 30% der Arbeitszeit ausmachen implementieren wir mur für Freaks und vor allem uns selber. Ja, das macht auch mir Spaß, ich kann mich auch in Derails verlieben, aber das ist immer nur ein erstmal vom Grundsatz her unnötiges i-Tüpfelchen. Den Hörer erreichst du hauptsächlich mit den grundlegenden Dingen.

My 2 ct.
 
Hoerspielprojekt.de

Neu

Discord
Oben