DerHarry

Mitglied
Ich habe immer eine Subgruppe für Männer, eine für Frauen und dann eine für alle Sprecher, die von den beiden erstgenannten befüttert wird. Von hier schicke ich AUX-Sends zu etwaigen Effektkanälen mit Hall oder was auch immer. Falls eine spezielle Situation auftritt kommen für diese Szene die Sprecher dann dafür auf eine andere Spur, die dann ihr eigenes Routing bekommt, so dass sie von dem „Normalrouting“ bei mir losgelöst ist.
EQing und Panning läuft bei mir normalerweise auf den einzelnen Spuren (also jeder Sprecher, jedes Geräusch…).
Für Geräusche und Atmos mache ich das eigentlich analog dazu. Ich habe Subgruppen für Geräusche innen und außen, das selbe nochmal für Schritte innen und außen.

Genau so habe ich das im Prinzip auch aufgebaut. Die Sprecher haben Automatisierung für Volume und Panning und können einzeln jeweil Sound Effekte (Samples) z.B: für Knistern einer Jacke, Geräusche beim Gehen etc.

Auf den Mixer eines Sprecher kann ich noch zusätzlich (als Presets wenn nötig) sowas wie ein Telefon oder eine Funkgerät im Helm schalten. Wenn es soetwas für eine Figur gibt, dann ist das immer gleich.

Das mit "Männer" / "Frauen" finde ich eine gute Idee. Das ist am Ende beim Mischen ziemlich cool.

Das mit der eigenen Spur ist auch cool. Ich hab oben mal ein Beispiel aus dem aktuellen John Sincliar Hörspiel genannt. Da ist er gleichzeitig im Dialog und Erzähler - das geht nur getrennt - weil die sich etwas in's Wort fellen.

Das was mich hier etwas stutzig gemacht hat ... das Thema mehrere Räume. Also oben wie ich das in dem Bild versucht habe zu zeigen. Profi Software (ab 700€) setzt dir diesen Reverb mit Mausklick. Ich bin überzeugt ein normaler Convolution Reverb (es gibt gratis irgendwo 5gb samples) kann das auch sehr gut.

Aber: Eine Figur kann in einer Halle stehen und eine andere Figur spricht (versteckt und Leise) hinter einem Auto in der Halle. Das sind dann zwei Raume. Hier hat es mich mit dem Routing Mental zerlegt.

Ich habe das jetzt aber so halbwegs gelöst.


Du hast mit "innen" und "außen" noch was sehr interessantes angesprochen. Hast du von vorneherein gesagt, es gibt neben links und rechts - immer - eine Standartebene die "Entfernung" ausdrück? Es gibt sicher hier eine Ebene, ab der man etwas nicht mehr hört oder ab der man es nicht mehr von "nahe" erkennen kann.
 

WolfsOhr

Mario Wolf
Sprechprobe
Link
Innen und außen habe ich hauptsächlich dafür, dass ich bei einer Innenszene jegliche Geräusche und Atmo einfach runterfahren kann ohne sie komplett zu muten. Denn je nach Gegebenheit hört man drinnen ja auch noch was von draußen.

Wegen der unterschiedlichen Räume: da lege ich dann bei Bedarf wie gesagt den entsprechenen Sprecher für den Part auf eine komplett separate Spur (mit ggf. dem selben Processing wie bei anderen Sprecher-Gruppen) und habe dann dafür eine separate FX-Spur.

Mit Personen weiter weg und so: da mache ich in der Regel nur einen automatisierten Low- und High-Cut. Wenn sich z.B. jemand nähert, dann läuft das langsam von gecuttet zu „clean“. Mit dem Hall mache ich da gar nichts mehr. Ist sicherlich auch gut und spannend, aber das sind die letzten Müs. Ist mir zuviel Zeitaufwand für meiner Meinung nach eher weniger Nutzen. 😅

Und ebenso mit draußen und drinnen: außen halt ein einzige bisschen Low-Cut, innen nicht.
 

Spirit328

Everything - STOP!
Teammitglied
Wir sollten versuchen @Luscinia zu überreden uns Sehenden mal das "reine Hören" beizubringen und wie wir uns mehr auf unser Gehör verlassen können, wenn wir denn besser wüßten wie was klingt.
Das wäre ein echt guter Workshop auf dem IHW. Vielleicht können wir sie doch überreden. ;)

Wie @WolfsOhr schon so richtig sagt, wir sollten uns beim Mischen viel mehr von unseren persönlichen Hörerfahrungen leiten lassen und darauf achten, wie die Umgebung "klingt", wenn wir in Räumen verschiedener Größe sind, in einem U-Bahn Schacht oder auf einer großen Wiese oder im Wald ....
Alles klingt anders und es ist meistens nur eine Frage der persönlichen Wahrnehmung und Achtsamkeit.

Und ja, da stimme ich ihm auch zu. Man kann problemlos unendlich viel Zeit in der Gestaltung der Atmo versenken. Aber meistens lohnt das nicht über das paritätische Prinzip (80:20) hinaus zu gehen. Die Wenigstens hören die Unterschiede. :)
 
G

Gelöschtes Mitglied 8215

@Spirit328 Haha, du hast mich quasi schon überredet. ^^ Ich habe nur nächstes Jahr einen sehr straffen Zeitplan (Ein längerer Erholungsurlaub im Juni, Fibis vierwöchige Einschulung + Gespannsprüfung zum Blindenhund usw), dass ich nicht weiß, ob ich das IHW in diese Zeit reinquetschen kann. Und dann wäre ja noch die Frage, ob es dafür überhaupt genug Interesse gibt, wie ich euch die Fledermausohren der Blinden am Besten näher bringen kann und und und. Ich hab sowas noch nie gemacht. ^^ Aber an sich würde es bestimmt Spaß machen.
Und für diejenigen, die nicht wissen, worüber wir reden: Ich bin blind.
 

DerHarry

Mitglied
Und ja, da stimme ich ihm auch zu. Man kann problemlos unendlich viel Zeit in der Gestaltung der Atmo versenken. Aber meistens lohnt das nicht über das paritätische Prinzip (80:20) hinaus zu gehen. Die Wenigstens hören die Unterschiede. :)

Ich würde gerne - was sehr sehr nettes sagen wollen.

(Bitte nicht falsch verstehen) das ist sehr nett gemeint.

Meine Intention für diesen Beitrag, war es Routing / Templating in einer DAW zu besprechen.

Als Hintergrund bringe ich eine Producer Schule über 15 Monate mit. Ich habe mich richtig ausbilden lassen.

Klar kann man eine "Warum sollte man das tun?" Frage wollen mitdiskutieren - ist aber halt dann eine andere Frage.

Bei 80:20 könnte ich dir nicht mehr zustimmen! Das Template mache ich um mir 80% Zeit zu sparen, weil nur 20% konzeptuell anders sind. @WolfsOhr hat "sein" Template oder sein Vorgehen gefunden. Ich bin in der Experimentierphase aktuell.

Ich höre (mittlerweile) extrem wenn ein Tonstück am Ende nochmal gut gemastered ist. Viele Leien (aber auch einige Profi Sachen) haben nen ziemlich guten Cut und auch die Geräuschkullisse ist ansprechend. Was sehr schlecht gemacht ist, ist das Mastering. Das kann gut nochmal 30-40% des Eindrucks ausmachen.

Jetzt ist aber hierfür die Regel #1 - das Mixen muss passen. Das fängt halt in der Regel mit der Projektorganisation an.

Ich stimme dir auch bei was anderem exrem zu: Für ein Shortie benötigt man das alles nicht. Da reicht ein Audacity mit bisschen links/rechts/laut/leise.

Das ist ein sehr berechtiger Hinweis und es ist wiederrum einfach eine andere Frage.
 

WolfsOhr

Mario Wolf
Sprechprobe
Link
@WolfsOhr hat "sein" Template oder sein Vorgehen gefunden. Ich bin in der Experimentierphase aktuell.
Ha ha, ja, ich habe eine Art Template und verwende das tatsächlich prinzipiell auch für ein neues Projekt, habe also „meinen“ Workflow so mehr oder weniger gefunden, werde aber mit dem Optimieren nie fertig befürchte ich!! 😁 Aber so wird‘s dann auch nicht langweilig, allerdings versuche ich immer wieder Workflowoptimierungen zu finden um Zeit zu sparen, denn ein 2-Stunden-Projekt mit 26 Sprechern frisst Zeit, und jedes gesparte Prozent hilft.
 

Spirit328

Everything - STOP!
Teammitglied
Ich verstehe den Wunsch nach einem Template. Den habe ich auch, wenn auch schon ein, zwei Tage länger als 15 Monate ;)

Ja, es gibt einen gewissen "Standard-Setup" oder "Template".
Doch genau die Unterschiede zwischen den Projekten erfordern es meistens vom Standard abzuweichen, bzw. ihn zu ergänzen. Das ist einfach ein iterativer Prozess.
Ich für mich habe einfach mal angefangen und von da aus immer weiter optimiert und ... wenn er nicht gestorben ist, dann optimiert er noch heute. :D

Klar, macht Sinn sich ein paar Templates für verschiedene DAW Setups zurecht zu legen.
Doch schon bei der Belegung der Kanäle und natürlich des Routings (s. oben) gibt es viele und individuelle Unterschiede.
So arbeite ich z.B. mit Reaper anders als mit Samplitude oder Ardour. Das hat schon alleine darin seine Ursache, daß bei den jeweilgen DAWs Dinge anders gelöst sind oder gewisse Features nicht zur Verfügung stehen oder anders vorteilhafter einzusetzen sind.
Doch es hat sich bewährt ein paar grundlegende Konfigurationen abzulegen. So z.B.: mindestens 8 MONO (!) Spuren für Stimmen. Wenn ich nur aufgenommene Spuren schneiden und mischen möchte, sollte das reichen für eine große Zahl der Anwendungen. Dann mindestens 4 Aux Wege, alle post-fader, für Effekte aller Art.
Dann schon mal 3 Subgruppen und die auf den Master geroutet werden.
Doch dann geht es schon los. In einem Hörspiel kommt es am Ende zum Show-down. Also mal eben alle Sprecherinnen und Sprecher des gesamten Hörspiels in einer Szene.
Dann hat man 19 Stimmen, alle unterschiedlich im Pegel und Dynamik. Die Stimmen müssen im Hörbereich platziert werden. Dann hoffen wir mal, daß es kein halliger Raum ist und das nicht gewisse Gruppen gemeinsam gegen andere Gruppen sprechen.
Und nicht zu vergessen den Erzähler aus dem Off.

Oder im Hörspiel wechseln sich "Kammerspiel" Szenen (2-3 Stimmen) und "Massenszenen" (>20 Leute) ab. Als Challenge kommen dann die Massenszenensprecher*innen gemeinsam in den Raum, in dem die Kammerspiel Szene gerade läuft.

Das Schneiden und Mischen ist die Basis für einen guten Gesamteindruck des Hörspiels. Haken dran.
Doch nun noch die Mastering Engines zu starten ... ich weiß nicht.
Maximale Lautheit und Dynamik sind ja nicht die besten Freunde, besonders im Musikbereich.
Für mich lebt ein Hörspiel von seiner Dynamik und davon gerne viel. So entsteht für mich der realistische Eindruck, den ich an Hörspielen so mag. Eben nicht alles im Dynamik Umfang kontrolliert (solange es nicht übersteuert) und/oder komprimiert.

Wahrscheinlich werden sich bei mir im Laufe der Zeit ein paar mehr Templates für DAW Setups herausbilden, als ich schon habe.
Doch meistens vergesse ich diesen Schritt. Zum einen, weil ich seit ein, zwei Tagen gewohnt bin ein Pult mit VIELEN Kanälen schnell so zu belegen, daß es auch in der Show funktioniert und weil ich dann irgendwann in den Flow komme und es schlicht vergesse aus dem vorhandenen Setup ein Template zu erstellen.
Vielleicht würde es mein Leben leichter machen, aber da ich nicht so wahnsinnig viele Hörspiele gleichzeitig und überhaupt mische, hat sich mir diese Frage so noch nicht gestellt.

Hoffentlich waren doch noch ein paar Anregungen für Dich dabei und wenn es nur die waren, daß gewisse Dinge eben nicht so gut funktionieren. :)
 

DerHarry

Mitglied
Ich verstehe den Wunsch nach einem Template. Den habe ich auch, wenn auch schon ein, zwei Tage länger als 15 Monate ;)

Ja, es gibt einen gewissen "Standard-Setup" oder "Template".

Hier was ich unter Template verstehe.

Midi Template in Ableton (für Musikprojekte):

tpl1-1636389401.png


  • Ich habe immer einen aktiven EQ mit High und Low Cut, weil ich den in 90% der Fällen so brauche.
  • Ich habe immer Compressor, Sidechain Compressor, Chorus und Saturator (inaktiv)
  • Als default Instrument ist da ein Piano drauf
  • Die Mixer liegen normal auf -9db/-12db


Audio Template in Ableton (für Musikprojekte):

tpl2-1636389432.png



  • Ich habe immer einen aktiven EQ mit High und Low Cut, weil ich den in 90% der Fällen so brauche.
  • Ich habe immer Compressor, Sidechain Compressor, Chorus und Saturator (inaktiv)
  • Hinten per Utility kann ich Panning und Volume automatisieren
  • Die Mixer liegen normal auf -9db/-12db

Hier mein FL-Studio Template (für Musikprojekte):

tpl3-1636389798.png


  • Das ist angepasst von In The Mix (findet man über YouTube)
  • Da man hier mit Patterns arbeiten kann, habe ich gleich den Mixer mit aufgebaut.
  • Der Workflow von FL-Studio ist etwas anders: Man muss Midi -> Audio Aufnahmen über einen Mixer machen.

Diese Templates sind weder "Standard" noch bekommst du sie mitgeliefert. Du musst sie selber machen.

Mir helfen sie in 80% der Fälle nur 20% zu tun.


Das ist aber - wie gesagt - eine persönliche Sache der Organisation. Ich kenne sehr viele Musikproduzenten (die 1000000% besser sind wie ich) die ohne Templates arbeiten. Ich kenne genau so viele gute Produzenten die sogar RGB Werte (als Ziffer) für die Farben kennen, die sie verwenden und extrem fuchsig werden, wenn die nicht passen :)

Pro/Contra Template kann und darf man sicher diskutieren @WolfsOhr sagt a auch er macht nen Vorlage für alles was ihm paar Minuten spart.

Für reine Audio/Filmproduktionen habe ich leider noch kein Template, keine Erfahrungen und keine vollstädige Idee. Deshalb die Frage hier.

Sieht aber jetzt ganz gut aus.
 

ROH

Ryan
Ich versucht einiges umzusetzen was Jens hier sagt: Cutterschule (Beispiel): Wie schneidet man ein Hörspiel

Bitte um Feedback / Ideen


Das ist jetzt mal aktuell dort wo ich zur Zeit stehe.

Ich kann gerne die Projektdatei hochladen - bin aber aktuell zu doof dafür.

Ich finde das kommt auf den Sound an - den du am Schluss haben willst. Deswegen - ich finde das schwer da was zu zu sagen.
Soweit ich das sehe - sind wir recht identisch - ich hab nur das Gefühl du gehst davon aus, dass Ding in einem Durch zu schneiden - weil du so viel wert auf die Räume legst.
Das würde ich nicht machen. Sondern eine Szene spielt an einer Location = Raum.
Aus dem einfachen Grund - weil ich in der Regel - mehr Voice-SFX-Spuren brauche - aber vor allem SFX-Spuren.

Du hast da jetzt beim Basement z.B. - soweit ich das sehe - Eine SFX-Spur die auch auf ne Basement - SFX Spur geht?
Du hast aber nachher nicht nur 1 SFX- Spur - du hast da nachher 25. ABER - wie gesagt - kommt auf den Sound an den du willst.
Weil ich bräuchte für Basement mindestens 3 - Basement-SFX-Spuren PLUS die SFX-Spuren. Also sagen wir mal 25.
Wenn ich da jetzt noch nen Garten zu hätte - wären wir schon bei 50 Spuren, mit Dialog ca 60 und da passiert jetzt nix. Das ist jetzt 2 Leute reden im Basement .
Also mein Template ist "identisch" - aber mit dem Fokus auf eine Szene = eine Location.
Es sei denn ich verstehe dein Template falsch. Ich kenn mich mit FL nicht aus.^^
 

DerHarry

Mitglied
Soweit ich das sehe - sind wir recht identisch - ich hab nur das Gefühl du gehst davon aus, dass Ding in einem Durch zu schneiden - weil du so viel wert auf die Räume legst.

Ja zumindest würde ich das gerne Gruppieren, damit es nicht so viele einzelne Dateien werden. Der Fokus auf "Raum" war - ich möchte das später beliebig austauschen können - oder mir sogar für die Räume Vorlagen basteln.

Du hast da jetzt beim Basement z.B. - soweit ich das sehe - Eine SFX-Spur die auch auf ne Basement - SFX Spur geht?
Du hast aber nachher nicht nur 1 SFX- Spur - du hast da nachher 25. ABER - wie gesagt - kommt auf den Sound an den du willst.

Da habe ich auch nocht keine 1000% Lösung.

Idee 1:

- Ich packe mir einen Sampler als Musikinstrument rein. Die SFX lege ich dann jeweils als "Noten" C4, C#4, D4, D#4 ... auf ein Keyboard und spiele die mit Midi an. Kontakt kann das oder der eingebaute DirectWave in FL-Studio. Nachteil - ich bin (noch) zu blöd einzelne Effekte auf einzelne Samples zu legen. Da das aber ein normales Midi Instrument ist, hast du halt Left/Right/Volume ganz normal als Automatisierung.

fl1-1636450740.PNG



Idee 2:

Ich kann FL-Studio als VSt Plugin in FL-Studio verwenden. Die Channels vom "Kind" sind Midi Channel und du spielst wieder Midi - aber diesmal mit allen möglichen Mixer Settings. Kontakt 8/16 ist genau das. Ich bin noch zu doof zum Einstellen. Der Vorteil ist - das ist ne eigene Soundbank inc. gespeicherten Effekten.

(Ggf. geht das so auch mit den Räumen und dann wären Schnitt und Effekte total getrennt und es gibt nur Midi Spuren).

fl1-1636450965.PNG
 

ROH

Ryan
Ja zumindest würde ich das gerne Gruppieren, damit es nicht so viele einzelne Dateien werden. Der Fokus auf "Raum" war - ich möchte das später beliebig austauschen können - oder mir sogar für die Räume Vorlagen basteln.
(...)
Da habe ich auch nocht keine 1000% Lösung.
Idee 1:
(...)
Idee 2:
(...)
(Ggf. geht das so auch mit den Räumen und dann wären Schnitt und Effekte total getrennt und es gibt nur Midi Spuren).

Ja, ich kann mich da nur wiederholen: Das kommt drauf an - was du für nen Sound am Schluss willst.
Ich orientiere mich z.B. am Film-Sound. Das ist nicht 1:1 - weil Film auch im Sound anderen Gesetzmäßigkeiten unterliegt und ich da auch ne eigene Philosophie zu hab - das bedeutet aber im Endeffekt, dass da kaum Automatisierungen drin sind. Ich möchte das nicht weiter ausführen.

Aus Erfahrung kann ich dir nur sagen - um so mehr du im Bereich Sounddesign, wahrnehmbare Sounds, Handlungssounds - damit meine ich keine Gimmiks - sondern Sounds die nicht im Dialog genannt werden, aber die Handlung nach vorne bringen.
z.B. Einer sagt: Kommen Sie.
Auto-Tür auf - Auto-Tür zu. - Ist nicht im Dialog, aber jeder weiß, die sind jetzt in nem Auto.
Um so mehr willst du ein rudimentäres System, mit so wenig Hilfsmitteln wie möglich - was du aufbauschen kannst, wenn du es musst.
WEIL: Selbst wenn du weißt was kommt - es kommen immer Sachen - die kannst du nicht vorraussehen oder hast du keine Kontrolle drüber - und dann machst du es eh zwei Mal.
Und da würde ich nicht nach File-Größe/CPU-Auslastung oder was auch immer gehen. Weil das sieht keiner.
Meine damit: Das hat keinen Einfluss auf das Projekt selbst. Das erfreut dich.^^
Aber da wird keiner am Schluss sagen: He, der Workflow mit den wenigen Files die da das Hörspiel bilden - ist voll easy-going via Midi-Keyboard.
WAS die hören werden ist ob du z.B. Schritte via Drag&Drop, via Keyboard oder einzeln mit der Hand (oder Foley) gemacht hast. Wenn auch nicht bewusst. Und da musst du halt die Entscheidung treffen, was dir wichtig ist.
Also von der Herangehensweise der Erstellung würde ich danach gehen, was du am Schluss auf der Leinwand siehst/Tonspur hörst. Da würde ich mich nicht einschränken wegen File-Size, Spur-Size egal was.
Aber wie gesagt - wenn das dein Ding ist - hau rein. Ich geb dir wirklich nur Erfahungswerte weiter.
 
Oben