Marco Ansing

Autor und Sprecher
Hallo zusammen,
ich habe viele schöne Tutorials im Forum gefunden, aber keines für Cutter.
Habt Ihr nützliche Tipps?
Zum BeispieL.
- Schneiden: Was sollte man wegschneiden, sind Atmer gut oder schlecht. Sollte man kleinere Pausen auch herausschneiden und damit den Take verkürzen?
- Dialog: Wie eng schiebt man einzelne Dialoge und sollte ein Charakter dem anderen ins Wort fallen, wie eng wird es dann da?
- Sollte man die Anwesenheit anderer Charaktere nicht hören, auch wenn sie gerade nicht sprechen, Beispiel: "Also ich finde den Baum schön und das sage ich nicht einfach so". Bei "schön" könnte ein Charakter während der andere noch weiter spricht "Ja stimmt" sagen.
- Effekte: Wie man eine Dämonenstimme oder Chipmunks erzeugt, steht ja im Forum, wie ist es aber bei Computerstimmen, Robotern, etc.
- Wann lohnt es sich eine Stimme tiefer, höher, langsamer oder schneller zu machen?
- Einspielen von Musik und natürlich das Ausblenden, ...

Ich rede nicht von den Funktionen (die findet jeder in seinem Programm), ich meine vielmehr die Nutzung all dieser Punkte. Ihr erfahrenen Hörspielmacher da draußen, habt Ihr Tipps zu dem da oben oder weiteren Dingen?

In diesem Sinne,
Euer Grisbert
 

bob7

__________________
Hallo Grisbert, das ist alles unter "künstlerische Freiheit" zu verbuchen und völlig Dir überlassen. Anbei meine folgerichtig subjektiven Antwortversuche:

[quote author=Grisbert]
- Schneiden: Was sollte man wegschneiden, sind Atmer gut oder schlecht. Sollte man kleinere Pausen auch herausschneiden und damit den Take verkürzen?
[/quote]
Atmer und Pausen die zur Rolle und zum Spiel des Sprechers gehören, drinlassen. Private Atmer oder unpassende Lücken wegschneiden. Auf Lebendigkeit und Details achten.

- Dialog: Wie eng schiebt man einzelne Dialoge und sollte ein Charakter dem anderen ins Wort fallen, wie eng wird es dann da?
Nach Gefühl und Situation

- Sollte man die Anwesenheit anderer Charaktere nicht hören, auch wenn sie gerade nicht sprechen, Beispiel: "Also ich finde den Baum schön und das sage ich nicht einfach so". Bei "schön" könnte ein Charakter während der andere noch weiter spricht "Ja stimmt" sagen.
Ja stimmt ;) muss nur möglichst echt klingen. Zustimmende Laute wie "Mhm" oder so sind da auch sehr gut für geeignet.

- Effekte: Wie man eine Dämonenstimme oder Chipmunks erzeugt, steht ja im Forum, wie ist es aber bei Computerstimmen, Robotern, etc.
Spiele mit Deinem Soundeditor rum. Mit Chorus und EQ wirst Du schnell zu ordentlichen Verfremdungen kommen.
- Wann lohnt es sich eine Stimme tiefer, höher, langsamer oder schneller zu machen?
Ganz ganz SELTEN. Es sei denn es handelt sich um Serviceroboter oder Aliens. Ansonsten sind die meisten Verfremdungen von den Zuhörern unterschwellig als solche zu erkennen und wirken im Unterbewußtsein "fremd" und "irgendwie doof".
- Einspielen von Musik und natürlich das Ausblenden, ...
Das ist totale Gefühlssache. Ich finde es schön, mit Überlappungen zu arbeiten.
 

Searge

Space-Opera ist ein musss!
Sprechprobe
Link
Tja, dem gibt es kaum etwas hinzuzufügen. Es muß für dein Ohr ein harmonisches Gesamtbild ergeben, dann stimmt es. Und da hilft tatsächlich nur Üben.
 

Marco Ansing

Autor und Sprecher
Vielen Dank für die Anworten! :D

[quote author=bob link=topic=1317.msg9466#msg9466 date=1215596630]
Mit Chorus und EQ wirst Du schnell zu ordentlichen Verfremdungen kommen.
[/quote]
Das sind Tools im Programm, wa? EQ = Equalizer?

Und zur Verstellung der Stimme:
Nehmen wir an Hans spricht einen Orc. Hans hat aber eine junge Stimme (sagen wir er ist 20, klingt aber nicht wie ein Orc), dann darf man doch mal die Stimme tiefer stellen, oder sollte Hans lieber vor dem Mikro versuchen "tief" zu sprechen?
 

Thuda Dragon

Admin in Pension
Teammitglied
Ich würde mir auch überlegen ob Hans die richtige Stimme für den Orc ist. Also da schon bei der Verteilung achten die Rollen gut zu verteilen. Gewollt "tief" zu sprechen kann auch schnell unentspannt und gestellt klingen und wirkt dann nur noch albern. Ansonsten geht ein Orc in gewisser Weise als "Alien" durch. ;) Darum könntest Du dann natürlich auch die Stimme nachträglich verfremden.
 

bob7

__________________
Ja, sorry. Equalizer und Chorus sind eigentlich in jedem Schnittprogramm verfügbare Effekte.
Du darfst alles was Du willst! Ich bin aber nicht ganz Thudas Meinung. Die Wahrnehmung beim Zuhörer (zumindest im Unterbewußtsein) bleibt bei Verfremdungen die von mir beschriebene. Das Unterbewußtsein des Zuhörers ist da nicht zu unterschätzen und meistens auch nicht zu "betrügen". Der Zuhörer wird Dir nicht direkt sagen können, was er konkret nicht mochte aber er wird es tendenziell "irgendwie nicht mögen"... und es macht mehr Spaß wenn der Sprecher seine Stimme selber verstellt.
 

Thuda Dragon

Admin in Pension
Teammitglied
Ich denke ich würde mich da von meinem Gefühl leiten lassen. Aber es stimmt schon, das Unterbewußtsein des Hörers ist nicht zu unterschätzen. Und ich würde bei Unsicherheiten auch empfehlen einfach mal jemanden "gegenhören" zu lassen. Mir persönlich fällt es manchmal auch schwer nach dem x-ten mal durchören ganz klar zu sagen "Der Effekt ist gut" oder nicht.
Bestes Beispiel ist hier auch das Vista-Kurzhörspiel. Nach meinem Empfinden war der Effekt auf der Stimme des Assistenten in Ordnung. Mit ein paar Tagen abstand finde ich ihn zu heftig. Und die Reaktionen darauf sind ebenso ausgefallen.
 

bob7

__________________
Jo! Ich finde "Effekte" sind auch noch was anderes als Verfremdungen:
Verfremdungen=
-Zeitkorrekturen innerhalb des Wortes/Takes. (also nicht das herausschneiden von Pausen und/oder Atmern)
-Höher/Tieferstellen der Stimmlage (Selbst Stimmen die "in echt" mit Helium verstellt sind klingen anders und echter als mit Tonhöhenkorrektur).

Effekte=
Hall, Echo, Chorus, EQ
 

Diabsi

Helmut Buschbeck
Sprechprobe
Link
Eine für mich interessante Thematik. Es ist nun mal so, dass jeder im Leben einnmal etwas zum ersten mal hört. So ist es mir hier schön öfter gegangen. Bei dem was ich selbst gemacht habe bin ich immer davon ausgegangen wie es bei mir ankommt. Ich denke fast soviel Ansichten wie die Anzahl der Hörer eines Hörspieles wird es geben. Für mich ist es gar keine Frage, dass die Erfahrungen eines Cutter ganz entscheident sind um ein gutes Horspiel zu fertigen.
Es sei mir hier noch eine Frage gestattet. Wie wird praktisch das Angleichen der Lautstärke gemacht und wie bekomme ich es in die Reihe die unterschiedlich eingesetzten Aufnahmegeräte in eine annähernde einheitlich gute Qualität zu bekommen.
 

bob7

__________________
[quote author=Diabsi link=topic=1317.msg10354#msg10354 date=1216749878]
Es sei mir hier noch eine Frage gestattet. Wie wird praktisch das Angleichen der Lautstärke gemacht und wie bekomme ich es in die Reihe die unterschiedlich eingesetzten Aufnahmegeräte in eine annähernde einheitlich gute Qualität zu bekommen.
[/quote]
Hallo Diabsi. Mit welchen Programmen machts Du denn Schnitt und Bearbeitung?

Grundsätzlich kann man in dem Schnittprogramm die jeweiligen Einzeltakes von der Lautstärke her anpassen.

Wenn das nicht ausreicht, musst Du die Datei in Audacity lauter machen: Die Datei gesamt oder teilweise markieren (Strg+A). Dann folgendes auswählen: (Menüleiste) Effekt, Verstärken - Dort dann mit dem Schieberegler den Grad der Verstärkung festlegen, probehören und bei Gefallen mit "OK" anwenden. Die Datei dann am besten unter neuem Namen speichern, damit Du die Originaldatei noch unbearbeitet hast, falls Du doch noch mal von vorne beginnen möchtest.


Eine einheitliche Qualität orientiert sich immer an der schlechtesten Qualität. Versuche die Aufnahmen mit der schlechtesten Qualität zu entrauschen und mithilfe von Equalizereinstellungen (probieren, probieren, probieren!) so hinzukriegen, dass sie einigermaßen gut klingen. Versuche dann, alle anderen Aufnahmen mithilfe von Equalizereinstellungen ähnlich klingen zu lassen.
Den Rauschentferner findest Du bei Audacity unter: (Menüleiste) Effekt, Rauschentfernung.
Den Equalizer (englisch: to equalize=angleichen, equal=gleich) findest Du bei Audacity hier: (Menüleiste) Effekt, Equalizer.
Das Prinzip ist dann das gleiche wie beim "Verstärken", also vorher unbedingt die Datei gesamt oder teilweise markieren (Strg+A), Probehören und bei Gefallen "OK" drücken und die Datei dann am besten neu speichern.

Und nicht verzweifeln und bedenke, dass es sich dabei normalerweise um einen Ausbildungsberuf handelt und man von sich nicht verlangen kann, das von heute auf morgen zu beherrschen!
Ganz liebe Grüße und viel Spaß beim Ausprobieren!
 

bob7

__________________
[quote author=Searge link=topic=1317.msg10361#msg10361 date=1216757050]
Hallo Bob, meinst du mit Verstärken Normalisieren?
[/quote]
Sir Searge Sir! Nein Sir! Ich meine "Verstärken" zum reinen "Lauter-Machen". Normalisieren kann manchmal zuviel sein, gerade bei unterschiedlichen Qualitäten, geht aber natürlich auch. ;)
 

Searge

Space-Opera ist ein musss!
Sprechprobe
Link
Hm... da muß ich doch mal schauen. In Evermind hab ich nämlich auch unterschiedliche Lautstärken, nur das ich das dort immer mit Normalisieren angleiche.
 

Markus Haacke

alias Doc Markuse
Normalisieren ist doch eigentlich nur eine Art von Verstärken (Lautstärke) - nur eben auf einen definierten Pegel. Man sagt z.B. verstärke mir das Signal auf einen Maximalwert von 90 %. Bei einer reinen Verstärkung gibts Du an, um wieviel Prozent (oder welchen Faktor) das Signal verstärkt werden soll.

Also beides irgenwie das gleiche, nur die Angabe des Parameters wird anders interpretiert.
 

bob7

__________________
Na ja, beim Normalisieren wird versucht den Pegel an einen Maximalwert anzugleichen, also vereinfacht gesagt, die leisen Passagen lauter zu machen und die lauten Passagen zu belassen wie sie sind. Das kann zu Lasten der Dynamik gehen und unnatürlich klingen. (Wie bei einem zu kräftigen Kompressor).

Punkt 2: Wenn die Sprecher unterschiedliche Entfernungen zum Mikrofon hatten, bei der Aufnahme, jedoch alles "gleichlaut" normalisiert wird, kann auch das unnatürlich klingen.

Aber für schnelles Angleichen von einigermaßen guten und dynamisch gleichmäßigen Aufnahmen ist "Normalisieren" natürlich gut geeingnet.

Und das sind auch nur meine Erfahrungen, ich bin da wahrlich auch kein Tonmeister ;)
 

Markus Haacke

alias Doc Markuse
[quote author=bob link=topic=1317.msg10379#msg10379 date=1216794052]
Na ja, beim Normalisieren wird versucht den Pegel an einen Maximalwert anzugleichen, also vereinfacht gesagt, die leisen Passagen lauter zu machen und die lauten Passagen zu belassen wie sie sind. Das kann zu Lasten der Dynamik gehen und unnatürlich klingen. (Wie bei einem zu kräftigen Kompressor).[/quote]

Deine Erklärung kingt in der Tat nach Kompressor.
Aber: Wie meine Erfahrung zeigt, kann eine Wave mit ursprünglich 50% Maximalausschlag durch den Befehl "Normalisieren auf 95%" auf genau 95% Maximalauschlag angehoben werden. Zumndest macht CoolEdit das so. Und wie ich durch visuellen Vergleich der Waveform erkennen kann, scheint diese Lautstärkenanhebung liniear durchgeführt zu werden, sowohl bei leisen, als auch bei lauten Stellen (im Gegensatz zu einem Kompressor).

Entweder ist die Funktion falsch benannt oder Du meinst ein anderes Normalisieren.

Gruß Markus
 

Marco Ansing

Autor und Sprecher
[quote author=bob link=topic=1317.msg10379#msg10379 date=1216794052]
Na ja, beim Normalisieren wird versucht den Pegel an einen Maximalwert anzugleichen, also vereinfacht gesagt, die leisen Passagen lauter zu machen und die lauten Passagen zu belassen wie sie sind. Das kann zu Lasten der Dynamik gehen und unnatürlich klingen. (Wie bei einem zu kräftigen Kompressor).

Punkt 2: Wenn die Sprecher unterschiedliche Entfernungen zum Mikrofon hatten, bei der Aufnahme, jedoch alles "gleichlaut" normalisiert wird, kann auch das unnatürlich klingen.

Aber für schnelles Angleichen von einigermaßen guten und dynamisch gleichmäßigen Aufnahmen ist "Normalisieren" natürlich gut geeingnet.

Und das sind auch nur meine Erfahrungen, ich bin da wahrlich auch kein Tonmeister ;)
[/quote]

Also wenn ich das richtig verstanden habe, dann ist "Normalisieren" ein Fauxpas hier im Hörspielprojekt, weil wir ja alle verschiedenes Equippment haben und verschieden einsprechen. Normalisieren kann nur verwendet werden, wenn alle am selben Gerät im selben Abstand gesprochen haben und dann könnte man die Lautstärken anpassen, oder?

Das interessiert mich nämlich brennend, da ich gerade dabei bin ein Hörspiel zu cutten und mit verschiedenen Lautstärken zu kämpfen habe.
 
(Klugscheißer-Modus an)
Der Herr Doktor hat recht glaube ich. Die Normalisierung orientiert sich aber an dem lautesten Peak (Signalspitze) und ist linear (anheben der Globalen Lautstarke bis 0dB zB). Das Verhältnis zwischen lauten und leisen Passagen ändert sich also nicht. 'Verstärken' umgeht die Anhebung des Maximalpegels das heißt man kann auch ÜBER 0 dB verstärken das ergibt tolle Verzerrungen in den Signalspitzen (ebenfalls linear) ;D
Eine dynamische Reduktion der Pegel macht man mit einem Kompressor.
Siehe auch http://www.echochamber.ch/ unter Tipps & Tricks

Anfänger machen mit einem Kompressor meistens ein Fauxpas!
(Klugscheißer-Modus aus) ;)

LG, Badda
 
Oben