• Blut-Tetralogie   Dark Space

jam

Absolut
Sprechprobe
Link
Ich zum Beispiel erhebe bei meinen Cuts nicht den Anspruch, dass alles absolut physikalisch akkustisch korrekt sein muss und so etwas sollte hier im Forum auch auf keinen Fall als Maßstab für die Qualität eines Hörspiels benutzt werden.

@Ellerbrok : Aus der Summe der Posts in diesem Thread wird auch deutlich, daß es darum gar nicht geht. Hier wurde anhand eines Stück Effekts, das man in Reaper einbinden kann, gezeigt, wie sich eine solche Formel, als Spielerei, auf den Klang auswirkt. Und wer Lust hat, kann damit herumspielen, und der Rest eben nicht. Akustisch korrekt ist das alles sowieso nicht. Es geht nur um Bezugssysteme, damit so etwas wie Tiefenwahrnehmung für einen Zuhörer nachvollziehbar ist, wenn man es dann einbauen möchte.

Man reckt bei so etwas so schnell den moralischen Zeigefinger in die Höhe, daß so etwas kein Maßstab werden soll - sagt auch keiner. Gebt diesem Thread also bitte nicht diese Drift, denn dann hat er seinen Sinn verfehlt.:)
 

Corlanus

Cutter - zur Zeit in Auszeit
@jam: Ich habe jetzt mal ein wenig mit Deinem Script experimentiert und nachgemessen, was es überhaupt macht. Dazu habe ich erst mal in der DAW meines Vertrauens zwei Spuren mit Rosa Rauschen eingerichtet. (allgemeine Info: Beim Rosa Rauschen sind die Frequenzen relativ gleichmässig über das ganze Spektrum verteilt.) Die Zweite Spur habe ich mit Deinem Script "AirAbsorb" bearbeitet. Abschliessend habe ich beide Frequenzspektren in einem Analyzer übereinandergelegt (siehe Bild). Der schwarze Bereich ist das unbearbeitete Rauschen und der rote das mit "AirAbsorb" gefilterte. Im Script habe ich als einzigen Parameter die Entfernung verändert (auf 1000m). Den Messbereich habe rein Interessenshalber auf maximal (-200dB) gestellt. Um zu sehen, wie sich die Filterkurve insgesamt verhält.

"Mathematik oder Intuition", das war in meinem letzten Post ja die Frage:
"AirAbsorb" erzeugt bei mir jetzt nicht wirklich den Eindruck von Entfernung. Das liegt unter anderem daran, dass bei dem Script mit steigender Entfernung die Lautstärke immer gleich bleibt. Im Bassbereich tut sich beim "Entfernen" auch nix, wie man sieht. Bei meinem Beispiel vom IHWCutterWorkshop habe ich die Entfernung nur mit Manipulationen im Bass-Bereich simuliert. Die Höhen habe ich da nahezu unangetastet gelassen. Meine Wahl ist daher "Intuition" ;)
AirAbsorb_1000m_Frequenzverlauf-1444489954.png
 
  • Like
Reaktionen: jam

jam

Absolut
Sprechprobe
Link
@Corlanus : Cool, daß du dir die Mühe gemacht hast, das mal durchzumessen. Allerdings verwundert mich das Ergebnis jetzt nicht wirklich:

Ist nicht spektakulär, soll aber nur das Prinzip verdeutlichen. [...] Entfernungsabschwächung, etc. ist dabei aber noch nicht angewendet.

:)

Für einen Vergleich hätte ich eher gedacht, du versuchst ein Geräusch wie dieses hier:

 

mal so klingen zu lassen, als wäre es 5 Kilometer entfernt, zunächst nach eigenem Gefühl und dann mit dem Lowpassfilter-Skript, das ich im ersten Post angehängt hatte.:)

Ich habe das mal gemacht:

 

Den Regen in diesem Beispiel habe ich natürlich dazugemischt, damit die Relationen erhalten bleiben, weil der ursprüngliche Regen ja dem Lowpass-Filter zu Opfer gefallen ist.


Und um das nochmal zu betonen: es handelt sich hier nur um eine Spielerei, um zu sehen, inwieweit Mathematik mit der eigenen Hörwahrnehmung überprüfbar ist. Jedes Stück Mathematik deckt immer nur einen Teilaspekt ab (hier war es die Trägheit der Luftmoleküle nach einer Anregung durch Schall). Welches Stück Mathe man in Form eines geeigneten Effekts zur Anwendung bringt, entscheidet die Intuition. Denn es kann ziemlich fummelig werden, wenn man in einer Szene z.B. mit vielen Bewegungen die klanglichen Relationen immer von Hand einstellen muß. Und da ich von Natur aus faul bin, habe ich mir verschiedene Effekt-Skripte, wie das hier angewendete, erstellt.

Und noch ein weiterer Hinweis: Corlanus, du hast mehr an Entfernungswahrnehmungen im Nahbereich, im Sinne einer gesamtheitlichen Lösung, gedacht. Dafür gibt es andere Mittel und Wege (Effekte), insbesondere die Berücksichtigung von klanglichen Effekten, die gerade bei inhomogenen Geräuschen wie der menschlichen Stimme schon im Nahbereich auftreten.

Ich wiederhole also nochmal: das Beispiel verdeutlicht, wie man eine DAW mit maßgeschneiderten Effekten zu ganz speziellen Aufgaben überreden kann. Keinesfalls stelle ich hier eine gesamtheitliche oder mandatorische Lösung vor. Ich finde es aber sehr spannend, inwieweit das menschliche Ohr, und somit das Gehirn, in der Lage ist, sich im Rahmen von Bezugssystemen zu orientieren, egal, ob dieses Bezugssystem die Realität widerspiegelt oder nicht.
 

Corlanus

Cutter - zur Zeit in Auszeit
Verda**t, das mit der Entfernungsabschwächung habe ich glatt überlesen:confused: Das Rauschen war übrigens nicht das einzige getestete Geräusch. Aber ein Monolog taugt nun mal nicht zum vermessen eines Frequenzspektrums.
5km Entfernung würde ich übrigens simulieren, indem ich die Lautstärke auf 0 drehe:D
Aber Spass beiseite - Im meinem Workshop und dem kommenden Tutorial geht es mir nicht um weit entfernte Geräuschquellen, sondern um entfernt sprechende Menschen.

Zur Verdeutlichung hier mal meine Beispiele aus dem Workshop:
 Der unbearbeitete, dröhnende Testsample.
 Der bearbeitete Testsample.
Der erste Teil wenig, der zweite mehr gefiltert und der Wirksamkeit wegen in eine Aussenatmosphäre gesetzt. In beiden Fällen habe ich nur die Tiefen Frequenzen beschnitten. Ist nur ein unpoliertes Beispiel mit Audacity gemacht. Soll nur das Prinzip verdeutlichen. In meinem Beispiel soll die Entfernung (draussen!!), so zwischen 10 und 30m liegen (funktioniert das für Euch?).

Ich denke mal, auf diese geringe Entfernung mach die Anwendung atmosphärischer Dämpfung ohnehin noch keinen Sinn. Man hört die Auswirkung einfach nicht! Dein Gewitter-Beispiel hingegen, ist geradezu ideal dafür geeignet. Blitz und Donner sind kilometerweit weg. Da wirkt das schon viel besser.

Danke übrigens für Deine Mühe mit dem Script! Bitte mehr davon! Ich finde das extrem spannend.
 
  • Like
Reaktionen: jam

jam

Absolut
Sprechprobe
Link
So, das wird dann vermutlich erstmal der letzte Eintrag in diesem Thread.:)

@Corlanus : Ich hatte mir "damals" natürlich die Beispiele schon mal angehört, wollte aber erst jetzt im Zusammenhang antworten, da ich noch etwas ausprobieren wollte.:) Es scheint mir auf jeden Fall sinnvoll, die tiefen Frequenzen ein Stück zu reduzieren, damit man den Nahbesprechungseffekt wegbekommt. Generell würde ich bei zunehmender Entfernung dann aber eher die Höhen reduzieren. Aber dein Beispiel funktioniert auf jeden Fall ebenfalls gut, denn zum Beispiel werden Frequenzen ja auch durch Hindernisse am Boden blockiert, auch die tiefen, wenn die Gegenstände groß/breit genug sind.

Ich habe mal ein Beispiel zusammengestellt, das die Tiefenwahrnehmung mit verschiedenen Komponenten unterstützen soll:
+der hier vorgestellte Lowpass Filter
+Zumischung von Hall
+"gespielte" Entfernung mit der Stimme
+Referenzgeräusche für das psychoakustische Bezugssystem

 

Man beachte, wie die Stimme bei der ersten Entfernung (20m) in den Hintergrund zu gleiten scheint, wenn das Flugzeug präsenter wird.

Zusätzlich habe ich noch einmal das Hörbeispiel aus dem ersten Post aktualisiert und für Hören über Kopfhörer angepaßt (ohne HRTF).

 

Das verwendete Tool für das Fading heißt EmitterFader und befindet sich im ersten Post dieses Threads. Einen kleinen Bugfix habe ich noch schnell vorgenommen, so daß der Dateiname das heutige Datum als Zusatz bekommen hat.

Vielen Dank für euer Interesse!

LG
Jan
 

wer.n wilke

wer.n the voice
Sprechprobe
Link
... beeindruckend! Aber tatsächlich: so lässt sich ein wirkliches Klang-Bild erzeugen ... :cool:
 

Marco

Mitglied
Teammitglied
Sprechprobe
Link
Da schließe ich mich Werner an....sehr beeindruckend. Ich habe auch Reaper und habe gerade mal erst jetzt kapiert, wie das mit der Automation funktioniert. Ich werde mich, wenn meine jetzigen Projekte beendet sind, mehr mit Reaper befassen.
 

Corlanus

Cutter - zur Zeit in Auszeit
@jam : Was die Reduzierung von Frequenzen betrifft (hoch oder tief): Ich habe auch einiges an unterschiedlichen Möglichkeiten ausprobiert. Meine Erkenntnis: Manchmal funktioniert es, manchmal nicht. Warum? Ich denke das liegt an den zusätzlichen Entfernungs-Hinweisen in einer Szene. Die reine Frequenzmanipulation ist manchmal einfach nicht genug. In Deinem ersten Beispiel erzählst Du dem Zuhörer, wo Du Dich gerade befindest und passt auch deine Sprech-Art entsprechend an (erst sprechen, dann rufen). Darum funktioniert das Beispiel auch ohne Kopfhörer ganz wunderbar. Das zweite Beispiel braucht diese Hinweise nicht (selbst ohne Kopfhörer). Da reichen die normalen Mittel aus (Panorama, Lautstärke, Delay, Hall, ...). Der allererste Ansatzpunkt für die räumliche Wahrnehmung einer Szene ist daher wohl das Script. Wenn das nicht passt, kann man als Cutter nicht aus dem vollen schöpfen.

Kannst Du mal genauer beschreiben, was im Zweiten Beispiel alles manipuliert wird?

@Marco : Das erlernen der Automation solltest Du auf keinen Fall aufschieben. Mit Automation hast Du nahezu grenzenlose Möglichkeiten (allerdings auch mehr Arbeit). Jam's zweites Beispiel wäre ohne überhaupt nicht möglich.
 

Marco

Mitglied
Teammitglied
Sprechprobe
Link
Vielleicht wäre es möglich die Reaperdatei zu veröffentlichen, um mal selber zu schauen, wie es gemacht wurde.
Geht das?

@Corlanus : ich habe ja schon verstanden wie das mit der Automation funktioniert und habe auch die Möglichkeiten, die mir die Automation bietet verstanden. Audacity dagegen, ist in der Hinsicht völlig unterentwickelt.
 

jam

Absolut
Sprechprobe
Link
@Marco :
Vielleicht wäre es möglich die Reaperdatei zu veröffentlichen, um mal selber zu schauen, wie es gemacht wurde.
Geht das?

Sicher, ich habe die Projektdatei mal so abgespeckt, daß sie auf das Wesentliche, nämlich die Distanz- und Fading-Effekte, reduziert ist.

https://hoertalk.fra1.digitaloceanspaces.com/htup/upload/up/Shuttle_Demo-1450564385.zip

Die verwendeten JS-Plugins habe ich auch in das Zip gepackt (in den aktuellen Versionen von vorgestern). Ich hoffe, man kommt so damit klar, und es ist alles dabei. Wie man JS-Plugins installiert habe ich hier im Thread beschrieben (glaube ich...), und steht auch in dem PDF im Zip-File. Fragen beantworte ich natürlich gerne.:)

@Corlanus :
Kannst Du mal genauer beschreiben, was im Zweiten Beispiel alles manipuliert wird?

Über das zweite Beispiel hatte ich ja schon einiges hier geschrieben. Also, das waren:
+Air_Absorption (Lowpass Fiilter) - Distanz-Effekt
+mit Random-Kurve modulierter EQ - Simulation von Schallverwehungen, z.B. durch Wind
+Panning-Plugin (Emitter Fader)
+leicht dazugemischtes Convolution Reverb

Wofür die ersten beiden Effekte da sind, ist ja soweit klar. Das Panning-Plugin macht dann irgendwie... den Rest. Im PDF steht beschrieben, was das im Einzelnen ist. Hören tut man im Beispiel die Kanaltrennung, die über den Rotationswinkel des Emitters relativ zum Rezeptor/Mikro gesteuert wird, den Doppler-Effekt, die Steuerung des Absorptionsfilters über die Distanz (Parametermodulation) und den leicht zugemischten Convolution-Effekt.

Das klingt jetzt alles sehr theoretisch. Vielleicht wird es tatsächlich klarer, wenn man das im Reaper-Projekt selbst ansehen kann.:)
 
Zuletzt bearbeitet:
Oben