sychron

Mitglied
Ich habe noch einen wichtigen Nachtrag zum Mastering, vor allem, was die integrated LUFS angeht. Da haben ja einige Probleme, die richtig einzustellen. Das "integrated" bedeutet, dass die über das gesamte Audiomaterial gemessen werden, was das Messgerät in diesem Durchgang erreicht. Also alles zwischen Play und Stop.
Das ist in sofern wichtig, weil es nicht möglich ist, die LUFS gleichzeitig zu messen UND den Limiter richtig einzustellen, weil jede Änderung am Limiter zwar Auswirkungen hat, ABER alles vor der Veränderung mit in die Messung reingeht. Deshalb zum Überprüfen der LUFS unbedingt stoppen und neu starten, wenn man was verstellt hat, sonst ist die Messung nicht richtig.
Das bedeutet auch: Wenn man zum Mastern nur den lautesten Teil abspielt und sich den anguckt, das Hörspiel aber auch ruhigere Teile enthält, dann sind die integrated LUFS mitunter leiser, als man möchte.
Gerade dieses Gehampel mit den LUFS der verschiedenen Streamingdienste bei gleichzeitigen Anforderungen an die Peaks ist einer der Gründe, warum ich mir irgendwann SmartLimit zugelegt habe. Aber das sollte niemals die eigene Messung ersetzen. Viele DAW machen das ja netterweise beim Rendern oder haben Statistiktools, um das durchzurechnen. Ansonsten hilft alles nix: Man muss das Hörspiel nochmal komplett durchlaufen lassen, wenn man mit dem Integrated-Wert sichergehen will.
 

soundjob

Tontüte & Hörspielfrisör
Sprechprobe
Link
Yep, gute Ergänzung von @sychron (y).
Allerdings auch noch ein bissl Ergänzungs-Senf:

... weil es nicht möglich ist, die LUFS gleichzeitig zu messen UND den Limiter richtig einzustellen, weil jede Änderung am Limiter zwar Auswirkungen hat, ABER alles vor der Veränderung mit in die Messung reingeht
Jaein 😁
Sicherlich kann die Reaktion nicht schon vor der Aktion erfolgen (vlt. in der Quantenwelt), aber es gibt einige Tools unter den LUFS-Analyzern, die genau das machen und ja Sinn und Zweck ist... zu messen und synchron zu limitieren. (Naja, "fast" synchron, weil s.o. Actio/Reactio).

Im Gegensatz zu den typischen Onboard und dB Limitern einer DAW, arbeiten diese Tools mit integrierten TruePeak-Limitern, die hinsichtlich LUFS-Ausgabewert auch gleichzeitig in Echtzeit den Wert auf den integrierten Limiter übertragen bekommen (unten in der Grafik unter "B"), welcher dann entsprechend eingreifend trimmen kann.

Sicherlich wird es dahingehend auch schon KI gestütztes geben, was diesbezüglich via Look Ahead-Modi automatisch eingreifend vorregelt und anpasst.. ich benutze allerdings noch den den WLM+ von Waves, mit dem ich den Limiter zwar auch während, bei und mit der Messung trimmend automatisieren kann, aber dies eben noch händisch.
Bei gedrückt gehaltener Maustaste, trimmt der Limiter (B) automatisch und durchgehend, aber ausgerechnet diese Autotrim-Kurve zeichnet er mir als Automation in Cubase/Nuendo nicht auf 😁.
(Das wäre ja auch zu schön und einfach).
Natürlich zeichnet er mir aber den Fader (C) für den Limiter in einer Automation auf, wenn ich ihn händisch bewege und einstelle.

WLM.jpg


Tools wie der WLM+ arbeiten so, dass lediglich nur noch als allerletztes Glied in der Kette die im Ein&Ausgang anliegenden LUFS, bzw. Gain getrimmt werden... im Mix selber, aber nicht mehr die dort vorhandenen Master-Limiter bedient werden müssen und unangetastet bleiben können... es sei denn natürlich, man hat etwas, was man noch auf der Spur korrigieren will etc.
Natürlich lässt sich der WLM auch auf ne Einzelspur und bereits schon vorgeschaltet im PreMix als Vorkontrolle verwenden, aber i.d.P. ist er `n finales Master Werkzeug.
 
Zuletzt bearbeitet:

sychron

Mitglied
Yep, gute Ergänzung von @sychron (y).
Allerdings auch noch ein bissl Ergänzungs-Senf:


Jaein 😁
Sicherlich kann die Reaktion nicht schon vor der Aktion erfolgen (vlt. in der Quantenwelt), aber es gibt einige Tools unter den LUFS-Analyzern, die genau das machen und ja Sinn und Zweck ist... zu messen und synchron zu limitieren. (Naja, "fast" synchron, weil s.o. Actio/Reactio).

Im Gegensatz zu den typischen Onboard und dB Limitern einer DAW, arbeiten diese Tools mit integrierten TruePeak-Limitern, die hinsichtlich LUFS-Ausgabewert auch gleichzeitig in Echtzeit den Wert auf den integrierten Limiter übertragen bekommen (unten in der Grafik unter "B"), welcher dann entsprechend eingreifend trimmen kann.

Sicherlich wird es dahingehend auch schon KI gestütztes geben, was diesbezüglich via Look Ahead-Modi automatisch eingreifend vorregelt und anpasst.. ich benutze allerdings noch den den WLM+ von Waves, mit dem ich den Limiter zwar auch während, bei und mit der Messung trimmend automatisieren kann, aber dies eben noch händisch.
Bei gedrückt gehaltener Maustaste, trimmt der Limiter (B) automatisch und durchgehend, aber ausgerechnet diese Autotrim-Kurve zeichnet er mir als Automation in Cubase/Nuendo nicht auf 😁.
(Das wäre ja auch zu schön und einfach).
Natürlich zeichnet er mir aber den Fader (C) für den Limiter in einer Automation auf, wenn ich ihn händisch bewege und einstelle.

Anhang anzeigen 26726

Tools wie der WLM+ arbeiten so, dass lediglich nur noch als allerletztes Glied in der Kette die im Ein&Ausgang anliegenden LUFS, bzw. Gain getrimmt werden... im Mix selber, aber nicht mehr die dort vorhandenen Master-Limiter bedient werden müssen und unangetastet bleiben können... es sei denn natürlich, man hat etwas, was man noch auf der Spur korrigieren will etc.
Natürlich lässt sich der WLM auch auf ne Einzelspur und bereits schon vorgeschaltet im PreMix als Vorkontrolle verwenden, aber i.d.P. ist er `n finales Master Werkzeug.
Danke für die Ergänzung. Man lernt nie aus.
Ich persönlich habe Waves-Plugins abgeschworen, weil die, die ich habe, zwar manchmal das leisten, was sie sollen, aber mir mehr Probleme machen, als sie lösen :(
Ich arbeite derzeit in "normalen" Projekten mit SmartLimit als finalem Limiter und habe da ganz gute Erfahrungen gemacht. Allerdings suche ich tatsächlich noch ein Tool, welches das komplette Audio analysieren kann und dann die Einstellungen, die man macht, mit den gemessenen Werten gegenrechnet. Bei einem 4-Minuten-Song ist das Ok, den immer mal wieder zu hören ... bei 1,5 Stunden Hörspiel ist das eher ... nervig.
Das "normal" bezieht sich darauf, dass ich viele Projekte in Atmos aufbaue, auch wenn das Endprodukt nicht immer Atmos wird. Ich nutze aus, dass Atmos in nahezu jedes relevante Format gerendert werden kann und mir bei der Produktion viel Zeit spart. Allerdings braucht man hier nochmal einen anderen Ansatz, weil die Mastering-Limiter in den Objekten sitzen müssen, nicht auf dem finalen Track. Da habe ich ein interessantes Plugin gefunden, welches ich gerade teste: Hornet SAMP. Hier sind die ganzen Limiter in den Objekten miteinander verbunden und zentral steuerbar, so dass man ein halbwegs einheitliches Mastering erhält.
 

soundjob

Tontüte & Hörspielfrisör
Sprechprobe
Link
Yep.. Atmos ist natürlich wieder ne ganz andere Sache... und SAMP sich da als Masterbus auch großer Beliebtheit erfreut und sich bewährt hat. (y)
 

Spectroflame

Cutter, Sound Designer
Moin :)
Also ich vermute mein Weg wird tatsächlich erstmal sein, schon auf dem Mix Bus meiner einzelnen Szenen, noch vor dem finalen Zusammenfügen und Mastering, nen dezenten Limiter zu fahren, der alles ab -6 oder -7 DB FS abschneidet. Dem gebe ich dann so viel Lautheit, wie es braucht, um meine Werte zu erreichen. Ich glaub ich will meine einzelnen Szenenmixe so auf -24 oder -26 LUFS und -6 - -7 DB FS bekommen. So muss ich im späteren Mastering nicht mehr so prügeln, um auf die finalen -15 oder -14 LUFS zu kommen.
Anders krieg ich irgendwie nich hin, wenn meine Kapitel von der Lautheit her nice sind, sind die Peaks viel zu hoch. Sind die Peaks ok, ist die Lautheit scheiße. Ich könnte mir vorstellen, dass ich es so ganz gut in den Griff kriege, evtl. :)
Danke euch auf jeden Fall für die vielen Tipps, vor allem @soundjob!
 

Spectroflame

Cutter, Sound Designer
Ich würd dann auch direkt in den Limiter hinein mischen, weil so kann ich direkt vorher bestimmen, wie und auf was der Limiter reagiert, sodass Schüsse Etc. nicht kaputt werden und zu Brei verarbeitet werden. :D
 

sychron

Mitglied
@Spectroflame Das klingt so, als müsstest Du hauptsächlich die Peaks einfangen?
Bislang sprechen wir ja nur auf Basis der Beschreibungen -- könntest Du irgendwo eine fertig gemixte, aber noch nicht limitierte oder komprimierte Szene hochladen, dass man da mal ein Ohr drauf werfen kann? Vielleicht fällt uns dann ja noch was ein, was Dir weiterhilft?
 

Spectroflame

Cutter, Sound Designer
Hier mal ne Demo Szene aus dem Hörspiel die Zauberin Kassandra. Der Summen Peak ist ok, so etwa -9 DB FS, aber die Lautheit ist halt ungenügend, so etwa -29 LUFS.


 

soundjob

Tontüte & Hörspielfrisör
Sprechprobe
Link
Hey Spectro,
gut dass du mal ein Sample reingestellt hast, welches auch ne hörbare Anaylse möglich macht.
Ich hab deine Szene jetzt einfach mal schnell auf ungefähr -14 im Maximum angehoben... (bei -2 dBTP)..also da wäre sogar noch Reserve und insgesamt klirrt oder zerrt es auch nicht.


Aber ich sehe, bzw. höre, wo für mein Dafürhalten ein Problem im PreMix liegt:
"S", Zischlaute, Stimmenlose ("K" u. "G" etc.) kloppen dir den Pegel mit einigen Ausreissern stark nach oben.
Ich meine, da keine De-Esser auf den Vocals zu hören, bzw. könnte und sollte da mehr drauf, damit es vom Klang weicher und auch vom Pegel schon erst einmal gedämpfter ist, bevor der Limiter in der Spur und/oder Summe greift...sonst ist das Gefälle auch zwischen "hohen Pegel" bei insoweit "geringer Lautstärke", relativ groß.
Aber da ist jetzt auch nix problematisches bei oder was nicht in den Griff zu bekommen wäre... es sind genau jene Sachen und Aufgaben, mit denen man es halt in einer Abmischung zu tun bekommt. ;)

Generell muss man allerdings auch "Cut mit PreMix" von den Aufgaben eines Mastermix trennen.
Man kann es zwar natürlich so machen, aber es ist an sich nicht die Aufgabe im Projekt-Array, ein finales Master hinzubekommen. Das eine ist das Pre-Master (die gerendert separaten Stems oder der gesamte Mixdown), das andere ist die Arbeit des finalen Mastering, wo man trotz aller automatisch eingreifenden Kompressoren und Brickwalls im Projekt, durchaus auch noch einmal händisch mit der Maus in seiner Mastersuite, bzw. Audioeditor, an die eine und andere Pegelspitze ran müsse, um da noch etwas zu korrigieren, was den Mastereffekten beim Rendern (und einem nie 100%ig vorhersehbaren Endergebnis) trotzdem noch entwischt ist...z.B. hat man irgendwo in der Wellenform eine Spitze, die vom Limiter korrekt abgefangen wurde, aber die nur kurz darauf folgenden (problem)Spitzen durch kamen, weil das Release z.B. zu kurz war oder der Threshold zu klein oder oder oder 😁...also händischer Einsatz der Pegelnachbearbeitung in der Wellenform, findet trotz aller KI und vorgeschalteter Effektketten, im Mastering nach wie vor statt, wenn man da ganz akribisch vorgehen muss.
Sowie im finalen Mastering mitunter ja auch noch einmal händisch Lautstärkekorrekturen für ganze Kapitel/Szenen vorgenommen werden, um die Gesamtlautstärke annähernd linear zu halten... gerade auch, wenn man für jede Szene/Kapitel einen neues Projekt beginnt- und eben nicht alles in einem Projekt hat (wo alles schon entsprechend gelevelt wurde), kann es zu sehr unterschiedlichen Sound, Lautstärken und Pegel führen, wenn man sich das später alles wieder zusammenbaut.

Aber das ist alles jetzt gar nicht so dramatisch, wie es scheint. 😁
Du hast genug Reserven, um deinen Pegel verzerrungsfrei auf gewünschte Ergebnisse zu bringen.
Bis auf den Einsatz eines mehr zupackenden De-Esser und etwas angleichenden Lautstärkeverhältnissen von Szenen.
Hier ist z.B. im Demo ab 1:46-2:39 der "Schreiber" letztlich doch lauter als die anderen Sprecher in den Szenen oder gar der Erzähler... das wäre jetzt z.B. etwas, wo man im Master noch einmal ranginge und diese Passage um ein paar dB wieder absenken würde.

Im Gegensatz zur Musik, wo man mit Drums, Bässe, Gesang und allerlei anderes Kling-Klang über einen Song ein permanent konstanten gehalten (Dauerschall)Pegel von Anfang-Ende hat, ist das insofern bei Hörspielen/Filmen nicht möglich... da man ja sehr viel größere und wechselnde "Lücken" von Dynamik+Zeit hat... und ein Pegel auch mal wieder weit unter -14 fällt... aber wie ich auch schon vorher erwähnte, sollten die minimalen LUFS ("Unders") wiederum nicht "zu lang und zu leise" abfällen lässt.
Wenn du z.B. einen permanenten -14 im Hörspiel halten wolltest, dann hätte man ja auch mitunter wieder extreme Lautstärkeschwankungen von leise zu laut und laut zu leise,
ab -6 oder -7 DB FS abschneidet. Dem gebe ich dann so viel Lautheit, wie es braucht, um meine Werte zu erreichen. Ich glaub ich will meine einzelnen Szenenmixe so auf -24 oder -26 LUFS und -6 - -7 DB FS bekommen. So muss ich im späteren Mastering nicht mehr so prügeln, um auf die finalen -15 oder -14 LUFS zu kommen.
Das ist ein möglicher und funktionierender Weg... und so anders, mache z.B. ich es auch nicht. ;)
 

Spectroflame

Cutter, Sound Designer
Moin lieber @soundjob Vielen Dank dir für die ausführliche Analyse und Antwort, da hast du dir echt mehr Mühe gegeben, als ich gedacht hätte. Vielen Dank dafür!

Auf Probleme mit den S-Lauten wär ich jetzt zum Beispiel gar nicht gekommen, aber das ist natürlich mehr als naheliegend. Wahrscheinlich hätte ich da bei manchen Sprechern noch an den Anfang der Effektkette nen Deesser drauf packen sollen, damit die nachfolgende Kompression nicht auf diese Zischer anspringt und diese noch weiter verstärkt. So mache ich es inzwischen auch oft, 2 bis im Extremfall 3 Deesser pro Sprecher + manchmal noch dynamische Absenkung der Höhen ab etwa 8 K nach der Kompression, um das ganze in den Griff zu bekommen.

Bei der Szene hatte ich übrigens auch Deesser drauf, aber wohl etwas wenig.



Auch der Punkt mit den Lautstärkeunterschieden ist natürlich extrem hilfreich zu wissen, bedeutet, dajss ich mir noch mehr händische Arbeit vielleicht sogar schon im Pre Mix machen muss, oder spätestens im finalen Mastering. Hab ich bisher so gut wie gar nicht gemacht, hab einfach alles durch nen Kompressor mit -30 DB Treshold gejagt. Hat der dann zwar gut gemanaged, aber es klang eben ziemlich kaputt und hatte keinerlei Punch mehr.

Mit deinen Tipps werde ich künftig save bessere Produktionen hinbekommen, die voll auf die 12 gehen, aber die LRA dennoch nicht größer als 6 oder 7 ist und alles trotzdem echt und nicht technisch klingt.

Nochmal danke!!!
 

soundjob

Tontüte & Hörspielfrisör
Sprechprobe
Link
Mach ich gerne ;).
Es freut mich, dass ich dir ein wenig unter die Arme greifen konnte und du packst das schon. ;)

Im finalen Mix hörst ja meist auch erst, wo man hinsichtlich Lautstärkeschwankungen noch mal ran könnte/müsste, weil vom PreMaster zum FinalMaster kann sich da immer noch `ne unerwartete Kleinigkeit ändern... das sind Dinge, die hört man bei aller Anfang im PreMix nicht.

Was ich z.B. auch mache, sobald der PreMix wirklich steht und der Sound für mich okay ist, dass ich mir aus meinem Projekt heraus Stems rendere, also alle Vocals auf einer separaten Stereospur zusammengefasst, alle Geräusche, SFX, Atmo und die Musike (alles schon mit Effekten, Kompressor & PiPaPo vorgemischt) rendere und so zeitgleich am PreMaster und am Final arbeite.
 

Spectroflame

Cutter, Sound Designer
Wo ich mich auch noch bißchen schwer tue, wo und wie mache ich am besten meinen Lautstärke Angleich der Szenen?
Es kommt bei mir immer wieder vor, dass ich ein Hörspiel abgebe und da Anmerkungen gemacht werden hinsichtlich Tempo und manchmal auch Lautstärken etc. Mache ich das im finalen Mastering auf dem Stereofile oder Masterbus des gesamten Hörspiels, wären ja bei etweigen späteren Änderungswünschen meine ganzen mühsam getätigten Lautstärkeangleiche wieder hinfällig. Also doch lieber in den einzelnen Szenenprojekten bzw. die einzelnen fertigen Wav Files der Szenen per Fader oder Clip Gain angleichen?
 

Spectroflame

Cutter, Sound Designer
Beziehungsweise, sollten Änderungswünsche hinsichtlich Timing gemacht werden, also an irgendeiner Stelle ne Pause länger oder kürzer, funktionieren ja evtl meine ganzen Lautstärkeautomationen nicht mehr, weil das Timing nicht mehr stimmt.
 

soundjob

Tontüte & Hörspielfrisör
Sprechprobe
Link
Beziehungsweise, sollten Änderungswünsche hinsichtlich Timing gemacht werden, also an irgendeiner Stelle ne Pause länger oder kürzer, funktionieren ja evtl meine ganzen Lautstärkeautomationen nicht mehr, weil das Timing nicht mehr stimmt.
In DAWs, die Automationskurven für Dies und Das aufzeichnen können, hast ja etwaige Punkte, die in der Spur (als Unterspuren/Automationskurven) gesetzt werden.

In den meisten DAWs ist es so (und eigentlich der Sinn und Zweck), dass wenn ein File nun irgendwo hin verschoben wird, auch die Automation mit verschoben werden...quasi wie ein Magnet aneinander kleben.
(Kann man aber auch selbstverständlich losgelöst voneinander machen... oder Kurven kopieren , auf andere Files oder Spuren anwenden und und und).
Mit welcher DAW arbeitest du ?

Es kommt bei mir immer wieder vor, dass ich ein Hörspiel abgebe und da Anmerkungen gemacht werden hinsichtlich Tempo und manchmal auch Lautstärken etc. Mache ich das im finalen Mastering auf dem Stereofile oder Masterbus des gesamten Hörspiels, wären ja bei etweigen späteren Änderungswünschen meine ganzen mühsam getätigten Lautstärkeangleiche wieder hinfällig. Also doch lieber in den einzelnen Szenenprojekten bzw. die einzelnen fertigen Wav Files der Szenen per Fader oder Clip Gain angleichen?
Yep... hier wirds immer etwas knifflig 😁
Im kommerziellen Sektor ist mind. 1 Korrekturschleife in `ner Dienstleistung inbegriffen (die "inbegriffenen" sind soweit aber auch Verhandlungssache)... für weitere erforderliche Korrekturen, zahlt man... das hält einen Kunden nämlich auch genau davon ab, dich nach seiner Lust und Laune, 20xmal zu deinen Lasten und Kosten (und Nerven) immer wieder irgendwelche marginalen Änderungen vornehmen zu lassen und ein Projekt (kostenlos) Hü Hott machen zu lassen.
Aber auch im privaten Sektor sollte man Grenzen setzen können und auch zu einem Punkt kommen, wo es dann mal gut ist und sich nicht 2 Jahre darüber streitend diskutieren, ob es nun doch besser "Pling" oder "Plong" an einer Stelle und x-ten Korrektur macht (alles schon durchgemacht 🤪).
Aber das nur so nebenbei erwähnt, weil es gerade so schön passt und ich diese "nie enden wollenden" 😁 Änderungswünsche kenne... kommerziell wie privat).;)

Bevor du ins PreMaster, bzw. ins Final gehst, sollte das Projekt hinsichtlich Schnitt eigentlich soweit auch abgesegnet sein...also das Hörspiel stimmt vom Tempo, alle Takes und Retakes sind drin etc.

Du kannst natürlich ins originale Projekt gehen, um dort wieder etwaige Änderungen vorzunehmen, wenn du durch das PreMaster nicht an die gewünschte Stelle problemlos ran kommst... und `nen Stem dann halt noch einmal rendern müsstest, wenn du via PreMaster-Methode arbeitest... das kommt immer wieder mal vor (gerade, weil dann noch noch etwas ausgetauscht oder komplett weggenommen werden soll...additives kannst noch immer locker beim PreMaster oder auch im Master beischnippeln).
Das "scheint" auf den ersten Blick auch immer der einfachste, unkomplizierteste Weg... weil man halt an wirklich alles ran kommt. Da hat halt jeder seine eigenen Vorgehensweisen.

Was z.B. ich im PreMaster/Master mache:

Kompletter Projekt-Downmix (als Stereofile) für die Arbeit im finalen Master:
- Lautstärkeangleichungen in Analyse zur LUFS-Ausgabe.
- Summenkompression, bzw. TruePeak Limiter.

Vorgerenderte Stems (zuemist 6 Spuren mit allem drum und dran) für ein PreMaster:
(Diese Mühe mache ich mir allerdings meist nur für kommerzielle Projekte, selten für Privat).

- Nachträgliche Lautstärkeangleichungen (Automationen) über den gesamten PreMix im Verbund mit allen Stems.
- Nachträglich separate Lautstärkeangleichung der Vocal-Stem in bestimmten Passagen/Abschnitten, wenn zu laut oder leise. Hier durch Absenken, Anheben der Spur-Lautstärke oder auch noch einmal Kompressor/Limiter oder EQ Einsatz.
- Nachträgliche Angleichungen der anderen Stems.
- Nachträglicher Cut und Arrangement... wenn z.B. eine Pause zu lang, zu kurz ist und sich durch Schnitt/Platzierung "unhörbar" modifizieren lässt. (Ansonsten muss tatsächlich noch einmal ins Original und der Stem/Passage dort bearbeitet werden... passiert aber eher selten).

- Nachträgliche Summenkomprimierung.
- LUFS Analyse und True Peak Limiting.
- PreMastern.
- Master kontrollieren und final aufbereiten.

Welchen Weg und Modi man aber wählt, ist insoweit egal, solange es für einen am besten und praktisch funktioniert. ;)
 

Spectroflame

Cutter, Sound Designer
Ah interessant, du renderst also tatsächlich, wie beim Film Mixing, separate Vocal Stems, Musik Stems und SFX Stems raus. Hatte ich auch mal überlegt, aber bei mir würde das gar nicht gehen, weil bei mir ettliche Foleys in den Bus der jeweiligen Figur laufen. Das hat dann den Vorteil, dass Panning Automationen einfacher sind, da ich nur den Bus pannen muss wenn wer kommt oder weg geht. Und alle Footsteps und Foleys haben schon gleich das richtige Panning. Diese Methode hat allerdings auch den Nachteil, dass es so gut wie unmöglich ist, Soundeffekten und Stimmen einen unterschiedlich eingestellten Hall zu geben. Hatte zum beispiel überlegt, SFX ein niedrigeres Predelay zu geben um sie weiter hinten zu platzieren und Stimmen im gleichen Hall ein höheres Predelay, um sie weiter nach vorne zu bringen. Aber vermutlich wäre das ohnehin zu viel Schnickschnack.
 

soundjob

Tontüte & Hörspielfrisör
Sprechprobe
Link
yep...stage das wie beim Film auch... bis auf das Bild, ist es beim HP die gleiche Vorgehensweise.

aber bei mir würde das gar nicht gehen, weil bei mir ettliche Foleys in den Bus der jeweiligen Figur laufen.
Aber du kannst doch dennoch- in dem einfach nur die Vocals gemuted werden, die Gruppenspuren mit den Foleys separat rendern, bzw. vis a vis, die Vocals Solo rendern.
So hättest du die Stems separat und müsste in Reaper ja eigentlich doch möglich sein, oder ? :unsure:
(Mit Reaper kenne ich mich nicht so aus).

Das hat dann den Vorteil, dass Panning Automationen einfacher sind, da ich nur den Bus pannen muss wenn wer kommt oder weg geht. Und alle Footsteps und Foleys haben schon gleich das richtige Panning. Diese Methode hat allerdings auch den Nachteil, dass es so gut wie unmöglich ist, Soundeffekten und Stimmen einen unterschiedlich eingestellten Hall zu geben
Ja, Gruppenspuren machen es bzgl. Movements zwar "einfacher", aber du bist halt eben an die Chain der Spur gebunden.

In meinen Projekten trenne ich allerdings strikt die Stages und z.B. Schritte etc. auf separate Spuren laufen.
Wenn sich der Akteur nun von Rechts nach Links bewegt, Pan und Lautstärke automatisiert werden etc. dann kopiere ich die Kurve lediglich auf die "Schrittspur"...Vorteil= Die Foleys laufen synchron im Movement, aber können eine andere Chain und Routings nutzen.

Es sind natürlich immer zweidrei Handgriffe mehr, aber für den Mix und Soundgestaltung ist man unabhängiger.
Tatsächlich spart mir dieser Workflow aber letztlich auch sehr viel Zeit, wenngleich es auf dem ersten Blick nicht danach aussehen mag 🤣
 

Spectroflame

Cutter, Sound Designer
Echt? Krass, für mich klingt das mega kompliziert :D
Vor allem wenn mir die Kurve später irgendwie doch nicht mehr gefällt, muss ich sie dann doppelt ändern und darf dann bloß nicht vergessen, den anderen Bus mit zu berücksichtigen..... aber vielleicht denk ich auch wie immer zu kompliziert, das war schon immer eines der größten Probleme in meinem Leben :D
Stimmt, das mit dem Muten und Unmuten einzelner Bestandteile funktioniert natürlich auch in Reaper.
 

soundjob

Tontüte & Hörspielfrisör
Sprechprobe
Link
Nee... also es ist ja generell nix so wirklich gänzlich unkompliziert, wenn man Cut macht (geht mir auch so😇)... aber Struktur ist schon ne wichtige Sache 🤣
Wir sind jetzt auch "nur" bei Spuren und Ausgabe für n finales Stereo... (Surround, bzw. Atmos ist ja alles noch ne Ecke heftiger😁).

Um nochmal zurückzukommen auf Thema Gruppenspuren und doppelt/dreifache Obacht etc.

Für z.B. Schritte, die ich tatsächlich als einziges noch zum Akteur exklusiv "synchron" mit animiere, habe ich lediglich 3 Spuren... Links, bzw. Links nach Rechts/Rechts, bzw. Rechts nach Links, Mittiges... und dementsprechend dann geloopte Samples von z.B. Einzelschrittfolgen, Mehrpersonenschritte, langsam, schnell, rennend usw. abfeuere... also ich gebe da nicht jedem Akteur seinen eigenen Schritt-Kanal.
(Bei 15 Akteuren und mehr im HP, würde mich das irre machen).

Actions, wie Schießereien oder z.B. Schwertkampf mit allerlei klirrenden Klingklang, Staub, Bodychecks, Schritte, Rutscher, Zerschlagenes usw. schieße ich via Midi-Keyboard über den Sampler ab... da ist binnen 2 Minuten `n dramatischer-epischer Schwertkampf oder Blasterduell u.ä.. eingespielt...also da setze ich nicht jedes Event einzeln oder "super snychron" zum Geschehen... die Samples sind auch einzeln schon in Lautstärken, Panorama, Effektanteile etc. verteilt und hierfür auch nur max. 3 Spuren verwende (manchmal auch nur eine), wenn ich da noch was additives wie Schlachten&Kampfgebrüll drunterlege.

Würde man jedes Sample händisch einzeln setzen und noch jeden einzelnen Akteur zuweisen, dann säße man da ewig und 3 Tage dran (und dann noch die Übersicht behalten, welcher Akteur vlt. gerade was auslöst :eek:).
So brauche ich nur wenige Minuten für n großes Tohuwabohu und habe relativ wenige (übersichtliche) Spuren, die auch schnell an spezifische Movements angepasst/korrigiert sind.
Das geht also alles relativ fix von manchmal nur wenigen Minuten bis zu `ner Stunde, wenn man "synchroner" arrangiert. 😁
 
Oben