soundjob

Tontüte & Hörspielfrisör
Sprechprobe
Link
Hallo liebe Freunde.
Ich wurde nun schon des Öfteren angefragt, vlt. einen kleinen Einblick hinter meine Produktionskulissen zu gewähren und wie ich meine Hörspielproduktion aufziehe, was und wie ich da eigentlich so mache ?
Okay, dann gerne ein kleiner kurzer Blick hinter den Vorhang.

Mein Workflow ist hier allerdings kein Tutorial und wenngleich ich meine Wege bevorzuge, sind diese auch bitte nicht als allgemeingültig einzig wahres Gelb vom Ei misszuverstehen, denn viele Wege und Workflows führen nach Rom... dieser hier, ist lediglich mein Weg. ;)

soundjobcollageweb.jpg


Produktive Tage des Wartens

Während ich darauf warte, dass die gecasteten Sprecher und Sprecherinnen nach und nach fleißig ihre Rollen einsprechen, beschäftige ich mich tatkräftig im Vorfeld mit der Musik und Soundeffekte einer Produktion, bzw. setze das um, was ich mir im Skript bereits als Regievorgaben notiert habe, denn zumeist habe ich schon beim Schreiben eines Hörspiels explizite Vorstellungen von Musik und Atmosphäre.

Während der i.d.R. ein bis dreiwöchigen Wartezeit, komponiere ich für die kommende Show also bereits passende Musikstücke wie Leitmotive, Moods und Übergangssequenzen und suche mir auch schon viele Sounds zusammen- oder nehme noch explizit Sounds auf, die ich für das Hörspiel brauchen werde.
In einem Verhältnis von 50:50 verwende ich in meinen Shows eigene, wie auch gekaufte Soundeffekte, da ich gerne die größtmögliche Kontrolle über den von mir verwendeten Content haben möchte und daher nicht auf freie Sounds oder Musik aus dem Netz zurückgreife, weil mir das rechtlich zu unsicher ist.
So erstelle ich vor Produktionsbeginn auch bereits schon erste Demos von Musikstücken oder auch Soundatmosphären wie z.B. eine Action-lastige Weltraumschlacht, welche mancher Sprecher gerne für sich heranzieht, um sich z.B. in Flair und Stimmung des Hörspiels oder Szenerien zu versetzen.


Alles aus einem Guss

Nachdem nun alle Rollen eingesprochen wurden und mich die Aufnahmen erreicht haben, geht es an die technische Sichtung und Aufbereitung der eingereichten Aufnahmen, was mitunter den herausforderndsten Aufwand der Hörspielproduktion ausmacht.

So höre ich mich zunächst durch die Aufnahmen durch (pro Rolle stichprobenartig), um herauszuhören, ob diese technisch verwendbar, frei von z.B. Verzerrungen und ggf. in der Audionachbearbeitung reparabel sind (z.B. Rauschen, Hall entfernen)- oder diese den technischen Anforderungen nicht genügen und neu aufgenommen werden müssen.
Hierbei geht es mir allerdings nicht um die Bewertung der Darbietungen an sich und wie toll ein Take eingesprochen ist, denn der zunächst für sich tollste eingesprochene Take kann mitunter im Dialog mit den separaten Aufnahmen der anderen Sprecher, später etwas unpassend wirken und manchmal ein Retake notwendig wird, damit eine Szene besser miteinander harmoniert.

Das ergibt sich alles wiederum erst später, wenn es an das Eingemachte und in den Dialogschnitt geht, weswegen daher eine Bewertung oder Markierung von „tollen“ Takes im Vorfeld für das spätere Zusammenspiel A), nicht wirklich aussagekräftig ist und B), eine unnötig doppelten Zeitaufwand bedeuten würde, da im Dialogschnitt zwecks Zusammenspiel entsprechende Takes separater Aufnahmen ohnehin gegengehört und dort die miteinander passenden, besten Aufnahmen ausgewählt werden.

Die aufwendigste Aufgabe in der tontechnischen Aufbereitung ist allerdings das Angleichen der sehr verschieden klingenden Sprechersounds untereinander (Spiegel), da die vielen Sprecher und Sprecherinnen auch unterschiedliche Mikrofone und Techniken verwenden und daher vom Sound, bzw. insbesondere vom Frequenzgang, auch unterschiedlich klingen.
Die lohnende Mühe liegt hier darin, einen gleichsam klingenden Sound in der Audionachbearbeitung zu erreichen und somit soundtechnisch alles aus einem Guss klingt, als hätte man hier in meinem Studio am runden Tisch gesessen und alle über das gleiche Mikrofon ihre Parts eingesprochen.
Hierbei geht es nicht nur darum, Nahbesprechungseffekte zu filtern, sondern das gesamte Frequenzspektrum im Auge, bzw. Ohr zu haben und insbesondere die Stärken und Schwächen der vielen unterschiedlich klingenden Mikrofone untereinander abzugleichen und z.B. zu dumpfe, nasale oder zu scharf klingende Aufnahmen entsprechend zu filtern.
Mitunter gibt es hierfür bereits auch schon KI, ich jedoch diesen Prozess nach wie vor händisch und mit den eigenen Ohren praktiziere.

Während der Hörspielproduktion, bzw. im Arrangement und der einhergehenden Abmischung, werden zwar immer noch Details und Kleinigkeiten am Sprechersound angepasst, aber der Grundsound untereinander steht bereits und soll meine Vorgehensweise daher auch vor etwaig modifizierenden Eingriffen bewahren, die den Sound des Hörspiels während des Produktionsprozess, unvorhergesehen und massiv nachteilig beeinflussen.
Steht der aufbereitete Grundsound der Sprecher und Sprecherinnen, geht es somit endlich auch in die eigentliche Hörspielproduktion mit Dialogschnitt, Sound und Musikarrangement.


Multitasking-Arrangements

Es ist mir am liebsten, wenn ich eine Produktion chronologisch von Kapitel 1 bis zum letzten Kapitel durcharbeiten kann.
Diese Entwicklung, gleichwohl man seine selbst geschriebene Geschichte kennt, auch eine gewisse Eigendynamik und Spannung mit sich bringt und fern von Skript und Regie, hin und wieder auch auf andere Ideen kommt, die so nicht im Skript standen.
Das Hörspiel entwickelt mit der Zeit gewissermaßen auch ein kleines Eigenleben.

Andererseits bevorzuge ich auch eine schnelle Produktion sowie Fertigstellung und daher auch- wenn es schnell gehen muss, jene Kapitel fertig stelle, in denen die mir schon zur Verfügung stehenden Rollen zusammen wirken können, während ich noch hier und dort auf andere einzusprechende Takes der Sprecher für die anderen Kapitel warte.
Allerdings vermeide ich grundsätzlich, mit dem final abschließenden Kapitel zu beginnen, da ich für mich auch die sich im Hörspiel entwickelnde Atmosphäre durch Sound-FX, Atmo und Musik etc. brauche, die mich durch die Show trägt.
So kann es mir mitunter passieren, dass ein insbesondere fertig gestelltes Finale nicht mit dem Rest des Hörspiels harmoniert und neu arrangiert werden müsse, was wiederum Zeit kostet.

In meinem Workflow versuche ich so schnell wie möglich einen annähernd finalen Soundmix zu erreichen, weswegen Dialogschnitt, SFX und Musik Hand in Hand gehend, Kapitel für Kapitel simultan arrangiert werden.
Es beschleunigt meinen eigenen Workflow ungemein, andererseits macht es mir einfach mehr Spaß und motiviert zusätzlich, noch während des Schaffensprozesses das Arrangement im bereits (annähernd) finalen Zustand zu hören.

Natürlich ist dies nur eine Methode von vielen, doch hat sich für mich dieser Weg im Gegensatz dazu, z.B. erst den Dialogschnitt fertig zu stellen, dann die Sounds und zuletzt die Musik einzubinden, als kreativer und effizient zu fertigen Ergebnissen kommend, bewährt.
Für mein Dafürhalten, lebt ein Hörspiel nicht vom Dialog allein und so sind es auch Sounds und Musik, die im Zusammenspiel einen gewichtigen Moment der Handlung übernehmen können und ein bereits fertig geschnittener Dialog wiederum auseinandergebaut und neu zusammengestellt werden müsse, weil ggf. Tempo, Dramaturgie, Timing etc. nicht stimmig sind oder auch der nötige Platz für ein markantes Soundevent oder die Musik fehlt.
Für mich haben Dialog, Sound und Musik eine zusammengehörige Gewichtung und es sich für meine bescheidene Art der Hörspielproduktion besser eignet, diese Dinge Hand in Hand gehend, gleich synchron zueinander arrangieren.


Kontrolle im Dialogschnitt

Jeder Sprecher bekommt von mir wenigstens eine zweite Spur im Arrangement (zumeist aber 3-4 Spuren), um auf diesen Spuren z.B. komplexe Automationen und Eingriffe auslagern zu können, damit mir die Hauptspur eines Sprechers, auf denen üblicherweise die im Hörspiel durchgehenden Basiseffekte und z.B festen Positionen im Raum drauf liegen, nicht zerstört werden.
Zudem, weil auch je nach Projektgröße 30-50 Spuren für die Darsteller zusammenkommen (Soundstages und Musik nicht mitgerechnet), dies der besseren Übersicht und schnellen Zugriff bei sehr komplexen Eingriffen ermöglicht.
Alle Automationsdaten auf z.B. nur der Hauptspur zu haben, wäre zu viel an Information und man sprichwörtlich den Wald vor lauter Bäumen nicht mehr sähe.

Ich handhabe es in etwa ähnlich wie bei einer Musikproduktion und z.B. der Abnahme eines Schlagzeugs, wo jedes Instrument von der Kick über die Snare bis hin zu den Toms und Becken natürlich auch ihre eigenen Spuren bekommen, inklusive der zugehörig eigenen Spuren für z.B. die Overheads usw... summa summarum, würde das Schlagzeug also bei mir auch nicht auf nur einer einzigen Spur liegen und so in etwa ähnlich, verfahre ich im Dialogschnitt mit den Sprechern, was mir größtmögliche Freiheit und schnellen Zugriff bei etwaig komplexen Eingriffen gewährt.


So, ich will euch aber nun nicht zu sehr mit Tech-Sprech langweilen und hoffe, ihr habt einen entsprechend kleinen Blick in meine Hexenküche werfen können.
Euch weiterhin frohes Schaffen gewünscht.
Wir sehen/hören uns in den Projekten. 👋

Markus
 
Zuletzt bearbeitet:

Spectroflame

Cutter, Sound Designer
Moin :)
Vielen Dank für diesen interessanten Einblick!
Also wegen mir hätteste ruhig weiter schreiben können, mich interessiert es immer total, wie andere arbeiten.
Du machst also Dialogschnitt und Sound Design in einem großen Projekt? Und machst du deine Szenen auch alle zusammen, oder hat jede Szene ihr eigenes Projekt und sie kommen später in einem Superprojekt oder Masterprojekt zusammen, wie bei mir?
Ich arbeite ja teilweise mit Hörspielen über 100 Minuten Gesamtlänge, da wäre es mir persönlich zu unübersichtlich, alle Szenenarrangements in ein Superprojekt zu packen.
Ich persönlich bevorzuge auch den Dialogschnitt getrennt vom Rest, da ich oft mit RX Tools arbeite, die Leistung ziehen, weil sie in Echtzeit alles berechnen. Wobei ich auch schonmal überlegt hatte, solche Sachen im Vorfeld im RX Editor zu machen und die fertigen Files dann zu nehmen, aber das fühlt sich für mich irgendwie nicht intuitiv an.

Und was mich vor allem brennend interessiert, wie machst du dein Gain - und LautheitsManagement? Jagst du die Gesamtsumme des Hörspiels nochmal durch ne Kompression, oder machst du das Lautstärke Balancing manuell im Mix und packst am Ende nur 1 2 Limiter ins Masterprojekt drauf und fertig? Also einen Limiter wirst du wahrscheinlich schon nehmen, um Peaks zu kontrollieren oder?
 

MonacoSteve

Dipl.-Lachfalter - und nicht ganz Dichter
Teammitglied
Sehr interessant, diesen Workflow zu lesen. Vielen Dank für den Einblick. Ich selber finde mich darin teilweise sehr gut wieder, teilweise gar nicht. Musik extra für ein Stück habe ich z.B. eigentlich noch nie direkt komponiert; ich finde in meiner Sammlung eigentlich immer etwas, das für Intro, Szenenübergänge und Abspann passt oder schnell angepasst ist, und die Dialoge sind für mich stets musikfrei. Andererseits mache ich ebenfalls selten einen reinen Dialog-Cut, sondern mische Sound (mindestens ATMO) sofort dazu, weil ich dann ein viel besseres Gefühl für Situation und Stimmung bekomme, und dabei lassen sich auch Basis-Automationen gleich gut anlegen. Außerdem bekommt jede Sprecherspur von Anfang an noch eine Soundspur daruntergelegt, die dann die individuellen Geräusche des Charakters wiedergibt – selbst wenn die Figur sich nicht bewegt, sind das dann doch immer Dinge wie Kleider-Rascheln oder andere, die die körperliche Anwesenheit der Figur neben der Stimme untermauern. Sprache und Sound werden dann immer auf einen gemeinsamen Bus gelegt, der auch die Automationen (Panning, Hall…) übernimmt, so dass ich pro Figur genau 3 Spuren habe. Das reicht in der Regel völlig. Ist dann eine Szene soweit abgeschlossen, geht es ans Fein-Tuning mit Anpassung der Lautstärken, genauerer Verortung und Bewegung im virtuellen Raum etc.. Ich versuche so viel wie möglich an den Einzelspuren final einzustellen. Auf den Master kommt nur noch ein Limiter. Längere Stücke (über 20-25 min) mache ich dabei Szene für Szene als eigenes Projekt und baue erst am Ende alles in einem neuen Projekt zusammen. Für Shorties mache ich ein Einzel-Projekt, wo gleich alles drin ist.
 

Spectroflame

Cutter, Sound Designer
Außerdem bekommt jede Sprecherspur von Anfang an noch eine Soundspur daruntergelegt, die dann die individuellen Geräusche des Charakters wiedergibt – selbst wenn die Figur sich nicht bewegt, sind das dann doch immer Dinge wie Kleider-Rascheln oder andere, die die körperliche Anwesenheit der Figur neben der Stimme untermauern.S

Das hab ich schon öffter gehört, dass da eine Spur reicht. Ich hab da irgendwie oft Probleme, gerade wenn ich Sound design mäßig Elemente überlappen will, bin ich immer gezwungen, mehrere Soundspuren anzulegen, da es sonst technische Probleme gibt und Soundschnipsel unterbrochen werden. Daher hab ich bei mir immer einen Foley und Geräusche Bus, in dem die ganzen Spuren, teils _seeeeehr_ chaotisch, sodass ich mich manchmal selber kaum mehr zurecht finde, abgelegt. :D

Auf den Master kommt nur noch ein Limiter.

Vielleicht sollte ich das bei meinem nächsten Projekt auch lieber so machen, meine Sachen klingen oft komprimiert und so gedrückt. Das mag ich nicht so wirklich. Ich meine, es gibt noch kaputteres Zeug da draußen, aber ich möchte schon, dass man die technischen Bearbeitungen nicht hört und alles nahezu echt klingt.
 

soundjob

Tontüte & Hörspielfrisör
Sprechprobe
Link
Ahoi, Spectro.

Du machst also Dialogschnitt und Sound Design in einem großen Projekt? Und machst du deine Szenen auch alle zusammen, oder hat jede Szene ihr eigenes Projekt und sie kommen später in einem Superprojekt oder Masterprojekt zusammen, wie bei mir?
Ich arbeite ja teilweise mit Hörspielen über 100 Minuten Gesamtlänge, da wäre es mir persönlich zu unübersichtlich, alle Szenenarrangements in ein Superprojekt zu packen.
Alle Szenen und zugehöriger Content, ob 60-Minüter oder 3-Stünder, verbleiben bei mir in einem einzigen Projekt, weil ich gerne alles versammelt an einem Ort habe.

Was ich allerdings nach wie vor mache, ich arbeite arrangierend weiterhin szenisch- allerdings immer im selben Projekt.
So läuft eine Szene von z.B. Takt 1-68... und dann lasse ich der Übersicht halber eine große Lücke und setze erst wieder bei Takt 100 an, arrangiere ab dort die nächste Szene usw... und separiere mir die Szenen eines Kapitels zwecks Übersicht.
(Quasi wie "Projektmarker" setzen- nur das ich bei Marker auch immer durcheinander kommend suchen und mich durchsteppen musste)... und so habe ich das gleich übersichtlich visuell als einzelne szenische "Tetris" Projekt-Blöcke.

Im Gegensatz zu einem Musikarrangement wie z.B. `ne große Orchestersuite, müssen hier im Hörspiel die Szenen nicht zwangsweise nahtlos ineinander arrangiert laufen, weswegen ich die Szenen jeweils separat bounce (allerdings nicht als einzelne Stems, es sei denn, ich arbeite für andere Projekte und nicht als Einzelkämpfer) und sie später im Mastermix entsprechend nahtlos aneinanderreihe... daher auch mein Bestreben, so schnell wie möglich einen annähernd finalen Sound schon während des Arrangierens im PreMix zu erarbeiten.

Alles in separaten Projekten abzuarbeiten, ist natürlich auch ein klassischer Weg.
(Früher ging das hinsichtlich Rechenpower und Auslastungen auch oft gar nicht anders).
Ich persönlich vermeide dies allerdings, weil es mitunter auch zu unterschiedlichen Gesamtsound führen kann... hier oder dort hat man mal in einer Szene den EQ leicht anders eingestellt oder die Position im Panorama vertauscht o.ä.
Aber es geht natürlich beides super und letztlich ist es ja eine Frage von ein bissl Organisation und Struktur, wie man seine Sachen so anlegt und dann gewöhnt man sich auch an eine Struktur, Abläufe und Automatismen und wird mit der Zeit sehr schnell und effizient.

Ich persönlich bevorzuge auch den Dialogschnitt getrennt vom Rest, da ich oft mit RX Tools arbeite, die Leistung ziehen, weil sie in Echtzeit alles berechnen. Wobei ich auch schonmal überlegt hatte, solche Sachen im Vorfeld im RX Editor zu machen und die fertigen Files dann zu nehmen, aber das fühlt sich für mich irgendwie nicht intuitiv an.
Wie gesagt, es gibt viele Wege nach Rom und alle führen zum Ziel und da hat sich jeder so seinen eigenen funktionierenden Wanderweg ausgesucht- und das ist ja das Wichtigste. ;)

Ich arbeite die Aufnahmen mit z.B. DeReverber, DeNoiser&Co etc. im Vorfeld allerdings schon deswegen auf, da ich im Arrangement nicht erst jene RAM.-intensiven Anwendungen im Hintergrund durchrechnend mitlaufen lassen möchte.
Dahingehend sind die Aufnahmen alle schon bereits soweit gecleaned, bevor sie in mein Projekt wandern.
Hin und wieder ergibt sich natürlich auch mal `ne Situation, wo eine Aufnahme nicht ganz so astrein war und man noch einmal mit Repairtools ran muss, weil es im Mix doch noch zu sehr durchschimmerte.

Im wesentlich geht es mir ja darum, wenn ich im Arrangement bin, bin ich im Arrangement und beschäftigte mich mit dem Cut etc. und da möchte ich ja nicht erst noch Sachen großartig reparieren müssen.

Und was mich vor allem brennend interessiert, wie machst du dein Gain - und LautheitsManagement? Jagst du die Gesamtsumme des Hörspiels nochmal durch ne Kompression, oder machst du das Lautstärke Balancing manuell im Mix und packst am Ende nur 1 2 Limiter ins Masterprojekt drauf und fertig? Also einen Limiter wirst du wahrscheinlich schon nehmen, um Peaks zu kontrollieren oder?
Im PreMix läuft ja schon jede Spur über eine separate Signalkette aus EQ, Kompressoren, Limiter, FX, Pan, Automationen &Co-Gedöns und ist soweit schon recht gut aufeinander abgestimmt.
Im Master muss ich da nur noch recht wenig tun, passe zumeist Laustärkeunterschiede zwischen den einzelnen Szenen/Kapitel nochmal an und daher für den finalen Sound, auch nochmal mit etwas EQ das Gesamtbild aufräume, zumeist `ne 2.5:1 Kompression und natürlich `nen Limiter in der Summe fahre,
Ich setze allerdings keine Maximizer ein, um auch noch `nen Loudness-War o.ä. zu bedienen 🚀💥
(Sind ja Hörspiele und keine Techno-Party 😁)
Ich pegel das Master soweit aus, dass ich in einem annehmbaren Kompromiss zwischen Dynamik und maximalen Lautstärken bleibe und bewege mich im Rahmen von ungefähr -18 bis -14 LUFS bei -1dBFS.
 

MonacoSteve

Dipl.-Lachfalter - und nicht ganz Dichter
Teammitglied
Markus is einfach ein Macher! :) <3
Vor allem ist Markus ein Profi, nicht nur künstlerisch superkreativ, sondern er kennt auch seine Werkzeuge ganz genau. Bei mir trifft letzteres nicht zu. Und deshalb...
Vielleicht sollte ich das bei meinem nächsten Projekt auch lieber so machen, meine Sachen klingen oft komprimiert und so gedrückt. Das mag ich nicht so wirklich. Ich meine, es gibt noch kaputteres Zeug da draußen, aber ich möchte schon, dass man die technischen Bearbeitungen nicht hört und alles nahezu echt klingt.
...mache ich mit Sound und Stimmen auch nur das Allernötigste an technischer Nachbearbeitung. Ich hätte zu viel Sorge, aus Unwissen mit EQ, Compressor & Co. Murks zu erzeugen. Da agiere ich nach wie vor wie ein Affe an der Schreibmaschine - also besser Finger weg von den unzähligen Knöpfchen und Schiebern. Dann klingen die unterschiedlichen Sprechertakes eben ein bisschen unterschiedlich, und das Lautstärkenspektrum ist nicht bis ins Detail ausgereizt - Hauptsache die Dialoge sind flüssig und natürlich, und die Übergänge passen - und da bin ich dann wirklich pingelig :) . Ich denke auch, dass 90% der Hörer viele solche technischen Details gar nicht bemerken. Das extreme Feinschleifen, wie ich es z.B. bei all meinen Musikstücken in den Partituren bis ins letzte Zeichen und die letzte Note hinein mache, dient eigentlich nur dazu, dass ich selber am Ende mit dem Ergebnis zufrieden bin.
 

Spoony

Mitglied
Sprechprobe
Link
Ich hab da irgendwie oft Probleme, gerade wenn ich Sound design mäßig Elemente überlappen will, bin ich immer gezwungen, mehrere Soundspuren anzulegen, da es sonst technische Probleme gibt und Soundschnipsel unterbrochen werden.
Hi @Spectroflame .

Das hört sich für mich verdächtig nach Ardour an?!

Falls dem so ist, kannst du ja mal folgendes ausprobieren, falls du das noch nicht kennst.

Lege mal auf einer Audio-Spur zwei ( unterschiedlich lange, dann sieht man es besser ) Audio-Files aufeinander/übereinander.
Wenn du sie abspielst, werden nicht beide zeitgleich, sondern ab der Stelle wo sie übereinander liegen, nur das obenauf liegende Soundfile abgespielt.
Wenn du beide Soundfiles markierst und Alt + 0 ( Alt + NULL ) drückst werden beide Soundfiles transparent und zeitgleich sichtbar und beide
werden auch zeitgleich abgespielt.
Über die Eigenschaften der rechten Maustaste kannst du im Menüpunkt Layering auch die Position der einzelnen Audiofiles im Stapel für die Sichtbarkeit bestimmen.

Ardour_Ueberlappung.png

Vielleicht löst das die "technischen Probleme" mit der Überlappung.

Und wenn nicht, freut sich vielleicht jemand anders über den Tipp :LOL:
 
Zuletzt bearbeitet:

soundjob

Tontüte & Hörspielfrisör
Sprechprobe
Link
Um auch nicht mit jedem neuen Projekt wiederum so ganz von vorne anzufangen- und immer erst nach und nach seine Spuren anzulegen, ist es natürlich auch eine Hilfe, mit einem vorgefertigten Template/Arrangement zu arbeiten und seine Files darin nur noch abzulegen und bei Bedarf halt weitere Spuren anzulegen.

Bei mir sieht es in Cubase anfänglich so aus... (wenngleich hier jetzt auch nur für die Galerie aufgeräumt und übersichtlich... denn schlussendlich siehts am Ende mit etlichen Automationsverläufen so wie erheblich mehr Spuren auch etwas chaotischer aus 😁):

Cubase Projekt Workflowweb.jpg


im wesentlichen habe ich hier praktisch nur die Spuren für die Sprecher, für die Soundeffekte, Musik etc. bereits schon als ladbares Leerprojekt angelegt und für das Arrangement entsprechend unterteilt/gruppiert, welche dann nach und nach nur noch mit dem Content gefüllt werden müssen.
Wie bereits weiter oben in Post#5 bzgl. "szenische Bearbeitung" erwähnt, unterteile ich meine Szenen in diese lustig bunten "Tetris-Blöcke" und den großen Lücken dazwischen.
Mit im Projekt angelegt, sind auch meine für gewöhnlich genutzten Raumumgebungen, auf denen die Sprecher dann je nach Situation nur noch geroutet werden müssen.

Um das Projekt allerdings nicht mit zu vielen Spuren unübersichtlich vollzukleistern, denn gerade das Arrangieren von Foleys und anderen Events wie z.B. Singlesounds für `ne große Schlacht mit allerlei Kampfgetümmel und Bewegungen im Raum etc. arrangiere ich mir das entweder in einem externen Projekt zusammen (wenn es richtig viele Einzelsounds sind)- oder bounce mir bei nicht ganz so vielen Spuren, das direkt im Projekt... wie z.B. im Bild als "Samplemix" angegeben,

Aber da hat natürlich jeder so seine eigene Leinwand und Workflow, mit der er gerne arbeitet.
 

Spiegelchen

Mitglied
Sprechprobe
Link
Moin, bei mir ist das so, von euch allen etwas! Bin aber ähnlich Aufgestellt wie Soundjob.
Ich habe mir ein Template/Arrangement gebastelt wo ich für die FX- Sounds, Stimmen und Musik im Arrangementfenster eigene Ordner anlege. Alles in die einzelnen Gruppen verteile. Die Stimmen und Sounds werden in den Einzelspuren meistens nur mit dem EQ bearbeitet und die Räume im AUX-Weg, in den Gruppen kommt dann der Kompressor (Ratio meistens 2,5:1), auf Stimmen meistens ein Pultek. Im Master habe ich als erstes ein SSL-Kommpressor der nur ganz leicht nochmal die Spitzenabfängt, ansonsten soll der nur Kleben. Dann ein SPL-Passeq wegen Mitte / Seite, dann für die wärme eine Bandsättigung, dann ein Multiband Kommpressor und zum Schluss der Limiter.
 

soundjob

Tontüte & Hörspielfrisör
Sprechprobe
Link
Moin, bei mir ist das so, von euch allen etwas! Bin aber ähnlich Aufgestellt wie Soundjob.
Ich habe mir ein Template/Arrangement gebastelt wo ich für die FX- Sounds, Stimmen und Musik im Arrangementfenster eigene Ordner anlege. Alles in die einzelnen Gruppen verteile. Die Stimmen und Sounds werden in den Einzelspuren meistens nur mit dem EQ bearbeitet und die Räume im AUX-Weg, in den Gruppen kommt dann der Kompressor (Ratio meistens 2,5:1), auf Stimmen meistens ein Pultek. Im Master habe ich als erstes ein SSL-Kommpressor der nur ganz leicht nochmal die Spitzenabfängt, ansonsten soll der nur Kleben. Dann ein SPL-Passeq wegen Mitte / Seite, dann für die wärme eine Bandsättigung, dann ein Multiband Kommpressor und zum Schluss der Limiter.
Wenn man mit SSL/UAD arbeitet, immer seeeehr nice- aber auch echte "Sensibelchen" ... da reicht es ebenfalls manchmal schon aus, den EQ nur "anzugucken" und haut dir eine Färbung par Excellence rein...manchmal genau DER Hit-und sooo (positiv), bekommst es manchmal auch kaum anders hin... aber manchmal fragt man sich auch wundernd... What the F*** was `n jetzt los ? Ich hab doch gar nichts gemacht... nur gehustet ! 😁

Wenn man die recht eigenwillig agierenden SSL`s erstmal im Griff hat, dann will man aber auch nicht mehr weg (insbesondere der Gate/Expander und Transient Shaper, welche man schnell lieb gewinnt)... die sind wie das Rot im Blut, das Nass im Regen und Schwefel in der Hölle ...und aber auch gähnende Leere im Portemonnaie 😱... denn ganz billig sind die ja mal eben auch nicht...aber ehrliche Fahne hochgehalten, auch in mancher Situation, den "Euro mehr" wert. 👍

Nichtsdesto(t)rotz (immer so ein Wort, das wie `ne Erkältung und dem Verlangen nach Taschentücher klingt 😁), bin ich persönlich heutzutage allerdings auf dem TG Mastering-Chain unterwegs, wo mich alleine schon der Drive des Tape-EQ aus den Socken gehauen hat. 🤩
 
Oben