…i tak w nawiązaniu do części 1 z poprzedniego tygodnia…nadchodzi COVID 19 i branża koncertowa zatrzymuje się gwałtownie…wchodzi era transmisji koncertów online.
TRANSMISJA
W przypadku transmisji, czyli miksu żywego wykonania muzyki na potrzeby odtworzenia go później przez radio odbiorniki, telewizory czy sprzęty hi-fi, jednym z najważniejszych czynników jest wiarygodność odwzorowania sceny dźwiękowej.
Z jednej strony mamy tu do czynienia z warunkami koncertu live – na scenie są instrumentaliści, często równocześnie z dźwiękiem transmitowany jest obraz z kamery skierowanej na scenę, więc dostosowujemy się do warunków wizualnego show jak z telewizji, albo wręcz do prawdziwej komercyjnej telewizji 🙂
Pojawiają sie zatem problemy związane z przesłuchami i z faktem, ze błędów nie jesteśmy w stanie poprawić i zatuszować, jeżeli nie wyłapaliśmy ich i nie usunęliśmy ich w czasie próby przed transmisją.
Zatem w przypadku transmisji spotykają się nam dwa światy – lajwowy i studyjny.
Z jednej strony, chcemy przekazać jak jest na prawdę na tej scenie i widowni, jakby słuchacz siedział w pierwszym rzędzie sali koncertowej.
Z drugiej strony, używamy całe spektrum narzędzi stricte studyjnych i mamy nieograniczone możliwości kreowania przestrzeni i plastycznego modyfikowania dźwięku.
Na końcu zaś, docieramy do ściany limitera transmisyjnego – nie wolno nam przekroczyć określonych przez nadawcę parametrów głośności dźwięku, zgodności z mono i korelacji fazowej źródeł.
Największym błędem w mojej ocenie i również przyznaje to wspomniany Michał Mika, właściciel wozu transmisyjnego – jest to, że realizator nie izoluje się od dźwięków nagłośnienia koncertu.
Liczymy na możliwości tłumienia słuchawek i zakładamy, że to wystarczy nam aby równocześnie nagłośnić salkę dla prezesa i zarządu i zrobić świetny dźwięk dla potrzeb transmisji…oj jak srogo myli się 99% realizatorów.
Tak, wiem że najczęściej tak właśnie wygląda zamówienie i takie warunki są kontraktowane, jako realizatorzy rzadko mamy wpływ na ustalenia, ale ja nie piszę o tym jak jest, tylko jak być powinno.
Dlatego właśnie powstają wozy transmisyjne.
Telewizja od lat pracuje w takim standardzie.
Wóz na potrzeby transmisji dźwięku z koncertu ustawiany jest możliwie najdalej od aparatury nagłośnieniowej.
W nowoczesnych wozach stosuje się transmisję za pomocą sieci optocore, co pozwala nam przesyłać sygnał cyfrowy wręcz na kilometrowe odległości, nie jesteśmy już przykuci do sceny czy budynku koncertu.
W czasach techniki analogowej byliśmy ograniczeni czystą fizyką – sygnał audio w żyle miedzianej można wysłać na odległość około 100 metrów, później wytworzony przez reaktancję filtr górnoprzepustowy zacznie zjadać nam góry pasma dźwięku.
Im dłuższy przewód, tym więcej góry zostaje stłumione i obniża się też częstotliwość odcięcia.
Wóz transmisyjny zapewnia nam całe wyposażenie jakie możemy spotkać w studiu nagraniowym – wysokiej klasy mikser z możliwie najlepszymi preampami i konwerterami, mamy możliwość rozszywać tory na zewnętrzne urządzenia pogłosowe najwyższej klasy, których nie mamy ochoty targać na koncerty live w piachu, wilgoci i komicznym upale i następnie siermiężnym mrozie niszczącym zasilacze i całą wewnętrzną elektronikę.
Wóz jest ogrzewany, można w nim komfortowo zasiąść w fotelu, odsłuchać źródła na wysokiej klasy monitorach studyjnych.
Dzięki komfortowy warunkom mamy okazję usłyszeć dokładnie przesłuchy z każdego mikrofonu i zdecydować, czy są one dla nas częścią obrazu i charakteru live danego koncertu, czy stają się one dla nas problemem i powinniśmy poprosić technika w trakcie próby o skorygowanie wysokości czy kąta ustawienia mikrofonu względem zbieranego źródła.
Mamy możliwość stosować kompresje równoległe choćby za pomocą zewnętrznych serwerów pluginów…tak na live też można, ale z powodu wspomnianego wielokrotnego spinania i rozpinania za każdym razem aparatury, w końcu nadejdzie dzień kiedy coś nie zadziała, czy to kabel, czy złącze , czy software głupiejący pod wpływem falującego zasilania zacznie wywalać błędy.
W wozie ze stabilizacją napięcia i najczęściej zupełnie osobnym przyłączem energetycznym od nagłośnienia takie falowania są rzadkością, więc cała elektronika działa dużo lepiej i pewniej.
Chociaż brzmi to jak reklama, to Michał nie płaci mi za nią i nie zamawiał artykułu sponsorowanego 🙂 Zwyczajnie jestem pod wrażeniem jego mobilnego studyjka i posłużyło mi jedynie jako przykład.
Jeżeli jednak musimy realizować transmisję nie za pomocą wozu, wtedy dobrze jest uprzeć się na osobne pomieszczenie – miejsce akustycznie odseparowane od sali koncertu.
Powinniśmy użyć wysokiej klasy odsłuchów studyjnych, a nie odsłuchów podłogowych wetkniętych na statyw.
Monitory powinny być dodatkowo skorygowane do danego pomieszczenia za pomocą programów typu Sonarworks, który seeeeeerdecznie polecam każdemu nawet do domowego studia.
Liczenie na jakość reprodukcji obrazu dźwiękowego z koaksjalnego monitora podłogowego jest żartem samym w sobie, nawet jeżeli jest to najwyższej klasy monitor podłogowy firmy na D, albo na M, a nawet na L 🙂
Te głośniki nie zostały zaprojektowane do tworzenia idealnego obrazu stereofonii i reprodukcji wysokich harmonicznych dźwięku z najmniejszymi możliwymi zniekształceniami, tylko do napier***nia stopą w twarz basisty….że tak prostacko pozwolę sobie to skwitować.
Słuchawki są drugą najgorszą w kolejności alternatywą.
Jeżeli potrafisz dobrze zmiksować nagranie za pomocą słuchawek, to jesteś albo DJ-em, który oszukuje sam siebie, albo jesteś wyjątkiem w świecie pro audio, wyjątkiem na skalę Andrew Scheps’a . Oczywiście że się da, ale mało kto potrafi na prawdę dobrze to zrobić.
W większości miksów wykonanych na słuchawkach kuleje szerokość bazy stereo, kuleje umiejętne rozmycie efektów w miksie, efekty najczęściej są siermiężne i dosadnie słyszalne, a korekcje przesadzone. Brakuje blasku w górze pasma, bo słuchawki kłują w bębenek i dlatego staramy się górki raczej ściemniać, przez co potem na głośnikach oddalonych o kilka metrów od głowy jej właśnie brakuje, albo jest karykaturalna, zależnie od niedoskonałości słuchawek – coś zapiszczy i coś zaświszczy, ale cała reszta jest ogólnie zmulona.
W słuchawkach bardzo szybko doświadczamy zmęczenia słuchu, więc jakość naszego miksu spada wraz z kolejnymi godzinami pracy, a przecież gwiazda wieczoru gra zawsze na końcu programu artystycznego.
Słowem – jeżeli chcesz zrobić dobrą transmisję, to musisz zacząć od dobrych warunków pracy i dobrego sprzętu.
Nie musi to być sprzęt warty miliony monet, mogą to być średniej klasy monitory studyjne, jednak ustawione razem z mikserem w osobnym pomieszczeniu i dostosowane do warunków akustycznych danego miejsca.
Tylko w taki sposób usłyszysz problemy w transmitowanym materiale i będziesz mógł korygować te błędy u źródła.
Jeżeli nie słyszysz, nie możesz zareagować – proste jak 2+2=7.
Jeżeli chcesz być dobrym realizatorem transmisji, warto ćwiczyć możliwie wiele zabiegów studyjnych.
Najbardziej na początku powinieneś skupić się na 3 aspektach – equalizacja, kompresja i efekty.
Equalizacja stosowana do celów studyjnych i transmisyjnych często różniła się w porównaniu z tym do czego przywykłem w świecie live, sa to oczywiście moje refleksje, którymi się dzielę, nie musisz się z nimi zgadzać, każdy ma swoją drogę i swoje patenty – rozlicza nas efekt pracy.
w swoich produkcjach nie wykonuję na przykład mocnego cięcia w okolicach 120 Hz na stopie perkusyjnej, za to często koryguję szerokim łukiem gdzieś w okolicach 250-300 Hz.
Wydaje mi się, że wynika to z faktu, że systemie nagłośnieniowym stopa przypada nam gdzieś na granicę podziału top/subbasy i ten zakres staje się wrażliwy dla odbioru faktury dźwięku i jego energii, jest zależny od wielkości zastosowanych głośników w modułach górnoprzepustowych itd…zwykle ta korekta 120 Hz pozwalała uzyskać masywny dół płynący na klatkę piersiową i jelita z subbasów oraz precyzyjne tąpniecie z głośników tzw. „górek”.
Na transmisji nie mamy żadnych podziałów..to znaczy oczywiście są wewnątrz głośników, ale my nie walczymy tutaj o energię, tylko o pełną klarowność i zachowanie ciągłości pasma słyszalnego.
Dźwięk odtwarzany jest z kilkadziesiąt razy mniejszymi poziomami i ma dać nam wyłącznie odczucia estetyczne, a nie namacalne uderzenie fali dźwiękowej.
To tylko jeden z przykładów różnic w equalizacji instrumentów, a gdzie tam rozważanie konfliktu wokal vs przesterowane gitary elektryczne czy gitara basowa vs dolne rejestry klawiszy Hammonda…no słowem setki ruchów do ogarnięcia.
Najważniejsze jest uświadomienie sobie tego problemu i odpowiednie zadziałanie.
Stosowanie ustawień EQ wprost z Twoich przyzwyczajeń koncertowych live sugeruję bardzo uważnie przeanalizować i posłuchać rezultatu w odniesieniu do płyt CD ulubionego artysty, chyba że chcesz się czarować i jest ci obojętne jaki będzie końcowy rezultat.
Druga seria różnic live vs transmisja (w mojej ocenie ) to kompresja sygnałów.
O ile w świecie live stosuje się jedną solidną kompresję i jej niedoskonałości najczęściej maskuje akustyka pomieszczenia, o tyle na transmisji precyzja ustawienia kompresora to sztuka sama w sobie. Pierwsza rzecz, na która powinieneś zwrócić uwagę, to parametr attack – coś na co często nieszczególnie zwraca się uwagę „na żywo”.
Czas zadziałania i release są w przypadku studia i transmisji ważniejsze niż sam współczynnik kompresji, nieśmiało pozwalam sobie wysunąć taką tezę.
To oczywiście moja refleksja, sam musisz przetestować i wysłyszeć te różnice.
Odpowiednie zgranie attack vs release pozycjonuje nam instrument w przestrzeni, a ratio przytrzymuje nam dynamikę w założonej scenie dźwiękowej.
Dlatego najpierw zwracamy uwagę na attack i release, a to, o ile decybeli będzie nam kompresowało, jest sprawą wtórną – do skontrolowania na końcu ustawień.
Dzieje się tak ponieważ od początku jesteśmy gotowi na kompresję wielopoziomową, czyli wiemy że będziemy kompresowali wiele razy na dalszej drodze sygnału.
Czasami stosuje się dwa kompresory po sobie – jeden wyłapuje nam szybkie transjenty, a drugi powoduje nam swobodne falowanie wyjścia.
Następnie sygnał trafia do szyny BUSS, w której ujednolicamy wszystkie brzmienia razem – kilku wokalistów, albo cały zestaw perkusyjny.
Kompresja na sumie ma za zadanie skleić nam wszystkie osobno procesowane źródła.
Na końcu łańcucha trafiamy do szyny wyjściowej (masteringowej), gdzie wszystkie instrumenty sklejają się ze sobą.
Na wszystkich tych stadiach niesamowicie ważne jest odpowiednie ustawienie attack i release, a ratio pozwala nam ustalić proporcje kompresji po urządzeniu.
Dodatkowo dochodzą gałki „MIX” , dzięki którym mieszamy na wyjściu kompresora ilość sygnału bez procesingu do ilości skompresowanego.
Jest to wspominana kompresja równoległa, nie każdy plugin czy procesor na to pozwala, jeżeli nie ma takiej możliwości, to stosujemy szyny AUX lub BUSS – rożnie nazywane w rożnych DAW-ach.
Dzięki temu utrzymujemy pewną rozpiętość dynamiczną, czyli kiedy potrzebny jest cios, pojawi się on z nieprocesowanego łańcucha, natomiast procesowany kompresowany łańcuch dostarcza nam stabilnego poziomu RMS. Nasze bębny na przykład nie będą raz się pojawiać i za chwilę znikać, tylko będą siedziały w miejscu dzięki łańcuchowi skompresowanemu, a pływały dynamicznie (będą miały oddech) dzięki temu nieskompresowanemu. Gałką mix regulujemy proporcję między dynamiką a stabilnością instrumentu w miksie.
Trzeci wymiar jakości dźwięku w transmisji to efekty przestrzenne.
W przypadku live chcemy, aby były one słyszalne.
Dają nam parametr przestrzenności całego obrazu muzycznego.
Musimy mieć świadomość, że w przypadku dużego koncertu plenerowego sygnał stereo zachowuje swoje zgodność działania tylko dla ok. 5% publiczności stojącej w centrum, w osi sceny.
Cała reszta otrzymuje sygnał quazi stereofoniczny lub całkowicie monofoniczny, z grona głośnikowego wiszącego na wprost twarzy słuchacza.
Z tego powodu wrażenia przestrzeni pochodzące z samej natury fazowania stereofonicznej źródeł lewego i prawego są niedostępne dla zdecydowanej większości słuchaczy.
Tu z pomocą przychodzą nam reverby i delay-e.
Reverb daje nam wrażenie umiejscowienia instrumentu w przestrzeni akustycznej (pokój, salon, korytarz, hala, kościół), zamiast brzmienia suchego prosto z papieru membrany, jakbyśmy stanęli twarzą przy samym głośniku.
Mikrofony przystawiamy najbliżej źródła dlatego, że staramy się minimalizować przesłuchy z innych instrumentów…taka gra – żeby było mniej, a potem żeby było więcej, chociaż sztucznie wytworzona ta przestrzeń.
Do tego możemy posługiwać się efektem delay – jego opóźnienia w kolejnych odbiciach dają nam nawet w monofonicznym sygnale wrażenie przestrzenności. Chociaż nie pochodzi ona z rożnych kierunków, tylko z opóźnień czasowych tych odbić.
Stąd nawet w przypadku monofonicznej reprodukcji mamy możliwość wytworzenia pewnych sztucznych przestrzeni, słyszalnych i tym samym ubogacających obraz dźwiękowy.
A teraz zastanówmy się, co dzieje się na transmisji czy w studio.
Mamy do czynienia ze słuchaczem w słuchawkach lub na kanapie przed telewizorem.
W 99,99% przypadków osoba ta znajduje się w środku obrazu stereo.
Uzyskujemy naturalną przestrzeń i naszym zadaniem nie jest sztuczne nachalne jej wytwarzanie, ale tylko dodanie jej smaku.
Najprościej powiedział bym tak – jeżeli na live chcemy, żeby efekty były słyszalne, to w studio czy na transmisji staramy się, żeby one były niesłyszalne.
Powinniśmy usłyszeć ich brak dopiero w momencie zamutowania maszyn efektowych.
Oczywiście pomijam tu świadomy zabieg artystyczny, kiedy chcemy wytworzyć określone brzmienia, np. spring reverb na gitarze.
Opisuję tutaj uprzestrzennienie dotyczące samego miksu, całości instrumentarium, czyli miksu muzycznego zespołu.
Mam nadzieję, że nakreśliłem wyraźnie różnice pomiędzy live a transmisją.
A na koniec studio vs transmisja.
W tych dwóch scenariuszach sprawa wydaje się podobna do momentu wypuszczania sygnału na nośnik dźwięku.
W przypadku nagrań mamy proces masteringu, który ma za zadanie wygładzić miks i dostosować parametry techniczne pliku do nośnika – czy to tłoczone CD 16bitów/44.1 kHz próbkowania, czy to streaming typu Spotify czyli 24 bity/44.1 kHz lub 48 kHz, z zachowaniem bezpiecznego poziomy peak, zwykle -0,3 dB i głośnością LUFS wahającą się w okolicy -14 dB do -10 dB.
W przypadku transmisji, wysyłamy strumień w danym formacie, np. stereo z głośnością określona przez nadawcę.
Telewizornie zwykle przyjmują -23 dB LUFS, streamingi między -14 dB a -20 dB LUFS, ale to zależy wszystko od danego nadawcy, z jakiego sprzętu korzysta i jakie poziomy przyjmuje i jak potem ewentualnie obrabia sygnał. Telewizja komercyjna, telewizja osiedlowa, a telewizja YouTubowa to kompletnie różne światy, sprzęt i wymagania.
Ciekawą odpowiedź dał Michał w związku z popularnym w studio zwyczajem dotyczącym alternatywnego odsłuchu.
O ile ta praktyka jest powszechnie stosowana w studiach nagraniowych, gdzie co kilkadziesiąt minut realizator przełącza sobie głośniki, żeby złapać nową perspektywę. Najczęściej z monitorów dużych na małe i potem za jakiś czas wraca do głównej pary.
Michał uważa z doświadczenia, że w przypadku transmisji nie zauważył takiej potrzeby ani też nie zgłaszali jej wynajęci realizatorzy. Wszyscy korzystali wyłącznie z jednego rodzaju odsłuchu.
Jeżeli coś brzmi dobrze na wysokiej klasy odsłuchach w wozie, to będzie brzmiało dobrze na wszystkim tym, na czym dźwięk zostanie odtworzony, ponieważ ostateczna jakość odbioru będzie już spoczywała na urządzeniu końcowym w domu każdego słuchacza.
Nie ma sensu kontrolować jak coś zabrzmi na głośniczku telewizora, czy na małym szczekaczu…tam będzie brzmiało jak na małym szczekaczu albo głośniku telewizora.
Słuszność tej tezy potwierdzają realizatorzy masteringowi np. Bob Katz, który w jednym z wywiadów mówił o tym, ze on nie potrzebuje kilku różnych głośników, on pracuje na jednym zestawie głośników, które doskonale zna.
Jeżeli coś dobrze zabrzmi na tym komplecie, to wszędzie indziej zabrzmi dobrze na miarę odtwarzającego sprzętu.
Jedyne co pozostaje w tym temacie rozważyć, to osobiste preferencje realizatora – być może komuś wygodniej będzie pracowało się ze zmianami perspektywy, ale to już inny temat i indywidualne podejście do sprawy.
RADIO
No i tu nie będę się wymądrzał, ponieważ moje doświadczenie pochodzi wyłącznie z obserwacji kolegów przy pracy i z rozmów z nimi.
Zachęcam do opisania swoich doświadczeń w komentarzach, jeżeli miałeś okazję popracować w radio.
Zauważyłem mianowicie, że priorytetem jest warstwa informacyjna, czyli nie do końca zwraca się uwagę jak coś brzmi, ale dużo ważniejsze jest czy wyraźnie słychać dane partie.
W radiu na ostatnim etapie emisji zazwyczaj jest wpięty zaawansowany procesor wielopasmowy, który w dość radykalny sposób reguluje natężenie pasm, aby maksymalnie wykorzystać energię transmitowanej fali do eteru.
Jeżeli słuchaliście kiedyś nagrań muzyki eksperymentalnej, puszczanych na antenie radia, zwykle późnym wieczorem, to mogliście doświadczyć często różnych dziwacznych zachowań odsłuchu – a to nagle coś wyskakuje i za chwilę ścisza się, a to pływa, a to pompuje…to właśnie radykalne działanie kompresorów pasmowych, pod które przygotowuje się tzw. „readio edit” miks i mastering utworu komercyjnego. Wtedy nie ma tak gwałtownych soków poziomów, dzięki czemu te profesjonalne produkcje brzmią równo i wyraźnie.
Różnica ujawnia się w nieprofesjonalnych produkcjach, gdzie te procesory emisyjne głupieją.
Z wywiadów z realizatorami miksu i masteringu komercyjnych hitów zagranicznych artystów dowiedziałem się, że czasami do radia wysyła się wersję z większą ilością wokalu, niż w miksach które fizycznie lądują na płycie czy w streamingu.
Dzieje się tak dlatego, że przy prasowaniu całego materiału kompresory reagują na wszystko co wystaje ponad zadany poziom i stapiają to razem z resztą materiału.
Kiedy partia wokalu wystaje nieco ponad, wtedy po sprasowaniu mamy ciągle bardzo mocno wyeksponowany wokal, wciśnięty w instrumentarium.
Gdybyśmy nie zrobili takiego zabiegu, mogło by się okazać, że gitary grające w podobnym paśmie częstotliwościowym, mające większą dynamikę i wyskakujące nieco z miksu, zostaną zrównane z poziomem wokalu i tym samym jakby wokal zostanie wtłoczony w głąb miksu.
Oczywiście mówimy tutaj o niewielkich różnicach rzędu 1 dB więcej wokalu, praktycznie ten miks jest ciągle dobrze brzmiącym miksem na sprzęcie Hi-Fi, jednak te 1 dB czy 1,5 dB dają nam ostateczny szlif profesjonalnych komercyjnych produkcji, w których wokal pozostaje zawsze na wierzchu.
I tu wracamy do miksu radiowego – wokal i tekst jest najważniejszy.
Praca realizatora opiera się o warunki studyjne, odsłuchy są takie same jak stosuje się w studiach nagraniowych.
Jego praca oczywiście polega na nieco innych zabiegach, na przykład wycinanie yyyyyyyyy z wywiadów, naprawianie problemów technicznych w zarejestrowanym materiale, walka z odgłosami ulicy w tle i tym podobne zabiegi edycyjne.
Natomiast bezpośredni ona emisji jest to praca w reżimie czasowym – wszystkie audycje i bloki muszą zgadzać się co do sekundy.
Emisja reklamy w prime time kosztuje kilka, kilkadziesiąt tysięcy za jednokrotne odtworzenie. Wyobraź sobie, że reporter czy realizator zagapił się i zamiast uruchomić blok reklam, dalej leci sobie w najlepsze gadanie czy muzyka z płyty CD….nie da się tego w skali dnia odzyskać, a radio zaczyna tracić ogromne pieniądze za tak prozaiczny błąd.
Praktycznie na emisji nie ma miejsca na pomyłkę.
Nawet jeżeli coś nie jest idealne, to musi zostać uruchomione na czas.
Edytowane pliki muszą trafić na antenę na czas i mieć jakość emisyjną – musi być słychać przekaz słowny, żeby słuchacz nie musiał domyślać się o co chodzi reporterowi.
Tyle jako laik mogę się wypowiedzieć po rozmowach z kolegami ze studiów, którzy dziś pracują w radio, zarówno na edycji jak i emisji.
PODSUMOWANIE
W większości omawiane zagadnienia sprowadzały się do różnic, jakie występują przy samym miksie i późniejszej emisji materiału.
Jeżeli naszym nośnikiem muzyki jest potężny system dźwiękowy na koncercie plenerowym, mamy do dyspozycji ogromne moce aparatury i ogromny zasób rozpiętości dynamicznej, z której chcemy czerpać pełnymi garściami.
Można spierać się o pewnego rodzaju założenia estetyczne, ale umówmy się…koncert nie powinien brzmieć jak płyta nagrana w studio, ludzie mogą sobie posłuchać płyty w domu.
Koncert powinien dawać kopa energetycznego, chcemy poczuć ciężar fali uderzeniowej płynącej z mocy potężnych głośników subbasowych.
Wokalista ma nam przekazać doznania od szeptów po krzyk przeszywający nasze ciało – to daje nam właśnie rozpiętość dynamiczna systemu nagłośnieniowego.
Od płyty wymagamy wydobycia wszelkich detali nagrania, dlatego staramy się rejestrować dźwięk na najwyższej klasy przedwzmacniaczach, stosować najwyższej jakości przetworniki AD (analog to digital) i później kolejne ślady obrobić w taki sposób, aby poszczególne instrumenty idealnie ze sobą współgrały i uzupełniały się w zakresie pasm słyszalnych. Staramy się, aby nie odbierały energii żadnemu z nich poprzez wyskakiwanie przed szereg skrupulatnie poukładanych planów dźwiękowych. Do tego służy nam wielokrotna kompresja śladów, grup, kompresja równoległa, a następnie kompresja masteringowa i ostateczny limiting zabezpieczający nas przed choćby jednym jedynym przekroczeniem poziomów sygnału, który w rezultacie da nam nieprzyjemne trzaski i innego typu zniekształcenia, związane z procesem obcinania szczytów przez cyfrowy przetwornik.
W transmisji ogromną wagę przykłada się do precyzyjnego mierzenia parametrów dźwięku – produkt finalny musi podlegać bardzo precyzyjnym normom emisyjnym, dzięki którym mamy pewność, że dalej obrabiany sygnał nie zostanie zmasakrowany przez procesor emisyjny składający dźwięk z obrazem.
Musimy też pamiętać o odbiorcach, którzy ciągle jeszcze używają odbiorników monofonicznych.
Zbyt mocne zakochanie się we wszelkiego typu korekcjach MS czy efektach przestrzennych, może doprowadzić do braku zgodności materiału STEREO vs MONO.
Może się okazać, że skrajnie panoramowane gitary z dodatkowymi przestrzennymi efektami znikają nam w obrazie MONO, dla części słuchaczy albo nie będą wyraźnie słyszalne, albo zupełnie gdzieś znikną w wyniku zakłóceń fazowych.
Tym zjawiskiem nieszczególnie przejmujemy się przy produkcjach live, ponieważ wysyłamy dźwięk do jednego systemu stereofonicznego, a monofoniczne dogłośnienia stref możemy w różny sposób konfigurować, składając czy to poszczególne kanały czy sumy miksów…jak kto sobie wymyśli i opracuje.
I na koniec rada praktyczna.
Warto zdobyć doświadczenie w każdym z tych obszarów, żeby choć kilka razy mieć możliwość weryfikacji swoich teorii na temat dźwięku i wszystkich zabiegów, które wydają się oczywistą oczywistością, w których czujemy się pewni i doświadczeni…dopóki nie przychodzi nam zmagać się z innym rodzajem odbioru naszego efektu.
Piszę to w czasach pandemii COVID 19, jest to idealny moment, aby z nagłośnieniowca czy studyjniaka pójść zrobić kilka transmisji, a potem w domu odsłuchać efektów swojej pracy i porównać się do guru danej specjalności.
Następnie uczciwe ocenić nasze rezultaty, braki, niedoskonałości, spisać na kartce i opracować plan stopniowego usuwania tych braków.
Gwarantuję, że przyda się to we wszystkich innych scenariuszach, ponieważ od znakomitego malarza nie oczekuje się „po prostu namalowania tego co widzi”, ale wydobycia głębi z obrazu, który uwiecznia, za pomocą gry cieni, mieszania kolorów i utrwalenia jakiejś magicznej przestrzeni zawartej w świecie żywych osób i martwych przedmiotów.
Maluj dźwiękiem, nikomu nie chodzi tylko o to, żeby usłyszeć, że coś gra.
Wszyscy szukamy w muzyce namiastki duchowego świata, boskiej iskry zawartej w przekazie energetycznym płynącym ze sceny, głośników Hi-Fi, Hi-END czy innych „HI” soundbarów do telewizora/radia.
Muzyka to odbiór emocjonalny i duchowy, a nie detekcja i interpretacja fal.
Powodzenia !
P.S.
Jak zwykle – przestrzeń komentarzy jest przygotowana specjalnie dla Was.