Горячая линия8 800 250 55 00

Современная цифровая звукозапись имеет уже достаточно долгую историю, чтобы вздорных легенд и нелепых верований накопилось немало. Благодаря им гитаристы записывают музыку для гитаристов, а не для людей. Молодые продюсеры собачатся с молодыми артистами по поводу частоты дискретизации проектов в DAW, YouTube-гуру засоряют мозги начинающим музыкантам сказками про необходимость суббаса в каждом треке. В общем, все при деле.

Меж тем как-то упускается из виду, что подавляющее большинство конечных потребителей музыки слушают ее для получения эмоций и на очень хреновой аудио аппаратуре. И что им глубоко наплевать, записывали ли мы гитары в direct input звуковой карты, как лохи; использовали ли мы «профессиональные звуки» синтезаторов или накидали трек из первых попавшихся сэмплов; сводили ли мы в наушниках (боже, какой кошмар) или на мониторах.

Сразу оговоримся: все мифы, обсуждаемые ниже, отчасти могут быть не совсем мифами. В современной цифровой звукозаписи очень мало «запретных» приемов и техник. Наука (единственная инстанция, которой на этой планете можно верить) очень редко изучает воздействие на мозг людей частоты дискретизации аудио файлов, их битрейта, степени компрессии при мастеринге и прочее.

По сути, каждый из нас — людей, создающих музыку — имеет полное право косячить как ему угодно, верить в «деревянную теорию» звучания электрогитар, считать, что «война громкостей» закончилась и т. п. Единственное, что имеет значение — слушает ли наше «перекомпрессированное дерьмо» или «культурно сведенную конфетку» конечный потребитель?

музыкальный гуру

Однако некоторые приемы музыкальной черной магии все-таки стоит подвергать сомнению. Это рационально и избавляет от лишних производственных мук. Итак, поехали…

 

1. Частота дискретизации в проекте должна быть максимальной. Доступно 192 kHz? В ней и надо делать

Ну да, частота дискретизации «отвечает» за то, на сколько виртуальных «столбиков» нарежет аналого-цифровой преобразователь звуковой карты плавную синусоиду входящего аудио-сигнала — вокального, гитарного и любого другого. Якобы это очень важно.

Якобы случился прорыв в потоковом музыкальном вещании: Tidal теперь обеспечивает желающим разрешение до 24 бит/192 кГц; Apple Music ринулась туда же; Qobuz предлагает FLAC 24 бит/192 кГц. Туши свет, мы все делаем неправильно со своими более низкими частотами дискретизации!

Однако вы замучаетесь, особенно в России, искать дистрибьютора, поставлявшего бы ваши треки в стриминговые сервисы в формате 24 бит/192 кГц — это раз. Они в подавляющем большинстве требуют классический CD формат — 16 бит/44,1 кГц. А библиотеки, скажем, продакшн-музыки (они же специализированные лейблы) просят у вас стемы и миксы в 24 бит/48 кГц. И всем нормально (интересно — почему?).

Конечно, некоторые, пока редкие, стриминговые сервисы заходят на поляну аудиофилов — ОК, нормальная рыночная тактика. И доступно повышенное качество обычно только владельцам премиальным аккаунтов.

Но реальные деньги музыкантам, артистам, продюсерам, лейблам приносят вовсе не аудиофилы, а нормальные слушатели, которым музыка поступает в форматах с потерями аудио информации — mp3, AAC, Ogg. И это, почти все-все деньги, потому что аудиофилы с невероятными запросами к качеству составляют ничтожную долю потребителей — это два.

Аудиофил

А вот «три»: если все музыкальные продюсеры настроят в своих DAW частоту дискретизации 192 кГц, то у трех четвертей из них компьютеры перестанут нормально тянуть их проекты. Нагрузка на CPU и оперативную память ляжет непосильная. Потому что мало кто из музыкантов может позволить себе покупку современной двухпроцессорной рабочей станции тысяч за пять евро. И большинство работает на более-менее «офисных» или «игровых» компах.

Соответственно, музыкальные, драматургические и технические возможности продакшна даже при основной частоте дискретизации в 96 кГц резко сокращаются у большинства продюсеров. И ради чего это? Ради ничтожной доли рынка аудиофильского музыкального стриминга?

Вот когда по планете начнет победное (и массовое) шествие какой-нибудь 6G с дикой пропускной способностью передачи данных, когда крутые процессоры, материнские платы, быстрая оперативка и качественные SSD подешевеют настолько, что станут доступны дворовому рэперу — вот тогда и начнем заморачиваться с повышенной частотой дискретизации проектов. А пока это нецелесообразно в рыночном и производственном смысле.

Ну и еще одно соображение. Никакую такую повышенную частоту дискретизации в музыке большинство слушателей не слышит в упор. Потому что для передачи высококачественного аудио им в уши требуется соответствующая высококачественная аппаратура воспроизведения.

А слушают наши треки мало того, что в основном на стримингах (с потерей качества), но еще и на всяких дурацких балалайках. И чаще всего — в дешевых наушниках-затычках, на бюджетных автомобильных аудио системах, на переносных колонках, на мультимедийных компьютерных колонках, на «умных» колонках, которые и стерео-то нормальное выдать не могут, потому что у них динамики расположены в радикально узком объеме…

2. «Война громкостей» закончилась (нет), поэтому не имеет смысла делать сильно компрессированные миксы

Да, Spotify, YouTube, Apple Music, Amazon и другие сервисы автоматически понижают уровень громкости слишком уж яростно звучащих треков. Диапазон понижения — до уровня -16, -14, иногда -9 LUFS (кто во что горазд).

А вот зачем-то заблокированный в РФ Soundcloud — не понижает. И знающие дяди рекомендуют на него выкладывать треки в -7 LUFS. И Яндекс.Музыка, например, не имеет нормализации громкости. И интернет-радио в большинстве своем не включают никакой нормализации на выходной шине. И чё делать? Для каждого сервиса отдельно мастерить трек? Но дистрибьюторы же не предлагают услуги отправки разных вариантов микса на разные стриминги…

Опять-таки включаем собственную рациональность. Во-первых, воспринимаемая громкость микса начинает формироваться уже в процессе аранжировки и предварительного сведения. Это субъективная величина, и на нее влияет много чего. Например, то, завалили ли мы транзиенты в миксе или нет? Достаточно ли «толстыми» мы сделали отдельные инструменты и группы инструментов?

Первоначальная динамическая обработка играет ведущую роль, а мастеринг, вопреки легендам, не может радикально исправить допущенные при сведении ошибки. Это всего лишь финальная полировка.

А во-вторых, поинтересуемся — внимают ли ведущие мировые артисты и их саунд-продюсеры рекомендациям стриминговых сервисов по величинам true peaks и LUFS? Оказывается, неа, не внимают.

Война громкостей 

Возьмем, например, с YouTube официальное аудио песни «Lose Control» товарища Teddy Swims, которая в январе 2024 года торчала в первой десятке Billboard Top-100. Это медленная лирическая композиция — правда, с весьма плотными барабанами.

Пики в фонограмме крутятся около нуля, а вообще-то YouTube-версия показывает даже +0,2 dB — недопустимая, ё-моё, вещь! Должны же были позаботиться звукорежиссеры о запасе громкости, чтобы избежать искажений, которые дает перекодирование в формат с потерей качества? А вот не позаботились.

И показатель Integrated LUFS в этой песне равен -7,6. Ой. А как же «правила» мастеринга под современные стриминговые особенности? Да вот никак — чувак хочет продолжать участвовать в «войне громкостей» и участвует.

Возьмем новую-старую песню The Beatles «Now And Then», выпущенную в 2023 году и высоко взлетевшую в чартах — впервые за последние лет 50 у «битлов», что для давно распавшейся супергруппы очень круто.

В ее фонограмме с пиками все обстоит очень деликатно — запас аж -3,2 dB. А вот Integrated LUFS составляет -12,7. Громковато для Spotify, Apple Music и некоторых других. Тем более, что песня-то совсем лирическая — с группой оркестровых струнных, медленная, грустная.

Выходит, даже Пол МакКартни и Ринго Старр, которым далеко за восемьдесят, берут и довольно плотненько накачивают тихую по замыслу песню. Даже старички не хотят быть проигравшими в «войне громкостей». Видно, за всем этим стоит какая-то логика.

Скорее всего, такая: машинное, огульное, «под одну гребенку» понижение уровня громкости на стриминговых сервисах слабо затрагивает, скажем так, «внутренний» динамический диапазон миксов. И если они хорошо накачаны во время сведения, то все равно субъективно слушаются громче, чем треки, строго подогнанные по LUFS к рекомендациям стриминговых платформ.

Именно поэтому очень многие попсовики, рэперы, рок, дэнс артисты, электронщики стараются выжимать из своих миксов аж -6 LUFS. «Война громкостей» продолжается во всей красе.

3. Широкие миксы — всегда хорошо. Феномен Big mono

Очень, очень нравится современным продюсерам делать миксы с широчайшим стерео. И вот к чему это привело. Обильно используя всевозможные стерео-расширялки, дабл-треки и эффект Хааса на большинстве инструментов, люди мало того, что рискуют насовать в микс фазовые искажения, но еще и обедняют аранжировку, делают ее фактически монофонической. «Как это?» — спросит читатель? А вот как…

Столь много инструментов, включая бас в разнообразной электронике, рэпе и попсе, стало звучать «по бокам головы» слушателя, что стерео сцена во многих треках стала превращается в своего рода «раздвоенное моно». На Западе это стиль сведения стали называть Big mono и другими красноречивыми терминами.

Он, возможно, хорошо работает в каком-нибудь minimal techno, но когда такие приемы бесконтрольно привносят вообще во все жанры, выигрышная техника приводит к художественному проигрышу.

стерео 

Стерео вообще-то существует для того, чтобы построить для слушателя трехмерную (даже с ближним и дальним планами) музыкальную сцену. А это в свою очередь ведет к большему эмоциональному отклику слушателя на фонограмму. Его мозгу интересно ощущать пространственную сложность музыки. Big mono же напрочь разрушает саму концепцию. И, соответственно, уменьшает кайф конечного потребителя.

Все-таки широкое стерео, впрочем как и любую другую специю, стоит применять в сведении умеренно, дозировано и со вкусом.

4. Хорошее сведение в наушниках возможно! Для этого же есть волшебные плагины

Это никакой не стыдный секрет — многие из нас сидят в домашних студиях. И миллионы музыкантов композиторствуют, делают аранжировки и даже премиксы в наушниках. Иначе члены их семей могут посходить с ума от прослушивания многочисленных повторов изготовляемых фонограмм.

Но вот пришедшее из мира электронной музыки верование в то, что трек можно хорошо свести в наушниках — сомнительная штука. Тот факт, что «электроника» — музыка синтетическая, как бы «неестественная», и никто не знает, как она должна звучать (потому что может звучать как угодно, и будет норм) породил убеждение об успешной работе без аудио-мониторов.

Действительно, есть специальные плагины для такого. Например, российский Realphones. И даже доступны у них профили калибровки под конкретные модели мониторных наушников. Можно за отдельные деньги аж персональную калибровку заказать — под свои личные.

Славятся эти решения тем, что позволяют имитировать взаимопроникновение звука из разных каналов в оба уха (как это происходит при нормальном мониторинге), помогают корректировать АЧХ наушников, позволяют «сводить» в виртуальных комнатах известных мировых студий, эмулируют задержки прилета звука от колонок и эхо помещений «в которых стоят мониторы». Некоторые (с применением веб-камеры) могут реагировать на верчение головой.

Realphones плагин

Но все-таки полноценное сведение — прямо вот беловое, финальное с такими плагинами получается лишь у каких-то единичных гениев. Слишком уж велика разница между естественным мониторингом и ушным. И слишком быстро мозг человека привыкает к ненормальной виртуальной сцене.

Нейрофизиологи знают: в нашем черепе работает уйма крутых аудио «процессоров», включая даже биологические аналого-цифровые преобразователи, какие-то загадочные виртуальные эквалайзеры, «выделители» важных звуков из общего шума и т. п.

Мозг адаптируется к любому аудиосигналу за считанные десятки минут. И при микшировании «привыкает» к имеющейся сцене, при этом как бы достраивая до правильной звуковой картины миксы с провалами и ненормальными горбами в АЧХ, плоской пространственной обработкой и даже фазовыми искажениями и неприятными резонансами.

Именно поэтому опытные звукорежиссеры делают перерывы почти каждые полчаса и стараются не заниматься сведением больше 4 часов подряд (а лучше в день). Ибо мозг нас обманывает и приукрашивает имеющийся музыкальный материал.

Нам трудно адекватно воспринимать параметры микса даже после получаса работы на хороших аудио-мониторах. Что уж говорить о попытках сведения в наушниках!

Специализированные плагины для микширования в наушниках скорее помогают не очень сильно косячить во время аранжировки и премикса, и этим они хороши. Но рассчитывать на них при финальном сведении, особенно оркестровой музыки и вообще музыки с обилием живых инструментов — очень рискованное решение.

Продолжение следует…

Владимир Лакодин

Подпишитесь на наш канал:
Нас уже более 240 000
Читайте также:
Все статьи
Товары по теме