Профессиональная звукозапись - очень дорогое удовольствие. Причем, оно было мегадорогим во времена аналогового звука и появления цифрового. Не так давно я смотрел интервью с Дитером Боленом, который рассказал о распаде некогда популярного проекта Modern Talking. Так вот, причиной размолвки стала неимоверная усталость того же Болена, которому приходилось писать по 80 песен, чтобы из них выбрали одну и включили в альбом, то есть пошли записывать на студию. Хороших студий тогда было не так много, некоторые дорогие устройства выпускались только штучно, специалистов высокого класса также было мало, причем сама школа звукорежиссуры только начинала превращаться во что-то действительно серьезное и для обычных людей доступное.
И основным устройством для звукорежиссера того времени был не компьютер, а микшер.
Что такое микшер?
В русскоязычной терминологии есть много непонятного. Например, устройство для смешивания пищи мы называем "миксер", а звуковых сигналов - "микшер", хотя английское написание и произношение одинаково, а именно - "mixer". В принципе, в звуке оно появилось примерно в начале прошлого века, как мы помним, тогда записывалось и транслировалось по радио множество музыкальных коллективов, а основным устройством в студии был микрофон. Со временем стали использовать для записи несколько микрофонов - это удобнее с точки зрения качества. Представьте себе картину, когда в небольшой изолированной комнате собиралась группа с множеством инструментов, и все рассаживались определенным образом вокруг только одного микрофона. Нужно соблюдать и звуковой баланс, а ведь объективно одни инструменты тише, другие - громче. В общем, использовать для записи много микрофонов - лучше. Но сигналы, поступаемые с них, нужно смешивать определенным образом. Для этого изначально использовались простейшие устройства с обыкновенными резисторами с изменяемым (регулируемым) сопротивлением. Каждый такой резистор отвечал за управление уровнем сигнала для определенного канала.
Потом, как вы помните из предыдущих частей, были разработаны и применены относительно к звуковым устройствам фильтры низких и высоких частот (НЧ и ВЧ). Для регулировки в среднем диапазоне появились дополнительные фильтры, выделяющие некую узкую полосу, что может придавать ощущение яркости звучания инструмента и так далее. Они также были включены в микшеры, причем к каждому отдельно взятому каналу.
Параллельно с этим начались разработки электрических эффект-процессоров, таких, как эхо, реверберация, дилэй, флэнджер (все перечисленные относятся к задержке), эквалайзеры и устройства динамической обработки (компрессоры, гейты, лимитеры).
Таким образом, перед разработчиками (хотя, нет, глобальных производителей микшеров тогда, собственно, не было, это больше напоминало экспериментаторов-изобрететелей) стала задача подключения сторонних устройств к микшеру, который к тому времени превратился в так называемое "сердце студии".
И по аналогии с электрическими схемами, такие подключения могут быть двух типов соединений - последовательное (в звуке называется "в разрыв") и параллельное (в звуке это AUX от слова "auxiliary" - добавочный, вспомогательный). Соответственно, все микшеры стали позволять подключаться внешним устройствам обработки сразу по двум типам соединений. Какая между ними разница? В принципе, на современный взгляд, никакой. В обоих случаях сигнал посылается на устройство обработки и забирается с него, только в случае параллельного соединения результаты этой самой обработки смешиваются впоследствии с тем сигналом, который был послан, а при подключении "в разрыв" - нет. Хотя это все очень и очень условно, поскольку практически все современные устройства обладают собственной функцией "Mix", при которой чистый сигнал смешивается с обработанным.
Помимо всего прочего, микшеры стоит рассматривать как сложные коммутационные комплексы. Помимо простых кнопок Mute и Solo, со временем в них появилась возможность коммутаций каналов по подгруппам. Данные подгруппы объединяются по определенному признаку, например, направлены на некую обозначенную акустическую систему либо имеют одну сложную цепь обработки, либо в одну подгруппу входят только микрофонные сигналы вокалов, в другую - ритм-секция и так далее. В общем, даже не имея компьютеров, звукорежиссеры прекрасно автоматизировали студийный процесс, что значительно облегчило их и без того тяжелый труд.
Как устроены компьютерные
программы (звуковой софт)
Звуковые компьютерные программы берут свое начало со студийных устройств 80-х - 90-х. Тогда в студиях использовался микшер, многодорожечный магнитофон, а со временем начали применяться и технологии MIDI, в том числе и для синхронизации. В самих MIDI-устройствах вместо многодорожечных магнитофонов, в силу специфики этого стандарта, выраженной в том, что он подразумевает всего лишь набор цифровых команд, но никак не звуковую информацию, появились так называемые секвенсоры.
Так вот, одни из первых профессиональных компьютерных программ являлись микшерами/многодорожечными магнитофонами и MIDI-секвенсорами заключенными в одном интерфейсе.
Программные эффект-процессоры разрабатывались специальным образом и могли функционировать только в рамках определенного ПО. Тут нельзя не упомянуть еще об одном новом формате программ, появившихся в то время, - звуковых редакторах. Это была на самом деле революция. Ведь звуковую волну можно было увидеть на большом цветном дисплее, редактировать ее при больших масштабных разрешениях и так далее.
Но потом в этом же сегменте произошла не меньшая революция - появились программные плагины (plug-in - дополнительные подключаемые модули).
Что такое хост и плагин?
Хост - это базовая интерфейсная оболочка, являющаяся самодостаточной программой. А плагином можно считать некий алгоритм, выполненный в виде вспомогательного модуля. Второе определение хоста - это программа, к которой подключаются плагины, но оно не так верно, все дело в том, что границы размыты, и сейчас одни плагины могут подключаться в другие, и так до бесконечности.
Если объяснять простыми словами, у каждого такого плагина есть вход и есть выход по типу обычного эффект-процессора. При его подключении в рамках базовой программы она направляет выбранные пользователем звуковые данные на его вход и "снимает" их с выхода в уже обработанном виде. Во время появления первых плагинов (а для Windows платформы это был стандарт DirectX) они не могли работать в режиме реального времени, и в тот период практически все операции были деструктивными, то есть разрушающими звуковые данные. Негласным правилом звукорежиссеров того времени было что-то типа: "Прежде чем что-то сделать или обработать, сто раз подумай". С ростом аппаратных мощностей компьютеров, обработка в реальном времени стала доступной, а звук перестал обрабатываться деструктивно, то есть на вашем винчестере хранится файл в его первозданном виде, а все обработки делаются применительно к его "образу".
Но вернемся к плагинам. DirectX не стал основополагающим стандартом в звуке, потому как на рынок РС-совместимых пришла компания Steinberg, у которой "в загашнике" были две уникальные технологии: ASIO - стандарт драйверов, позволяющий работать практически напрямую со звуковым "железом", VST - стандарт подключаемых модулей, который, в отличие от DirectX, на то время предусматривал управление по MIDI и многоканальность, то есть был более музыкальным. VST было объективно больше произведено, хотя на данный момент основное количество программ поддерживают как VST, так и DirectX.
Кристофер,
christopher@tut.by
Горячие темы