C20150213 4 6

Page 1

커뮤니케이션이해총서

음향 기기 역사 김윤철

대한민국, 서울, 커뮤니케이션북스, 2013


음향 장비의 발전과 다양한 활용

소리의 저장 그리스신화에는 새벽의 여신 에오스(Eos)에 관한 이야기 가 나온다. 에오스 여신은 트로이 왕자였던 티토누스 (Tithonus)와 결혼해 두 아들을 두었는데, 작은 아들이 에 티오피아의 왕이 된 멤논이었다. 멤논은 주변국과 전쟁에 서 탁월한 능력을 발휘해 세력을 키웠고, 트로이 전쟁 때 트로이의 왕자 헥토르가 그리스의 영웅 아킬레스에게 죽 임을 당한 후, 자기 아버지의 고국인 트로이를 돕고자 전 쟁에 참가했다. 트로이 진영에서 용감히 싸웠으나 그 역 시 아킬레스에게 죽임을 당하고 마는데, 그의 죽음을 슬퍼 하는 에오스를 보고 신들의 왕 제우스가 멤논을 다시 살려 냈다는 내용이 있다(브리태니커 온라인, 2012). 다시 살아 난 멤논은 아프리카 북부에 거주했다고 한다. 이집트에 테베 근처 왕실 무덤군인 네크로폴리스의 입구에 멤논의 신상이 있는데, 이곳에서 새벽마다 동일한 시간에 동일한 소리가 난다고 해, 멤논이 어머니인 새벽의 여신에게 하프 소리를 저장해 들려주는 것이라고 전해졌다. 하지만 이

v


석상은 199년 로마의 황제 셉티무스 세르베루스(Septimus Severus)에 의해 보수되었으며 그 후 더 이상 소리가 들리 지 않는다고 한다. 이 소리가 진짜 하프 소리를 녹음한 것 인지, 에올리안(그리스 바람의신, Aeolus)의 하프처럼 특 정 음악 패턴이 바람에 반응해 소리를 내는 장치였는지, 아니면 새벽마다 기온 차이 때문에 석상에서 소리가 나는 것이 와전되었는지는 타임머신을 발명해 고대로 돌아가 기 전까지는 증명할 방법이 없다. 이 외에 소리를 저장하려는 참으로 가상한 노력들이 문 헌에 남아있다. 막대 유리관 속에 말을 한 뒤 마개로 막아 놓았다가 마개를 열어 들어 본다던지, 추운 겨울에 얼린 소리가 봄이 되어 따뜻해지면 녹아서 소리가 들리길 바라 던지 하는 것들이다. 이토록 소리에 대한 무지가 유지된 이유는 소리에 대한 연구가 근세 전까지 과학의 일부로 자 리 잡지 못했기 때문이다. 음향학이란 말도 18세기 초반 에 갈릴레오 갈릴레이의 부친인 빈센초 갈릴레이, 케플러, 베이컨, 데카르트 등의 영향을 받아 프랑스의 조셉 소뵈를 이 만들었다(Chanon, 1995). 소리를 기록하고 재생하는 이보다 더 과학적인 노력은 여러 가지 결과물을 배출한다. 그중 하나는 오르골(orgel 의 일본식발음)로 미국에서 뮤직박스(music box)라고 부

vi


르고, 한자로 자명금(自鳴琴)이라 칭한다. 오르골은 음악 을 자동으로 연주하는 기기로 소리를 기록하는 녹음기라 고는 볼 수 없으나, 초창기 손으로 돌리던 모델에서 태엽 을 감아 재생하는 모델로 발전했고, 디스크나 천공카드를 삽입해 곡을 바꿔가며 들을 수 있는 모델도 생겨났다. 14세기 유럽에서 시계탑(<그림 1>)에 설치했던 정시마다 인형과 함께 나와 멜로디를 들려주는 장치에서 발달한 오 르골은 소형화 노력 끝에 18세기 말 스위스의 시계 제작자 앤투안 파브레(Antoine Favre)가 성공시켰고, 시계공방 이 발달한 스위스에서 계속해서 발전했다. 하지만 제 2차 세계대전 전후로 스위스 오르골 회사들은 시계, 타자기, 영화 촬영기 사업으로 전환했고, 2차 세계대전 후 오르골 산업은 스위스에서 일본으로 옮겨졌다. 오르골과 유사하게 사전 제작된 장치로 음악을 재생하는 기기에는 롤러 오르간(roller organ, 혹은 barrel organ이라 고도 함), 플레이어 피아노 등이 더 있으나, 이들은 정해진 곡만 자동으로 재생하는 장치로 녹음을 하는 기계는 아니었 다. 이들의 발전에 영향 받은 에디슨의 축음기가 소개되면 서 비로소 실제 소리를 저장하는 장치가 탄생하게 된다. 이후 소리에 관한 장비들이 벨의 전화기와 에디슨의 축 음기(이 두 인물이 전화기와 축음기의 최초 발명가가 아

vii


<그림 1> 프라하 구시청사에 걸려 있는 천문시계탑. 1490년 하누슈 라는 시계공이 제작

viii


니란 흔적이 많지만, 적어도 각각의 특허권은 공식적으로 이 두 발명가가 소유했다)를 필두로 음악, 영화, 라디오, 공연, TV 등의 발달과 동반해 발전했다.

시그널 플로 <그림 2> 시그널 플로 이펙터 마이크 파워앰프

스피커

믹싱콘솔

라인

녹음기

위 그림을 신호 흐름 또는 시그널 플로(signal flow)라 하 는데, 소리가 발생한 후 마이크로폰을 통해 믹싱콘솔로 들 어가서 파워앰프를 거쳐 스피커를 통해 나와서 사람의 귀 로 들어가거나, 이펙트 프로세서를 거쳐 변조되거나, 녹음 기에 저장되는 흐름을 나타낸다. 이는 PA(Public Address),

ix


녹음 스튜디오, 포스트프로덕션 스튜디오, 방송국 등을 비 롯한 모든 음향 분야에서 규모나 질의 차이는 있지만 어느 분야이건 적용되는 음향 신호의 흐름이다. 소리의 종류는 분류하는 기준에 따라 여러 방법으로 나 눌 수 있다. 소리의 높낮이 기준으로 보면 고음과 저음으 로, 소리를 구성하는 파형의 조합 방식에 의해 순음(pure tone), 복합음(complex sound), 또는 소음(noise)로 구분 할 수도 있다. 하지만 음향 장비 기준으로 보면 모든 소리 는 두 가지 종류로 존재한다. 바로 어쿠스틱한 소리와 전 기적인 소리다. 즉, 소리를 만들어 내는 소스(source)가 전기적이냐 음향적이냐, 쉽게 생각해서 어떤 소리를 내기 위해 전기가 필요한가 아닌가를 생각하면 된다. 예를 들 어 사람의 목소리나 어쿠스틱 기타, 바이올린, 피아노 등 의 어쿠스틱 악기들은 전기와 상관없이 소리를 만드는 어 쿠스틱 소스다. 반면에 일렉기타, 일렉피아노 등과 같은 전자 악기들이나 CD플레이어, 라디오 등은 전기를 사용 하지 않으면 소리를 만들 수 없는 전기적인 소리다. 시그널 플로의 시작은 이 소리의 소스를 구분하는 데서 시작한다. 음향 장비는 전기적인 신호로 서로 소통하기 때문에 전기적 소스를 갖는 소리는 상관없으나 어쿠스틱 소스를 갖는 소리는 전기적인 소리로 바꾸어 주어야 장비

x


들이 서로 소통할 수 있으며, 이 일을 하는 장비가 바로 마 이크로폰(microphone, 2장 참조)이다. 사람의 목소리나 어쿠스틱기타 소리는 마이크로폰을 통해 전기적 신호로 변환되어야만 다음 몇 단계를 거쳐 저장(녹음)되거나 확 성될 수 있다. 이 두 가지 소스 중 어쿠스틱 소리는 반드시 마이크로폰을 거쳐야 하기 때문에 마이크로폰 레벨 신호 또는 마이크 입력 신호라 부르고, 마이크 입력 신호를 제 외한 모든 신호 즉 마이크로폰이 필요 없는 전기적인 소리 를 라인 레벨 신호 또는 라인 입력 신호라 칭한다. 둘째로 등장하는 장비는 대다수의 장비와 연결되어 있 는 믹싱 콘솔(mixing console, 3장 참조)로 신호를 원하는 곳으로 주고받는 중심 역할을 한다. 예를 들어 CD플레이 어에서 나오는 반주를 스테레오(2 채널) 입력으로 받고, 두 명의 남녀 가수의 노래를 각각 마이크로폰을 통해 믹싱 콘솔로 입력 받아 반주와 목소리를 적절하게 믹스해 원하 는 다음 단계로 넘겨준다. 여기서 다음 단계란 녹음이 목 적일 경우 녹음기일 것이고, 듣는 것이 목적이면 파워앰프 를 거쳐 스피커로 갈 것이며, 소리를 변조시키는 이펙트 프로세서로 가거나 동시에 이 모든 곳으로 갈 수도 있다. 위 예에서는 간단하게 전기적인 소스 두 채널(CD)과 마이 크를 거친 어쿠스틱 소스 두 채널, 총 네 채널이 믹싱콘솔

xi


로 입력되었으나, 일반 음악 콘서트나 뮤지컬에서는 20에 서 40채널이나 혹은 그 이상의 채널이 쓰이는 경우도 많다. 믹싱콘솔에서 모인 소리는 여러 곳으로 갈 수 있는데, 그중에 하나는 엔지니어 또는 객석의 청중이 들을 수 있게 확성해 들려주는 모니터링 시스템이다. 모니터링 시스템 은 음향 작업을 말 그대로 모니터 즉 듣게 하는 시스템으 로 파워 앰플리파이어(power amplifier, 4장 참조), 라우 드스피커(loudspeaker, 5장 참조) 등으로 구성한다. 녹음 스튜디오에서 작업한 소리가 정확하게 들려야 좋은 결과 물을 만들 수 있고, 공연장에서 확성되는 소리도 청중에게 정확하게 들려야 감동을 줄 수 있는 것이다. 모니터링 시 스템 중 파워앰프는 전기 신호를 증폭시키는 일은 담당한 다. 마이크로폰에 의해 변환된 전기 신호는 양적으로 봐 서는 믹싱 콘솔을 거쳐 녹음기나 이펙트 프로세서로 신호 를 주고받기에 적당한 레벨이지만, 라우드스피커를 구동 시켜 소리를 만들어내는 데는 훨씬 더 많은 양의 전기 신 호가 필요로 한다. 따라서 파워앰프가 콘솔에서 받은 신 호를 증폭해 라우드스피커로 보내 주는 것이다. 모니터링 시스템의 또 다른 요소인 라우드스피커는 전기 신호를 다 시 어쿠스틱 신호로 변환하는 기기다. 믹싱 콘솔이 어쿠 스틱 신호를 이해하지 못해서 마이크로폰이 그 신호를 전

xii


기 신호로 바꾼 것처럼 사람의 귀는 전기 신호를 이해하지 못하므로 다시 어쿠스틱 신호로 변환시켜 사람이 들을 수 있게 해야 한다. 라우드스피커의 원리는 마이크로폰과 정 반대로 작동한다. 마이크로폰은 소리가 발생하면 음파에 의해 마이크로폰 안의 진동판이 움직이고, 그 움직임에 의 해 전기 신호를 추출하는 데 반해 라우드스피커는 전기 신 호만큼 스피커 콘을 앞뒤로 움직여 소리를 만든다. 이펙트 프로세서(Effect processor, 6장 참조)는 소리를 변조하는 기기로 믹싱 콘솔의 출력을 받아 소리를 변조한 후 다시 믹싱 콘솔로 보낸다. 노래방에서 흔히 에코라 칭 하며 목소리에 목욕탕 비슷한 울림을 더하거나, 홈오디오 나 MP3 플레이어에서 저음, 고음 등 특정 대역의 소리를 조절하는 이퀄라이저가 우리 주변에서 흔히 접하는 이펙 트 프로세서의 예다. 이펙트 프로세서는 음색계열, 다이내 믹계열, 시간계열로 분류되며, 음색계열에는 이퀄라이저 (equalizer), 하모닉프로세서(harmonic processor) 등이, 다이내믹계열에는 컴프레서(compressor), 리미터(limiter), 익스펜더(expander), 게이트(gate) 등이, 시간계열에는 딜 레이(delay)와 리버브레이터(reverbrator) 외에도 플랜저 (flanger), 페이저(phaser), 코러스(chorus) 등이 포함된다. 믹싱 콘솔의 출력을 받는 또 다른 장비는 녹음기(7, 8,

xiii


10장 참조)다. 녹음기는 소리 정보를 테이프, 하드디스크 등 여러 매체에 저장하고, 재생한다. 요즘 대표적인 녹음 방식인 프로툴 시스템을 비롯한 대다수의 녹음기는 녹음 기능뿐만 아니라 편집 기능도 가지고 있다. 녹음기는 저장 방식에 따라 아날로그와 디지털 녹음기로 나누고, 저장 매 체에 따라 테이프 기반과 (하드)디스크 기반으로 구분한다.

음향 장비의 연결 여러 음향 장비들은 케이블과 커넥터에 의해 각각 연결되 며, 전송 신호가 디지털인지 아날로그인지 또는 가정용인 지 프로용인지에 따라 여러 종류로 구분한다.

RCA

RCA 커넥터는 1919년 미국에 설립되어 라디오를 보급시킨 RCA(The Radio Corporation of America)사의 이름을 따온 커넥터로 1930년대 RCA사에서 보급한 모니터 일체형 라디 오 리시버에 턴테이블을 추가로 연결하기 위해 고안되었다. 이 때문에 턴테이블의 명칭인 포노그래프(phonograph) 에서 차용한 포노(phono) 커넥터라고도 칭하며, 중앙에 핀이 나와 있어 핀(pin) 커넥터라고도 한다. 저렴한 가격과 간편성 때문에 1930년대 말 출시 후 큰 인기를 끌었고, 모

xiv


<그림 3> RCA 커넥터

노에서 스테레오 시대로 바뀐 후에도 언밸런스(unbalance, 불평형) 입출력의 표준형 커넥터로 가정용 오디오의 스테 레오 입출력이나 비디오 입출력 단자로 사용된다. 스테레오 오디오 신호의 왼쪽 채널은 붉은색, 오른쪽 채 널은 흰색 또는 검정색이 사용되기도 하고, 비디오 신호는 노란색이 사용되기도 한다. 기기 단자는 피메일(female), 케이블의 양쪽은 메일(male) 커넥터로 연결하며, 메일 커 넥터의 핀은 1/8인치(약 3.18mm) 직경이고, 핀을 감싸는 링은 1/3인치(약 8.25mm) 직경의 규격을 가진다. 최근에는 디지털 오디오 신호 중 하나인 S/PDIF(Sony, Philips Digital Interface Format)을 전송하는 디지털 케이블의 커넥터로 사용하기도 한다.

xv


TRS(폰) <그림 4> TS 모노 커넥터

위 그림은 일렉기타를 기타앰프에 연결하는 케이블에 사 용하는 커넥터다. 직경을 의미하는 1/4인치(약 6.35mm) 커넥터라고도 하고, 초창기 전화 교환기에서 사용했다하 여 폰(phone, RCA를 칭하는 phono와 혼동 유의할 것) 커 넥터라고도 한다. 우리나라에서는 55잭이라 부르기도 하 는데, 55는 초창기 국내 생산업체에서 사용하던 고유 모 델 번호가 이름으로 굳어졌다는 설이 있다. 커넥터 내부 에 세 군데 혹은 두 군데의 접점이 있어, 평형 신호인 TRS (tip, ring, sleeve)와 불평형 신호인 TS(tip, sleeve) 두 종 류가 있다. 폰커넥터의 일종으로 1/4인치 직경의 절반인 1/8인치

xvi


미니 플러그도 각종 이어폰을 비롯한 오디오 신호 연결로 많이 쓰이며, 패치베이(patchbay)의 커넥터로 주로 쓰이 는 TT(tiny telephone)나 밀리터리 폰(military phone) 커 넥터도 비슷한 종류로 분류된다.

XLR(캐논)

3핀 XLR은 프로용으로 사용하는 가장 일반적인 밸런스 (balanced, 평형) 커넥터로 eXternal(ground), Live(hot), Return(cold)의 머리글자의 조합으로 생각하면 간편하다. 일반적으로 아래 그림과 같이 입력은 소켓(hall)으로 되어 편의상 피메일(female)이라 칭하고 출력은 핀으로 되어 메일(male)이라 부른다. 이 약속은 케이블뿐만 아니라 음 향기기 쪽에서도 동일하다. 오디오용 3핀 외에도 전원용 커넥터에 쓰이는 4핀을 비롯해 다른 핀 수도 있다. 미국 로스앤젤레스에 있는 캐논전기(Cannon Electric, 1915년 창업)의 창업주 제임스 캐논(James H. Cannon) 이 처음 발명해 캐논 커넥터라고도 한다. 이 캐논사의 제 조 공장이 일본 카나카와에 있어, 도쿄에서 설립한 Canon 카메라 회사와 혼동할 수도 있으나 다른 회사다. 캐논사 는 ITT캐논으로 회사명이 바뀌었고, 이 회사에서 대형 아 날로그 콘솔을 출력이나 타스컴 DA-88 시리즈 녹음기의

xvii


<그림 5> XLR 암놈(좌)과 수놈(우)

입출력 모듈인 D-Sub 커넥터를 개발했다. ITT캐논사 외 에도 미국의 스위치크래프트(Switchcraft), 스위스의 뉴트 릭(Neutrik)사 등의 XLR 커넥터가 유명하다. 주로 마이크로폰 케이블로 많이 사용하며, 다른 커넥터 에 비해 크기가 커서 공간을 많이 차지하고, 가격도 비싸 지만, 밸런스 신호를 사용해 잡음의 유입이 적고, 연결 시 고정되어 쉽게 풀리지 않는 장점이 있다(Rumsey, 1992). XLR 커넥터는 프로용 디지털 신호 방식인 AES/EBU (Audio Engineering Society/European Broadcasting Union, 미국음향엔지니어협회/유럽방송협회 규격) 신호를 전송 하는 디지털 케이블의 커넥터로 사용되기도 한다.

xviii


BNC

BNC(Bayonet Neill–Concelman) 커넥터는 원래 미국에 서 군용으로 개발한 커넥터로 동축케이블의 RF(라디오 프 리퀀시), 테스터기, 비디오 신호 등 사용 범위가 넓으며, 최근에는 디지털 장비 간에 워드클럭(word clock)을 동기 화 시키는 커넥터로도 쓰인다. BNC는 아래 그림과 같이 눌러서 돌리면 잠기는 베이오 넷 연결방식(Bayonet Mount)의 머릿글자 B와 벨연구소 에서 일하던 폴 닐(Paul Neill)과 암페놀(Amphenol)사에 서 근무하던 칼 컨슬먼(Carl Concelman) 등 두 발명가 머 리글자 N, C의 조합이다.

옵티컬

소니와 필립스가 규격화한 S/PDIF 디지털 오디오 신호를

<그림 6> 베이오넷 연결방식

xix


<그림 7> 토스링크(TOS-Link)

전송하는 방법은 두 가지다. 하나는 동축케이블(coxial)에 RCA 커넥터를 사용하는 방식이고, 다른 하나는 광케이블 로 전송하는 방식이다. 후자를 TOS-Link라고 부르는데, 이는 도시바(Toshiba) 링크의 조합어다. 원래는 CD플레 이어의 PCM 데이터 출력을 디지털 리시버에 연결하려고 1983년에 개발되었다. 그 후 업계 표준으로 인정받아 MD, DVD, DAT 등 디지털 오디오 신호 전송에 현재까지 사용 되고 있다. EIAJ(Electronic Industry Association of Japan, 일본 전 자산업협회) 옵티컬(optical)이라 부르기도 하며, 돌비디

xx


지털/DTS 신호 전송에도 사용되었다. 1989년에 프로오디 오 장비인 알레시스(Alesis)사는 ADAT이란 8트랙 녹음기 에 사용하기 위한 8채널 전송 방식을 개발했다. ADAT 라 이트파이프(lightpipe)라 칭하는 이 방식은 프로툴 I/O 모 듈이나 DM2000을 비롯한 야마하 디지털 믹싱 콘솔 등에 서 8채널의 신호를 동시에 전송한다. 48KHz 샘플레이트 와 24비트(bit)를 지원하는 ADAT 라이트파이프 방식은 기존의 S/PDIF 전송 방식과 호환되지 않는다.

패치베이 시그널 플로에 해당하는 여러 장비들은 각각 원하는 기기 로 신호를 주고받는데, 녹음실이나 방송국 등에서는 직접 케이블로 해당 장비를 연결하는 대신에 패치베이(Patch Bay)에 모든 필요한 장비의 입출력을 연결해 놓고 원하는 신호를 패치케이블로 연결해 사용한다. 패치베이는 초창 기 전화국의 교환시스템에서 발전했으며, 패치보드(patch board, 방송국에서 많이 사용), 잭필드(Jack field, 영국에 서 많이 사용)라고도 부른다. 일반적으로 패치베이는 19인치(48cm) 폭으로 윗줄 24 칸과 아랫줄 24칸 총 48구의 포인트로 구성된다. 통상 윗 줄은 기기들의 출력 신호를 아랫줄은 입력 신호를 물려 놓

xxi


아 한 기기의 출력 신호가 다른 기기의 입력 신호로 전달 된다. 이전에는 GPO(General Post Office) 플러그 혹은 군용 전화선(military phone) 플러그라 부르는 1/4인치 커 넥터를 사용하다가 근래에는 그보다 작은 4.40mm(0.173 인치) 직경의 TT(tiny telephone, Bantam이라 칭하기도 함) 플러그가 주로 사용된다. 공연장이나 방송국, 홈 스튜 디오 등에는 필요에 의해 폰(TRS, TS), RCA, XLR 커넥터 가 패치로 사용되기도 한다.

노멀 패치에서 노멀(normal)이란 신호가 패치 케이블을 연결 하지 않아도 같은 줄 위에서 아래(옆으로 된 모델인 경우 는 좌에서 우로)로 사전에 연결된 신호가 흘러가는 상태 를 말한다. 연결 상태와 노멀이 끊기는 상태에 따라 크게 풀(full) 노멀과 하프(half) 노멀로 나눈다.

풀 노멀(full normal)

패치베이 위아래(혹은 좌우)가 모두 연결되어 있어서 패 치 케이블을 연결하지 않은 평소에는 노멀로 위에서 아래 로 신호가 흐르나, 앞에서 위나 아래 중 한쪽만 패치 케이 블을 연결하면 신호의 노멀이 끊긴다.

xxii


보통 마이크로폰 출력과 마이크프리 앰프(혹은 콘솔의 마이크로폰) 입력이 이 방식으로 사용되며, 콘덴서 마이 크에 팬텀전원을 보내 주는 경우에도 유리하다.

하프 노멀(half normal)

패치베이 위아래가 연결되어 패치 케이블을 연결하지 않 는 평소에는 노멀로 위에서 아래로 신호가 흐르다가 아래 에 패치 케이블을 연결하면 위에서 오는 신호는 끊긴다. 동일한 상황에서 위에 패치 케이블을 연결하면 노멀은 계 속 유지되고 위에 연결된 신호가 하나 더 분기되어 생성된 다. 보통 믹서 출력에서 파워앰프로 연결하거나, 다이렉 트 아웃에서 녹음기로의 연결, 라인레벨 입력이나 테이프 입력, 인서트 단자 등 마이크로폰 입력을 제외하고는 대부 분 이 방식이 사용된다. 오픈(open 혹은 denormal)

언노멀(unnormal) 혹은 스루(thru)라고 부르기도 하는 경 우로 풀 노멀이나 하프 노멀처럼 많이 사용되지 않으며, 위아래 연결이 노멀되어 있지 않고 항상 끊어져 있다.

xxiii


패럴렐(parallel)

특별한 경우의 패치로 한 개의 신호를 두 개나 여러 개로 복사해 주는 경우 사용되어 멀트 혹은 멀티(multiply)라고 도 불린다.

이 외에 이쪽 방과 다른 방(예: 스튜디오A에서 스튜디오B 로, 혹은 부조종실에서 주조종실로)에 신호를 패치로 주고 받는 경우도 있으며, 타이라인(tie-line)이라 칭하기도 한다.

음향 관련 여러 분야 우리 주변을 둘러보면 소리와 관련된 분야는 상당히 많다. 대다수의 콘텐츠가 소리를 포함하고 있으며 실생활에도 소리는 중요한 부분이기 때문이다. 이 많은 음향 관련 분 야 중 대표적인 분야가 녹음, PA, 포스트프로덕션, 방송국 일 것이다. 각 분야의 관련 인력과 각 분야에서 타 분야에 비해 강조되는 음향 장비나 시그널 플로의 차이점에 대해 살펴보기로 하겠다.

음악녹음

(1) 녹음 스튜디오 녹음 스튜디오는 음향 분야의 중심으로 볼 수 있고, 가장

xxiv


음질에 민감한 특성이 있다. 관련된 인력은 엔지니어와 어시스턴트 엔지니어로 최근 들어 국내에서는 음향감독 으로 칭한다. 미국 등에서는 스튜디오에 상주하는 하우스 엔지니어와 외부에서 작업을 갖고 와서 스튜디오 시설만 이용하는 프리랜서 엔지니어로 구분된다. 대부분의 음반 제작 프로젝트는 프리랜서 엔지니어가 맡는다. 국내에서 도 예전에는 지구레코드를 비롯해 대형 음반사의 자체 녹 음실이 주류였으나 점차 개인 녹음실로 바뀌어 규모도 작 아졌다. 현재는 녹음부스(라이브룸) 없이 믹싱만 하는 스 튜디오도 늘어나고 있으며, 프리랜서 엔지니어도 점차 늘 어나는 추세다. 또한 SM, JYP 등을 비롯한 기획사가 자체 녹음실을 보유하는 경우가 늘어나고 있다. 음향감독의 작업은 악기나 목소리 연주에 마이크로폰을 설치해 트랙별로 독립된 트랙에 녹음하는 녹음 작업과, 나 중에 모든 트랙을 2트랙 스테레오 또는 5.1채널 등 서라운 드로 믹싱하는 작업으로 구분한다. 음향감독 외에 프로듀 서가 같이 참여해 음악적 결정, 예산 편성 및 집행을 비롯 한 모든 과정을 전문으로 맡아하는 경우도 늘어나고 있다. 시그널 플로를 타 분야와 비교하면 멀티트랙 녹음기의 비중이 크고, 녹음용 콘솔이 사용되며, 콘덴서, 다이내믹, 리본 등 다양한 종류의 마이크로폰이 많이 쓰인다. 대부

xxv


분의 경우 마이크로폰은 스탠드에 장착해 사용한다. 한 가지 예외는 바닥이나 벽, 악기(그랜드 피아노 덮개 안 쪽, 킥드럼 헤드)에 부착해 사용하는 바운더리(boundary) 마이크로폰이다. 바운더리 마이크로폰은 PZM이라고도 불 리며, 자주는 아니나 녹음 시 유용하게 쓰인다. 이 기술은 1978년 샌프란시스코 지역 신오드콘사(Synergetic Audio Concepts)의 에드 롱(Ed Long)과 론 위커샴(Ron Wickersham)이 처음 발표했다. 이를 토대로 켄 워렌브룩 (Ken Wahrenbrook)과 돈 데이비스(Don Davis)가 소형 일렉트릿 콘덴서를 장착해 더 발전시켰고, 1980년 인디애 나주의 크라운 인터내셔널(Crown International)사가 신 오드콘사로부터 라이선스를 사들여 기계적, 전기적 보완 을 거쳐 PZM (Pressure Zone Microphone)이라 명명해 출시했다. 이후로 다른 회사에서도 바운더리 마이크를 출 시했으나 크라운사의 PZM 모델이 가장 애용되어 PZM이 란 모델명이 바운더리 마이크의 대명사처럼 되었다.

(2) 클래식 음악 녹음 클래식 음악 녹음은 전통적으로 별도의 후반 믹싱 작업 없 이 스테레오 출력을 2트랙 녹음기에 녹음하는 방식이었 다. 최근에는 멀티트랙 녹음 방식을 사용해 다시 믹싱하

xxvi


거나 5.1채널 등 서라운드 믹싱을 하는 경우가 점점 많아 지고 있다. 전통적인 녹음 방식은 메인(main) 마이크를 스테레오 로 녹음하는 방식으로 두 개의 마이크로 한 지점에서 전체 적인 악기소리와 공간의 잔향 소리를 같이 녹음하므로 원 포인트(one point) 녹음 방식이라 한다. 스테레오 마이킹 에는 블룸레인(Blumlein), XY, MS, ORFT, NOS, AB등 방 식이 있다. 블룸레인 방식은 벨연구소에서 연구원으로 일 하다 영국 EMI(Electronic & Music Industries Ltd.)로 옮 긴 알랜 D. 블룸레인(Alan Dower Blumlein , 1903-1942) 이 1931년 개발해 특허를 딴 기술로 두 대의 양지향성 마 이크로폰을 사용하는 기술이다. 비슷한 시기에 미국의 벨연구소의 하비 플레처(Harvey Fletcher) 박사는 스페이스드 페어(spaced pair)라고 불리 는 AB 테크닉을 개발했다. 이 기술은 두 대의 무지향성(다 른 지향성을 사용하는 경우도 드물지만 없진 않다) 마이크 로폰을 적당하게 벌려 놓는 방식으로 설치가 간편하나 위 상 문제가 생길 수 있고, 재생 시 모노 호환성이 좋지 않다. 여기서 발전해 센터 마이크로폰을 추가한 다른 스페이 스드 방식이 데카트리(Decca tree, <그림 8> 중앙) 방식이 다. 세 대의 무지향성 마이크로폰을 사용하는 이 기술은

xxvii


1950년대 초반 클래식 음반 레이블로 유명한 데카 엔지니어 들 사이에서 개발되어 1954년 3월 데카 소속 엔지니어인 로 이 월래스(Roy Wallace)와 아더 해디(Arthur Haddy)가 런 던의 데카레코드 녹음 스튜디오에서 만토바니(Mantovani) 오케스트라 앨범 녹음에 처음 사용했다고 한다. 월래스가 마이크로폰 세 대를 장착할 수 있는 T자형 붐스탠드를 제 작했고, 이것이 마치 크리스마스트리와 같다고 하여 데카 트리 방식이라 불리게 되었다(스트리처, 2003). 블룸레인, XY, M-S 방식은 두 대의 마이크를 거의 붙여 서 한 축에서 소리를 수음한다 하여 동축형(coincident) 방식이라 하고, AB나 데카트리 방식은 마이크로폰이 서 로 떨어져 있어 스페이스드 방식으로 분류한다. 반면에 ORTF, NOS, 더미헤드 녹음 방식 등은 마이크로폰 두 대를 약간만 벌리고 거의 붙여서 녹음하므로 준동축형(near coincident) 방식이라 한다. ORTF(Office de Radiodiffusion Télévision Française) 방식은 1960년경 프랑스 라디오/TV 방송국에서, NOS(Nederlandse Omroep Stichting, 네덜 란드 방송협회) 방식은 네덜란드 방송국에서 개발한 준동 축형 스테레오 방식이다. 클래식 음악 녹음에서 스테레오 원 포인트 마이킹 방식 을 사용하면 마이크로폰을 최소로 사용해 위상의 문제를

xxviii


줄이고 설치도 간편한 장점이 있다. 반면에 오케스트라 등 여러 악기가 같이 연주될 때 음량이 작은 악기 소리가 잘 안 들릴 수도 있어 이 경우 마이크로폰의 위치를 조정 하거나 연주자의 위치를 이동해야 한다. 이를 보완하기 위해 음량이 작은 악기 쪽에 마이크를 추가하기도 하는데, 이를 보조 마이크로폰, 서포트(support) 마이크로폰, 스 폿(spot) 마이크로폰, 액센트(accent) 마이크로폰 등 여러 이름으로 부른다. 이 외에 녹음하는 홀 전체에 울림을 녹 음할 목적으로 양쪽에서 스테레오로 녹음하는 룸마이크 로폰(또는 앰비언스 마이크로폰)을 사용하기도 하며, 이렇 게 메인+서포트+앰비언스(ambiencve) 마이크로폰을 조 합해 사용하는 녹음 방식을 하이브리드 방식이라 칭한다. 러시아나 유럽 여러 나라들에는 각 오케스트라 단체에 속한 전용 녹음실이 있어서(<그림 8>), 큰 공간에서 녹음 이 이루어진다. 또는 뉴욕의 리버사이드교회처럼 울림이 좋은 공간을 대여해 녹음하거나, 클래식 공연장을 대여해 녹음하게 된다. 국내에는 서울스튜디오, 한국음반스튜디 오, 코카스튜디오 등 큰 라이브룸을 보유한 스튜디오들이 모두 없어져, 오케스트라 녹음은 쉽지 않고 소규모 챔버 녹음만 가능하며, 큰 규모의 녹음은 연주홀이나 교회에서 이루어진다.

xxix


<그림 8> 체코 내셔널심포니 녹음실

(3) 마스터링 스튜디오 마스터링은 대중음악이나 클래식 음악 녹음 및 믹싱이 끝 난 후 다시 상업적인 마스터를 만드는 작업으로, 앨범으로 출시되기 전에 마지막으로 보완하고 완성된 상품을 만드 는 것이다. LP나 카세트 제작에도 작업되어 왔으나 특히 1980년대 중반 CD가 유행하면서 급속히 발달해 왔다. 초창기에는 아날로그 릴 녹음기를 사용했으며, 1980년 후반에는 유매틱 테이프를 매체로 삼은 소니(Sony)사의 PCM1630시스템이 업계 표준으로 사용되었다. 1990년대

xxx


에는 매킨토시 컴퓨터를 기반으로 하는 소닉솔루션(Sonic Solution)이 많이 사용되었다. 안정된 DAW(디지털 오디오 워크스테이션) 외에 다른 분야보다 정확한 고가의 모니터링 시스템(파워앰프나 스 피커)이 요구되며, 멀티밴드 컴프레서, 이퀄라이저 등의 시그널 프로세서, DA/AD컨버터, 샘플레이트 컨버터를 비롯한 첨단 장비가 많이 쓰인다.

공연 음향/SR(Sound Reinforcement)

미국에서는 흔히 라이브 사운드(Live Sound)라 칭하며 크 고 작은 공연이나 행사에서 참가한 관중에게 소리를 확성 시키는 작업으로 음악, 뮤지컬, 연극, 행사 등 콘텐츠 별로 구분하거나 실내 공연장, 야외 공연장, 길거리 등 장소별 로 구분하며, 공연 관련 장비나 인력을 빌려주는 개념으로 렌털 팀이라 부르기도 한다. 공연 음향에 종사하는 인력은 크게 메인(하우스) 오퍼 레이터, 모니터 오퍼레이터, 스테이지맨 등으로 나뉜다. 메인 오퍼레이터는 공연장 중앙 뒤(FOH, front of house) 에 위치해 뮤지션들의 노래나 연주를 메인 스피커로 공연 장의 관객들에게 전달한다. 모니터 오퍼레이터는 무대 위 연주자들이 자기 소리와 동료 연주자 또는 음악반주 소리

xxxi


를 무대 위 모니터 스피커(혹은 인이어 모니터)를 통해 잘 들리게끔 무대 옆에서 조절해 주는 일을 한다. 스테이지 맨(혹은 PA 어시스턴트라 칭함)은 마이크 설치, 케이블 이 동 등 전반적인 설치와 공연 진행, 철수를 담당한다. 타 분야에 비해 시그널 플로에서 강조되는 부분은 모니 터의 양이다. 녹음실이나 방송국에서 모니터링을 담당하 는 스피커나 파워앰프는 서너 명 내지 많아야 열 명 내외 가 듣도록 최적화된 것에 비해, 공연장에서는 수백 명에서 수천, 많게는 수만 명까지 들을 수 있게 모니터링을 디자 인해야 한다. 공연장에서 메인 스피커를 설치하는 방법은 크게 세 가지다. 규모가 작은 경우 삼각대 형태로 된 스피 커 스탠드 위에 스피커를 설치하는 방법과, 바닥이나 무대 바닥 위에 스피커 여러 대를 차곡차곡 쌓아 올리는 스태킹 (stacking) 방법, 마지막으로 <그림 9>와 같이 천장이나 크레인에 매다는 플라잉(flying) 방법이다. 그림과 같이 여러 대의 스피커를 일렬로 붙여 사용하게 제작된 것을 라 인 어레이(line array) 스피커라 하고, 스피커를 위에 매다 는 작업을 리깅(rigging)이라 한다. 스탠드 사용이나 스태 킹 방식은 앞 부분은 소리가 커도 뒤로 갈수록 소리가 작 아지는 단점이 있으나, 플라잉 방식은 천장 위에서 아래로 소리를 보내므로 커버할 수 있는 범위가 훨씬 넓어진다.

xxxii


<그림 9> 레드 제플린(Led Zepplin) 공연, 2007년 11월 26일. 런던 O2 아레나(약 2만여 명 참관)

xxxiii


라인 어레이에 대한 이론은 1950년대 해리 올슨(Harry Olson)이 처음 개발해 1957년 논문을 발표했다. 그 후 라 인 어레이 스피커가 칼럼(column) 스피커나 목소리 전달 위주로 개발되다가 본격적으로 공연에 사용되기 시작한 것은 1990년대 중반 들어서다. 이를 주도한 것은 크리스천 헤일 박사가 설립한 L-어쿠스틱사의 V-DOSC라인이었다. 이 라인 어레이 스피커의 효능에 자극을 받아 많은 스피커 회사들이 라인 어레이 스피커를 개발해 판매하고 있다. 한편 모니터용 스피커는 무대 바닥에 놓고 뮤지션을 향 하게 45도 각도로 소리를 보내는 웨지(wedge) 스피커나 양쪽 측면에 설치하는 사이드 필의 조합으로 사용했으나, 최근에는 작은 이어폰처럼 생긴 무선 인이어(in-ear) 모니 터 방식이 많이 쓰인다. IEM(인이어 모니터)의 장점은 우 선 무대 어느 부근에 있더라도 동일한 소리가 들린다는 것 과 무대 위의 모니터 스피커 소리가 적어지므로 피드백 (feedback, 하울링)의 위험이 줄어들고 소리도 깔끔해진 다는 점이다. 단점은 연주 중 공연장에서 관중의 호응을 느낄 수 없고, 피드백이 발생하면 착용자의 청력에 극심한 손상을 준다는 점이다. 이러한 단점이 있긴 해도 장점이 훨씬 크기 때문에 IEM는 공연장에 꼭 필요한 존재로 계속 해서 발전하고 있다.

xxxiv


포스트프로덕션

영화, TV 드라마, 다큐멘터리, 광고, 게임, 애니메이션 등 영상물에 소리를 입히는 작업을 후반작업 또는 (오디오) 포스트프로덕션이라 한다. 이 중 대표격인 영화의 사운드 작업에는 음악, 대사, 효과음 작업이 있고, 최종적으로 이 들을 믹싱하는 파이널믹스 작업이 있다. 사운드 수퍼바이 저(미국에서는 사운드 디자이너라 칭하기도 함)가 이 모 든 작업들을 총괄하게 된다.

(1) 음악녹음 영화에 쓰이는 음악에는 크게 백그라운드 뮤직(BGM)과 소스(source) 뮤직이 있다. 소스 뮤직은 백그라운드의 반 대개념으로 포그라운드(foreground) 뮤직이라 불리기도 하며, 영화 속 사람들이 듣는 음악이다. 예를 들어 주인공 이 라디오를 틀었을 때 라디오에서 흘러나오는 음악이나 주인공이 공연장에서 음악을 듣는 장면에서 나오는 음악 이 여기에 속한다. 반면에 BGM은 영화 속 인물은 듣지 못 하고 관객들만 듣는 음악이다. 영화 <조스>에 나오는 낮 은 현악기소리가 한 예로 상어가 접근할 때 이 음악으로 긴장감을 고조시키는 데 큰 역할을 했다. 그 밖에 영화가 끝나고 엔딩 크레딧이 올라올 때 같이 나오는 음악도 있다.

xxxv


<그림 10> 라이브톤 스튜디오 믹싱룸

타이틀곡을 제외하곤 대부분의 음악은 화면과 동일성 을 위해 영상이 편집된 이후에 만들어진다. 물론 시간이 부족하므로 가편집된 영상으로 미리 만드는 것이 일반적 이다. 음악 소스는 멀티 트랙으로 녹음되어 파이널믹스 시에 대사와 효과음 같은 다른 오디오 파트와 충돌되지 않 게 믹스한다. 녹음은 보통 포스트프로덕션 스튜디오가 아 닌 음악 녹음 스튜디오 등 외부에서 제작해서 결과물을 가 져오는 경우가 대부분이다. 이 음악 소스를 받아 포스트 프로덕션 스튜디오 소속인 뮤직 에디터가 필요한 부분에

xxxvi


맞추어 넣는다.

(2) 대사 영화에서 가장 중요한 소리라 볼 수 있는 대사는 크게 동 시녹음과 ADR 두 가지 작업으로 이루어진다. 동시녹음은 영화 촬영장에서 카메라 촬영과 동시에 이루어지며, 붐마 이크를 들고 연기자들을 쫓아다니는 붐맨, 이때 마이크 선 이 연기나 녹음을 방해하지 않게 정리하며 움직이는 케이 블맨(라인맨), 그리고 DAT, 하드디스크 녹음기 등으로 녹 음하는 녹음 담당이 팀을 이루어 작업한다. 하지만 단편 영화와 같은 소규모 작업에서는 혼자 모든 것을 처리하기 도 한다. 동시녹음팀은 포스트프로덕션 스튜디오와 별도로 운영되 며, 동시녹음 결과물을 인수받아 녹음된 대사 중 사용하기 힘 든 부분이 있으면 연기자를 다시 포스트프로덕션 스튜디오 로 불러서 화면에 맞춰 다시 대사를 더빙한다(<그림 11>). 이 작업을 ADR(automatic dialog replacement)라 하고 ADR 에디터가 주로 담당한다. 다이얼로그 에디터는 동시 녹음과 후시녹음(ADR) 중 잘 된 쪽을 취합해 대사를 완성 한다.

xxxvii


<그림 11> 라이브톤 ADR 녹음부스

(3) 효과음 영상에 필요한 효과음은 사운드 이펙트(fx) 에디터가 유 료로 판매되는 사운드 이펙트 CD 라이브러리에서 필요한 효과음을 선택한 후 화면에 맞게 보정해 사용하는 경우와, 폴리(foley) 아티스트가 도구를 사용해 발자국 소리를 비 롯한 각종 소리를 화면에 맞게 흉내내는 것을 폴리 에디터 가 녹음하고 편집하는 두 종류로 구분된다. 전자의 경우 단순히 효과음만 라이브러리(<그림 12>)

xxxviii


에서 선택하는 것이 아니라 대개의 경우 길이를 화면에 맞 게 자르고 소리 자체도 더 상황에 맞게 조절하며, 경우에 따라서 라이브러리의 소리와 전혀 다른 새로운 소리를 만 들어 내기도 한다. 예를 들어 아기 코끼리 울음소리와 펭 귄 소리를 섞어 공룡 소리를 만들기도 한다. 효과음 담당 을 사운드 디자이너라고 하기도 하며, 미국에서는 전체적 인 음향 책임자, 즉 사운드 슈퍼바이저를 사운드 디자이너 로 칭하기도 한다. 폴리란 용어는 할리우드 초창기 유성영화에 효과음을 만들던 잭 폴리(Jack Foley, 1891∼1967)의 이름에서 따 온 말이다(<그림 13>). 영화촬영 시 동시녹음을 하지만 모든 초점은 대사에 있어 샷건 마이크는 날카로운 지향각 도로 연기자의 입을 향한다. 때문에 목소리는 잘 들어오 지만 발자국 소리나 옷 스치는 소리 등 실제 현장에서 나 는 소리는 녹음되지 않는다. 이 같은 소리의 부재는 영화 속 현실감을 떨어뜨린다. 또한 동시녹음의 대사를 ADR로 대체한 경우 더더욱 현실의 효과 소리가 필요하게 된다. 1927년 할리우드에서는 <재즈 싱어>란 영화를 시작으 로 무성영화에서 유성영화로 전환기를 맞는데, 이때 잭 폴 리는 <사랑의 멜로디(Melody of Love0>(1928년), <쇼보 트(The Show Boat)>(1929년) 등을 시작으로 마지막 작품

xxxix


<그림 12> 이펙트 라이브러리(LP)

출처: 동아방송예술대학교 이경순 소리박물관.

xl


<그림 13> 폴리작업 장면(발소리 녹음)

인 <스파르타쿠스(Spartacus)>(1960년)까지 독창적인 아 이디어로 새로운 음향효과 분야를 개척했다. 이 두 가지 종류의 효과음 외에도 앰비언스(ambience, 환경음)라는 각 장소(길거리, 백화점, 공장 등) 고유의 현 장음을 편집하는 앰비언스 에디터가 있어 동시녹음에서 녹음된 소스나 앰비언스만 전용으로 사전 제작된 앰비언 스 라이브러리에서 발췌해 화면에 추가해 영화 속 현실감 을 더한다. 특히 동시녹음된 대사에는 현장음이 자연스럽 게 포함되어 있으나, 조용한 스튜디오 안에서 대사를 재녹

xli


음하는 ADR에는 현장음이 없어서 그 부분만 어색할 수 있 으므로 이 경우 앰비언스를 ADR에 첨가해 자연스럽게 만 들어준다.

(4) 파이널 믹스 음악, 대사, 효과음, 앰비언스가 각각 정리되면 각 소스를 프리믹스(pre-mix)한 후 최종적으로 파이널 믹스(final mix) 작업을 거친다. 어떤 경우든 대사가 확실하게 전달 되어야 하며 이펙트, 음악 등이 서로 충돌할 경우 영화감 독과 사운드 슈퍼바이저가 상의해 적절한 레벨로 믹싱한 다. <그림 10>과 같이 믹싱룸을 실제 영화관과 유사한 환 경으로 세팅해 믹싱한다. 위에 언급한 여러 포지션은 영화 포스트프로덕션 스튜 디오의 한 예이며, 이보다 더 세분화된 경우도 있고, 여러 포지션을 겸하는 경우도 있을 수 있다. TV나 라디오 등의 광고 제작에 소리를 입히는 광고 스튜디오도 유사한 시스 템을 사용하며, 일반적으로 규모는 영화 스튜디오보다 작 다. 또한 게임 사운드는 영화나 광고 포스트프로덕션 스 튜디오에 의뢰해 작업하는 형태였으나, 최근에는 국내 게 임 시장의 규모가 커지면서 게임회사 안에 자체 사운드팀 을 꾸리는 업체가 늘어가고 있다.

xlii


방송국

방송국의 음향 파트는 위에 나온 분야를 모두 합친 것과 같다. 예를 들어 KBS <탑밴드>, MBC <나는 가수다> 등 각종 쇼 프로그램에는 관객이 참여하므로 SR 분야가 필요 하고, 그런 음악 프로그램을 녹화한 후 녹음 스튜디오처럼 세밀한 믹싱 작업을 거치기도 하며, 드라마나 오락 프로그 램에 효과음이 필수요소로 들어간다. 여기에 스포츠 중계, 뉴스나 라디오 프로그램 등 방송국의 전형적인 프로그램 에서도 오디오의 비중은 꽤 높은 편이다. 방송국 내에서 음향 분야를 구분하는 것은 큰 의미가 없지만 굳이 분류하자면 라디오와 TV로 구분하기도 하고, 방송국 내에서 녹음 및 편집을 하는 스튜디오 작업과 중계 등 외부 작업으로 분류할 수도 있다. 콘텐츠에 따라 교양/ 토크, 스포츠, 음악 프로그램으로 구분하기도 한다. 이렇 게 다양한 프로그램을 제작하기 위해 다양한 형태의 특수 용도 마이크로폰이 많이 쓰인다.

(1) 샷건(shotgun) 마이크로폰 실내외 TV 드라마나 뉴스 등 여러 프로그램 제작과 영화 동시녹음에도 많이 사용되는 샷건 마이크는 1938년 올슨 (Olson)이 처음 착안해 인터피어런스 튜브( interference

xliii


tube) 마이크로폰이라 명명했다. 넓은 지역서 특정 방향 의 음원을 픽업하는 날카로운 지향성을 가지며, 일반 마이 크로폰보다 긴 외관을 가지고 있다(<그림 14>). 농구 경 기를 시청하다 보면 작전타임 시간이 있는데, 이때 감독의 목소리가 경기장의 요란한 소음과 상관없이 선명하게 나 오는 이유가 바로 샷건 마이크로폰 때문이다. 영화 동시 녹음에도 기다란 붐(boom)대 끝에 매달린 샷건 마이크를 통해 주인공의 목소리가 주변 잡음소리를 배제하고 깨끗 이 녹음된다.

<그림 14> 샷건 마이크로폰

xliv


(2) 라발리에(lavalier) 마이크로폰 라발리에는 목에 거는 장신구란 뜻이며, 일반인에게는 핀 (pin) 마이크로 더 잘 알려져 있다. 재킷의 칼라를 의미하 는 라펠(lapel) 또는 옷 등에 집게로 집어서 설치한다는 의 미로 클립온(clip-on) 마이크라고도 한다. 두 손을 자유롭 게 하려는 목적은 샷건 마이크로폰의 목적과 유사하나, 샷 건 마이크로폰은 붐맨 등 다른 인력이 전담해야 하는 반면 라발리에 마이크로폰은 한 번 설치하면 따로 인력이 쫓아 다니지 않아도 되는 차이가 있다. 방송이나 영화에서 이 두 마이크로폰을 혼용해 사용하는 경우도 있다. 1930년대부터 손을 자유롭게 할 목적으로 콘덴서, 리 본, 카본 형태의 라펠 마이크로폰이 선보였고, 이 라펠 마 이크로폰은 재킷 칼라에 단추 구멍에 꽂을 정도로 작은 마 이크로폰을 의미했다. 1930년대와 1940년대 목에 거는 형태의 마이크로폰이 개발되어 전화교환수나 속기사들이 녹음용으로 사용했다. 1953년 EV(Electro Voice)사가 647A 모델을 출시했고, 1954년 슈어(Shure Brothers)사 가 550 모델을 만들어 보급되기 시작했다. 후에 작고 간편 한 일렉트릭 콘덴서 형으로 만들어지고, 최근에는 거의 무 선 마이크 시스템으로 사용되나 아직도 유선이 쓰이기도 한다. 고개를 돌려도 방향에 영향을 덜 받고 크기도 지향

xlv


성보다 더 작게 만들 수 있기 때문에 대부분은 무지향성을 사용하나, 주변 소음이 심하거나 피드백이 우려되는 경우 는 단일지향성이 사용되기도 한다(이 경우 헤드셋 마이크 가 사용되기도 함).

(3) 헤드셋 마이크로폰 방송에서 헤드셋 마이크를 사용하는 이유는 두 가지다. 하나는 머리에 헤드폰처럼 착용해 두 손을 자유롭게 하는 것이고, 또 하나는 주변 소음이 심할 때 서로 소통하기 쉽 기 때문이다. 라발리에 마이크도 가슴에 부착하면 손이 자유롭긴 하나 고개를 돌릴 때마다 음원과 거리나 각도가 일정하게 유지되지 않는데 반해 헤드셋은 머리에 착용하 면 입으로 뻗어 나온 마이크는 고개를 움직여도 일정하게 유지된다. 아무래도 라발리에보다 외관상 마이크로폰 착 용이 더 두드러지는 단점이 있다. 헤드셋은 1910년 미국 스탠퍼드대학생이었던 나다니 엘 볼드윈(Nathaniel Baldwin) 발명했다. 초창기에는 사 용도가 떨어져서 주목받지 못했으나, 세계대전이 발발하 자 비행기 조종사와 비행 관계자들의 필수품이 되었다. 방송에서도 스포츠 중계의 캐스터나 해설자를 비롯해 카 메라맨 등 여러 분야 인력이 많이 쓴다.

xlvi


최근에는 거의 무선 시스템으로 사용하나, 예전에는 유 선인 경우도 많았다. 헤드밴드로 고정만 하여 마이크로폰 으로만 사용하는 경우도 있고, 헤드폰은 한쪽만 있는 경 우, 헤드폰이 양쪽 다 있으나 양쪽이 같은 모노로 들리는 경우, 헤드폰 좌우가 다르게 즉 스테레오로 들리는 경우 등 다양한 형태가 존재한다. 특히 방송에서는 한쪽 헤드 폰에는 현재 진행하는 프로그램 소리가, 다른 쪽에는 PD 나 감독의 지시가 들리는 형태가 유용하게 쓰인다. 여기에서 언급한 녹음, PA(SR), 영화, 방송국 외에도 건 축음향, 음향 장비 수입 설치, 모바일 벨소리 및 컬러링, 교회음향 등 음향의 비중이 점점 커지면서 관련 산업도 번 성하는 중이다. 특히 국내 교회의 규모가 점차 커지면서 음향에 대한 요구도 커져서 대형 교회를 보면 웬만한 방송 국이나 대형 공연장만 한 음향 시설을 갖춘 곳도 볼 수 있다. 어떤 음향 분야든 시그널 플로는 약간씩 차이가 있지만 마이크로폰, 믹싱 콘솔, 파워앰프, 스피커, 녹음기, 시그널 프로세서 등 기본적인 것은 모두 적용된다. 이 음향 장비 들이 한 기기로 합쳐져 있는 형태가 바로 에디슨이 만들어 낸 축음기이고, 이보다 1년 전에 특허를 취득한 것이 벨의 전화기로 이 두 발명품이 음향 장비의 시작이라 할 수 있다.

xlvii


참고문헌 미야자와 키요토(2006). 󰡔라이브음향󰡕. SR Music(2006), 31쪽, 77∼78쪽. 안세영(1999). 󰡔녹음기술개론1󰡕. 탐구원. 장호준(2006). 󰡔음향시스템핸드북󰡕. 예영커뮤니케이션. Glen Ballou(1988). Handbook for Sound Engineers. Howard W., Sam & Com, 342쪽. Hugh Robins(1997). ‘Stereo Microphone Techniques, Part 1’. ≪Sound On Sound≫ 2월호. Michael Chanan(1995). Repeated takes. 박기호(2005). 󰡔음악 녹음의 역사󰡕. 13∼15쪽. 동문선. Rumsey, F., & McCormick, T.(1992). Sound and Recording. Focal Press. 252∼255쪽 ≪믹스≫, “The Decca Tree”, Ron Streicher. Sep 1, 2003 http://mixonline.com/recording/applications/audio_decca_ tree/ ≪일렉트로닉 뮤지션≫ 2007년 7월 1일 http://www.emusician.com/techniques/0768/blumlein-pai r-stereo-miking/134302 브리태니커 백과사전 ‘Memnon’ http://www.1911encyclopedia.org/Memnon 토스링크 http://www.toslink.net/ RCA 홈페이지 http://www.rca.com/about/the-rca-story/ The Story of Jack Foley. http://www.marblehead.net/foley/jack.html

xlviii


차례

음향 장비의 발전과 다양한 활용

01

전화기

02

마이크로폰

03

믹싱 콘솔

04

파워앰프

05

스피커

06

이펙트 프로세서

07

녹음기

08

디지털 녹음기

09

미디

10

하드디스크 리코딩

부록

104

1 13 25 35 45 55

65 75

85 95

v



01 전화기

전화기(telephone)는 먼 거리란 텔레(tele)와 목소리를 뜻하는 폰(phone)의 조합어로 1870년대 알렉산더 그레이엄 벨과 몇몇 사람들이 고안하기 시작했고, 1876년 벨이 미국에서 특허를 취득했다. 가까운 거리의 두 사람이 주고받던 시스템으로 시작해 점차 먼 거리, 여러 사람으로 범위가 넓어졌고, 수동 연결에서 자동 연결 방식으로 발전해 현재에 이르고 있다.


전화기의 발명 알렉산더 그레이엄 벨(Alexander Graham Bell, 1847∼ 1922)이 특허를 취득하기 전부터 전화기(telephone)라는 용어는 존재했고, 각기 다른 나라에서 각각의 방법으로 전 화기 개발을 시작한 사람들이 있었다. 1844년경부터 처음 으로 ‘전화기’ 아이디어를 제안한 이탈리아의 이노센조 만 제티(Inocenzo Manzetti)를 비롯해 “목소리의 전기적 전 송”이란 글을 잡지에 기고한 프랑스의 샤를 부르셀(Charles Boursel), 부르셀의 아이디어를 실현시켜 몇 번에 걸쳐 전화 기 작동을 시현했던 독일의 요한 P. 라이스(Johann Philip Reis), 이탈리아 출신 안토니오 무치(Antonio Meucci), 미국의 엘리샤 그레이(Elisha Gray) 등이 대표적인 인물 이다. 그중 무치와 그레이는 상당 부분 진전이 있어 벨보 다 먼저 혹은 더 좋은 기술력을 가진 전화기를 선보이지 만, 특허권은 벨이 가장 먼저 접수했고, 후에 특허권 분쟁 에서도 법원은 벨의 손을 들어주었다. 벨은 스코틀랜드 에든버러에서 태어나 할아버지와 아 버지가 종사하는 발음교정과 웅변술을 공부하고 캐나다 로 이민 갔다가 1871년 미국 보스턴으로 이주했다. 그는 기술적으로 다른 경쟁자들보다 뛰어나지는 않았지만 귀 의 특성, 소리의 성질이나 음악 등의 이해가 전화기 발명

2


<그림 15> 벨의 전화기

출처: 경기도 여주 폰박물관.

에 도움이 되었다. 그리고 보스턴의 영향력 있는 변호사 가디너 허버드(Gardiner G. Hubbard)의 사위가 되어 그 의 소개로 경제적인 후원을 받을 수 있었다. 무엇보다 발 명을 통해 그가 설립한 농아학교 학생들에게 도움을 주고 자 하는 동기도 뚜렷했다. 벨은 전화기를 발명하던 경쟁 자나 투자자를 포함한 대다수 사람들이 상업성에 대해 불

3


최초로 전화기를 발명한 알렉산더 벨(Alexader Graham Bell, 1847 ∼1922) ⓒ 커뮤니케이션북스

투명하게 여겼던 것과 달리, 전화기의 미래 가치에 대한 확 신이 있었고, 이를 이루고자 하는 사업 수완도 뛰어났다. 1870년경 시작된 벨의 전화기에 대한 아이디어는 전신 (telegraph)에서 파생되었다. 그 당시 30여 년간 표준으로 자리 잡은 모스 부호는 짧거나 긴 신호음의 조합을 전선을 통해 전송하는 방식이었다. 이때 한 번에 한 메시지만 전 달하는 한계점이 있었는데, 이를 극복하기 위해 벨은 각기 다른 음정을 가진 메시지들을 하나의 선으로 전송하는 방 법을 연구했다. 그의 경쟁자 엘리샤 그레이를 비롯한 몇

4


몇 발명가들이 이미 유사한 연구를 시작했으며, 이 다중전 신 전송 방식을 실행한 적이 있었으나 벨의 음악적이고 배 음구조(harmonics)에 근거한 방식은 더 좋은 결과를 도출 했다. 그 당시 벨은 보스턴대학교에서 발성·음성생리학 교 수로 재직 중이었으며, 농아교육에도 관심이 있었다. 그 는 개인 강습을 하던 학생으로 나중에 자신의 아내가 되는 메이블 허버드(Mabel Hubbard)를 만났고, 그의 아버지 가디너 허버드는 다중전신에 대한 설명을 듣고 웨스트유 니온 전신회사(West Union Telegraph Company)로부터 연구 기금을 받을 수 있도록 도왔다. 기술 분야를 담당하 는 파트너 토머스 왓슨(Thomas Watson)의 도움으로 다중 전신을 개발하던 벨은 진동판의 움직임을 전류를 통해 전 송하고 그것을 다시 소리로 재생해 내는 방법을 발견했다. 이 전화기의 미래에 어느 정도 확신이 선 벨은 1876년 2 월 14일 특허권을 신청했고, 바로 한 시간 후 엘리샤 그레 이는 변호사를 통해 특허절차보류(patent caveat) 신청을 접수했다. 18세기 들어 여러 가지 발명품이 쏟아져 나오 기 시작하면서 그 발명품에 대한 권리를 주장하게 되었는 데, 특허권은 어느 정도 완성품에 대한 설계도 또는 완제 품 검증인 반면에 특허절차보류 제도는 아직 완성도는 떨

5


어지는 단계지만 아이디어를 설명하고 1년 안에 특허권을 신청하면 되는 사전 예약에 해당하는 제도였다. 특허보류 가 신청된 후 다른 사람이 동일 항목에 특허권을 신청하면 그 시점으로부터 3개월 안에 특허보류권을 신청한 사람에 게 먼저 특허권을 신청할 수 있는 우선권이 주어지지만, 그것이 성공하지 못하면 새로 특허권을 신청하려는 사람 이 특허권을 신청할 수 있는 제도다. 이 제도는 특허권보다 비용이 저렴하고, 서류도 훨씬 간편했으며, 신청 후 1년간 유효하나 1년이 지나 다시 소 정의 수수료를 지불하면 1년 연장도 가능했다. 엘리샤 그 레이의 특허보류 신청은 받아들여지지 않았고, 벨은 3주 후 3월 14일 “전신의 개선: 자석식 전화기”로 특허를 인정 받았다. 엘리샤 그레이(1835-1901)는 미국 오하이오주 출신으 로 오벌린대학교(Oberlin College)에서 전기를 전공하고 전신 분야를 필두로 70여 개의 특허를 획득했다. 벨과 같 이 특허권을 신청한 1876년을 기준으로 볼 때, 벨은 20대 후반의 초년병이었던 데에 비해 그레이는 40대 초반으로 이미 많은 특허권을 확보한 중견 발명가였다. 전화기에 대한 발명도 벨과 유사하게 다중전신을 개발하는 과정에 서 시작했고, 벨이 특허권 신청 시 진동판을 가죽으로 개

6


발한 반면 그는 그 이전부터 금속판을 사용해 기술적으로 도 앞서 있었다. 하지만 벨이 미래의 상품 가치를 확신한 데 반해 그는 상품성에 회의적이었고, 그 당시 표준이던 전신의 발전에 더 많은 노력을 투자해, 적어도 전화기 특허권에서만큼은 벨에게 추월당하고 말았다. 그레이는 현 루센트테크놀로 지(Lucent Technology)의 전신인 웨스턴일렉트릭을 설 립했고, 1880년 오벌린대학교의 동전기학 교수가 되어서 도 전신 방면에서 활발하게 발명품을 만들었다. 전화기를 벨보다 먼저 만든 것으로 알려진 또 다른 인 물로는 안토니오 무치(1808∼1889)가 있다. 이탈리아 출 신인 그는 1835년 쿠바로 이주했다가 1850년 다시 뉴욕으 로 이주했으며, 금속도금 공장을 경영하면서 전기를 이용 해 병든 사람을 치료하기도 했다. 이 과정에서 얻은 아이 디어로 1860년경 텔레트로포노(teletrofono)라 명명한 전 화를 발명해 몸이 불편했던 옆방의 아내와 통화하기도 했 다. 그리고 여러 곳에서 시연도 했으나, 이를 상품화하기 어려워 더 이상 발전시키지 못했다. 1871년 12월 전화기 에 대한 특허보류신청을 제출했고, 그 후 두 번 더 연장신 청을 했지만 1874년 더 이상 연기신청을 하지 않아 보류 신청은 소멸되었다. 그로부터 약 1년 후 벨이 특허를 신청

7


하게 됐다. 이탈리아 이민자였던 무치는 영어에 익숙하지 않았고, 경제 형편도 좋지 않았는데, 특허신청을 위탁한 웨스트유 니온 전신회사가 설계도와 설명서를 모두 분실하고 말았 다. 전화기 시연과 연구 과정에 벨이 함께 있었고, 그의 아 이디어를 벨이 도용했다고 주장했으나 재판 직전 무치가 사망해 재판은 이루어지지 않았다. 세월이 흘러 2002년 6 월, 이탈리아 출신 미국 하원의원인 비토 포셀라에 의해 미국 의회는 최초의 전화기 발명자로 무치를 인정했다. 하지만 여전히 벨은 전화기 특허권을 최초로 획득한 사람 으로, 또한 전화기를 대중에 성공적으로 보급한 사람으로 남아 있다.

전화기의 발전 전화기는 소리를 전기 신호로 바꿔 멀리 있는 곳으로 전송 해 다시 소리로 재생하는 기기다. 이를 위해 여러 사람들 의 아이디어가 사용되었는데, 먼저 전류에 소리를 전달하 는 방법은 1837년 미국의 발명가 찰스 그래프턴 페이지 (Charles Grafton Page)에 의해 고안되었고, 부르셀은 전류를 다시 소리로 재생할 수 있는 방법을 소개했다. 초창기 벨과 다른 경쟁자들이 발명한 전화기는 전자석식

8


(electromagnetic)이었다. 전자석에 전류를 보내면 자석 의 성질을 갖는 원리를 이용해 목소리가 송화기에 진동판 을 움직이면 자기장 안에 유도 전류를 배출하고, 이것이 전선을 타고 상대방에게 전달된 후 다시 수화기의 진동판 을 움직여 소리를 생성하는 것이다. 당시 많은 사람이 전화기의 상품성에 회의적이었던 이 유는 또렷하지 않은 음질 때문이었다. 여러 종류의 진동 판을 시험하던 벨의 전화기도 사람이 알아들을 수 있는 수 화기 소리를 만들기까지는 특허신청 후 며칠이 지나야 했 다. 1877년 에디슨은 탄소 전송기로 특허를 신청했고, 이 를 전화기에 차용한 후 전화기의 음질은 급격히 좋아졌다. 1대1로 근거리에만 사용하던 전화기가 점차 원거리로 범위가 넓어지며 동시에 여러 사람과 통화를 시작하면서, 1878년 헝가리의 발명가 티라다 푸스카스(Tiradar Puskas) 가 교환대를 발명해, 교환수가 수동으로 원하는 곳으로 연 결해줄 수 있게 되었다. 1899년 앨먼 스트라우저(Almon Strowger)는 교환수가 필요 없이 직접 연결하는 자동다 이얼 시스템을 발명했다. 1960년대 들어 AT&T(America Telephone and Telegraph)는 전화번호를 누를 때 기존 방식인 펄스 다이얼(pulse dial)에서 더 발전된 지금과 같 은 톤 다이얼(tone dial)을 선보였다. 기계식인 펄스 다이

9


<그림 16> 전화국 교환수

출처: 위키백과 ‘텔레폰 스위치보드(Telephone switchboard)’.

얼은 옛날 다이얼식 방식으로 누르는 번호 버튼마다 기계 적 접점의 단락 횟수로 번호를 인식했다. 반면 전자식인 톤 다이얼은 버튼마다 고유의 주파수가 있어서 그 주파수 로 번호를 인식하는 방식이다. 특허권 분쟁으로 얼룩진 채 시작했던 전화기는 이제 우 리 생활에서 뗄 수 없는 존재로 자리 잡았으며, 계속해서 무선전화기, 화상전화기, 휴대폰, 인터넷전화 등으로 진 화했다.

10


참고문헌 Huber&David Miles(2001). Modern Recording Techniques. Focal Press. Michael Chanan(1995). Repeated takes. 박기호(2005). 󰡔음악녹음의 역사󰡕. 동문선. 왕연준(2009). 특허도 선착순? 벨의 전화기 발명 이야기. http://www.ideakeyword.com/2125 이기진(2011). 최초의 전화기 발명가는 벨이 아니라고?. ≪채널예스≫ http://ch.yes24.com/Article/View/18680 이호을(2003. 8. 24). 전화기 발명자 벨 아니다. ≪한겨레≫, 인터넷판 http://legacy.www.hani.co.kr/section-007100001/2002/06 /007100001200206172139114.html 위키백과 ‘텔레폰 스위치보드(Telephone_switchboard)’ http://en.wikipedia.org/wiki/Telephone_switchboard

11



02 마이크로폰

소리를 진동판이 감지해 전기신호로 변환하는 기기는 1827년 찰스 휘트스톤 경(Sir Charles Wheatstone)이 처음 착안했다. 마이크로폰(microphone)이란 명칭은 ‘작다’라는 의미의 마이크로(micro)와 ‘목소리’를 뜻하는 폰(phone)의 조합어다(Chanan, 1995).


변환방식 마이크로폰의 가장 핵심 원리는 소리에너지를 전기에너 지로 바꾸는 것이며, 이렇게 에너지의 형태를 변환하는 장 치를 트랜스듀서(transducer)라 한다. 더 자세히 말하면 물리적인 진동에 의해 발생한 소리는 공기에 의해 전파되 어 진동판(diaphragm, 다이어프램)을 앞뒤로 움직이며 그 기계적인 운동을 다시 전기 신호로 변환해 전압을 발생 시킨다. 이때 변환방식에 따라 탄소 마이크, 크리스털 마 이크, 다이내믹 마이크, 콘덴서 마이크로 분류된다. 탄소 마이크는 탄소 가루로 채워진 마이크캡슐에 소리가 도달하면 가루 입자들의 두께가 변해 저항이 변하는 원리다. 토머스 에디슨(Thomas Edison)과 에밀 벌리너(Emile Berliner)에 의해 경쟁적으로 발명되었고, 1877년 에디슨 이 특허를 신청했으나 특허 소송으로 15년 후에 인정되었 다. 초창기 벨이 발명한 전화기의 소리를 감지하는 송화 기에 쓰였고, 축음기의 소리를 녹음하는 장치로도 쓰였다. 구조가 간단하고 가격이 저렴한 장점이 있으나 주파수 대 역(200∼3000㎐)이 좁아 최근에는 전문가용 마이크로는 쓰이지 않고, 전화기나 장난감 등에 쓰인다. 크리스털 마이크는 1880년 자크 퀴리(Jacques Curie) 와 피에르 퀴리(Pierre Curie) 형제에 의해 처음 발명되었

14


1877년 탄소 마이크를 발명한 에밀 벌리너(Emile Berliner, 1851∼ 1929) ⓒ 커뮤니케이션북스

고, 1919년 로첼 솔트(Rochelle Salt)와 알렉산더 니컬슨 (Alexander Nicolson)이 라우드스피커, 축음기 픽업, 마 이크로폰 등 여러 가지 제품으로 시연했다. 이 마이크는 열이나 습도에 약하고 음질이 탄소 마이크보다는 좋으나 (주파수 50∼10KHz) 녹음이나 PA(Public Address)용으 로 쓸 만큼 좋지는 않아 요즘에는 무전기나, 어쿠스틱기타 등의 악기에 부착하는 피에조 픽업으로 많이 쓰인다. 녹음용으로 많이 쓰이는 마이크로폰에는 콘덴서 마이 크가 있는데, 커패시터 마이크라 부르기도 한다. 1916년

15


<그림 17> 이승만 대통령이 대통령 수락연설 때 사용했던 RCA 마이크

출처: 동아방송예술대학교 이경순소리박물관.

벨연구소의 에드워드 웬트(Edward C. Wente)에 의해 콘 덴서 마이크와 진공관 증폭에 대한 연구가 시작되었고, 1926년 웨스턴일렉트릭의 394모델이 보급되기 시작했다. 1964년 벨연구소에 근무하는 제임스 웨스트(James West) 와 제허드 세슬러(Gerhard Sessler)는 콘덴서 마이크와 유 사한 일렉트릿(electret) 마이크로 특허를 인정받았으며, 1968년 소니가 보급하기 시작했다. 콘덴서 마이크는 고정판(plate)과 움직이는 진동판 사 이에 전하를 형성시키고 소리가 진동판이 포함된 움직이

16


는 판을 작동시킬 때마다 전류를 내보내는 형태다. 진동 판의 무게가 무빙코일보다 가벼워 고음 특성이 좋고 음색 도 섬세하다. 반면 전극 사이가 가까워 온도와 습도 등에 취약하고 충격에도 약하며, 가격이 비싸고, 두 전극 사이 에 전하를 형성하고 약한 출력을 프리앰프로 증폭하기 위 해 팬텀 전원이라 불리는 직류 외부 전원이 필요하다. 이 팬텀 전원은 독립적으로 마이크와 콘솔 사이에 연결되기 도 하지만 근래에는 콘솔에서 버튼으로 48V 전원을 공급 하는 것이 일반적이다. 다이내믹 마이크는 영국의 과학자 마이클 패러데이 (Michael Faraday, 1979∼1867)의 자기유도 원리를 근거 로 만들어졌는데, 영구자석의 자기장 영향 안에 있는 진동 판에 붙은 코일(moving coil)이 소리에 반응해 움직이면 전압이 유도하게 된다. 다이내믹 마이크 중에는 이렇게 보이스코일을 사용하는 무빙코일 마이크와 리본 마이크 가 있는데, 무빙코일 마이크를 흔히 다이내믹 마이크라 칭 한다(Huber and Williams, 1997). 무빙코일 마이크는 콘 덴서 마이크만큼은 아니지만 주파수 특성이 좋은 편이고, 구조가 간단해 가격이 저렴하고 습도, 온도 변화, 충격에 강하고 외부 전원이 필요 없는 장점이 있다. 하지만 고음 특성이 좋지 않고, 음색 또한 섬세하지 못하다. 최초의 무

17


<그림 18> 무빙코일 마이크로폰

출처: 김윤철(2007). 󰡔디지털 사운드 제작󰡕. 동아방송예술대학출판사.

빙코일 마이크는 에른스트 지멘스(Ernst Siemens)에 의해 고안되고 특허가 인정되었으나, 실제로 제작한 것은 1928 년 에드워드 웬트와 알버트 터러스(Albert L. Thuras)에 의해서다. 이때 웨스턴일렉트릭에 의해 처음 만들어진 618-A란 모델은 무지향성이었고, 녹음 라디오 및 여러 용 도로 쓰이기 시작했다. 벨로시티 마이크라고도 불리는 리본 마이크는 독일의 지멘스에서 일하던 물리학자 발터 쇼트키(Walter H.

18


Schottky)가 1924년 처음 개발했고, 1931년을 시작으로 RCA의 해리 올슨(Harry Olson)이 44A 등을 필두로 여러 시리즈를 선보이면서 활성화되었다. 이것 역시 영구자석 을 통해 형성된 자기장과 무빙코일 대신 주름 잡힌 종이나 알루미늄처럼 가벼운 소재에 다이어프램을 장착한 리본 을 소재로 한 다이내믹 마이크다. 무게가 가벼워 고음 특 성도 우수하고 소리도 부드럽다는 장점이 있으나 큰 음압 에 섬세한 리본이 손상되는 등 내구성이 약하다는 단점이 있었다. 1940년대와 1950년대 방송에 많이 쓰였으나 TV 가 자리 잡으면서 상대적으로 크기가 커서 마이크 사이즈 가 미관상 안 좋은데다 때마침 보급된 콘덴서 마이크에 밀 려 개발이 중단되고 말았다. 하지만 리본 마이크만의 독 특한 소리는 녹음 스튜디오에서 간간이 애용되어 왔고, 1980년대 들어 장비가 디지털로 전환되면서 날카롭고 차 가운 디지털 소리를 부드럽게 만들기 위해 다시 각광을 받 아 신모델들이 출시되었다.

마이크로폰의 지향성 마이크로폰의 입사각도에 따른 감도의 차이를 지향성이 라 한다. 마이크로폰을 중심으로 정면, 측면, 후면 등 방향 의 0도에서 360도를 그래프로 표시한 것을 극성(polar) 패

19


턴이라 한다. 예를 들어 단일지향성(uni-direction) 마이 크로폰은 동일한 거리의 정면(0도)에서 들어오는 소리에 가장 민감하게 반응하고 후면 소리는 이론상 거의 들어오 지 않는다(저음과 고음 등 주파수에 따라 약간의 편차를 보인다). 반면에 무지향성(omni-direction) 마이크로폰 은 모든 입사각에서 동일한 감도를 갖고, 양지향성(bidirection)은 전방(0도)과 후방(180도)이 가장 민감하고 양쪽 측면(90도, 180도) 소리는 거의 들어오지 않는다. 단 일지향성은 <그림 19>와 같이 심장 모습과 같다하여 카디 오이드(cardioid)라고 부르며, 정면 수음과 측면 수음의 정도에 따라 카디오이드, 슈퍼(super) 카디오이드, 하이 퍼(hyper) 카디오이드, 울트라(ultra) 카디오이드로 분류 되고, 옴니와 카디오이드의 중간 형태인 하프(half 혹은 sub) 카디오이드도 있다. 초창기 마이크는 무지향성 마이크였고, 리본 마이크가 탄생하면서 리본이 앞뒤로 움직이는 양지향성이 사용되 었다. 그러나 무대에서 공연하는 오케스트라 마이킹을 위 해서는 인접 악기 소리가 타고 들어오는 것과 피드백을 방 지하기 위해 단일지향성이 필요하게 되었고, 1930년경에 는 특정 방향의 소리만 모으는 파라볼릭 집음판(parabolic reflector)을 사용해 단일지향성을 대신하기도 했다. 올슨

20


<그림 19> 마이크로폰의 극성 패턴

출처: 김윤철(2007). 󰡔디지털 사운드 제작󰡕. 동아방송예술대학출판사.

은 자신이 개발한 양지향성 마이크와 무지향성 마이크의 결합으로(∞+◯=♡) 단일지향성을 만들어냈다. 1939년 웨스턴일렉트릭에서도 이중 엘리먼트(dual element)의 결합방식으로 공연 음향을 위한 단일지향성 마이크 개발 에 성공하고, 이중 엘리먼트의 여러 조합으로 무지향, 양 지향, 단일지향 하이퍼 카디오이드 등을 만들었다. 엘리 먼트란 마이크로폰에서 진동판과 변환부를 포함한 중심 부분을 말한다. 한편 슈어(Shure)에서는 1930년대 후반부 터 벤자민 바우어(Benjamin Bauer)가 단일 엘리먼트 단 일지향성 마이크를 개발해 1941년 유니다인(Unidyne) 모

21


델을 출시하고 공연 음향의 마이크로서 새로운 지평을 열 었다. 그 밖에 크라운에서 특허 출시한 헤미스페리컬 패턴의 PZM(모델명 pressure zone mic)은 바운더리 마이크로폰 으로 분류되며 반구형 픽업패턴을 보인다. 이 마이크는 바닥이나 악기에 부착해 세팅이 간편하고 반사음으로 인 한 위상 문제로부터 자유로운 장점이 있다. 전화기에서 파생된 마이크로폰의 사용 목적은 크게 두 가지다. 공연이나 연설에서 소리를 확대하는 것과 인터뷰, 녹음실에서처럼 소리를 기록하는 것이다. 이 목적을 달성 하기 위해 마이크로폰은 설계되었고, 사용자도 그 목적을 파악해 가장 효과적인 마이크로폰을 선택해 사용해야 한 다. “마이크로폰 테크닉 중 가장 어려운 기술이 바로 마이 크로폰을 선택하는 기술이다”라는 말이 있는데, 경험 많 은 음향엔지니어들일수록 자주 하는 말이다.

22


참고문헌 Alten, S. R.(2007). Audio in Media. 김윤철(2008). 󰡔미디어 음향󰡕. 커뮤니케이션북스. Chanan, Michael(1995). Repeated takes. 박기호(2005). 󰡔음악녹음의 역사󰡕. 동문선. Huber, D. M., & Williams, P.(1997). Microphone Techniques. Mix Books. “웨이백머신” http://web.archive.org/web/20021220075956/ http://history.acusd.edu/gen/recording/microphones1.html ≪믹스≫ 명예의 전당(1916). “The Condenser Microphone” http://mixonline.com/TECnology-Hall-of-Fame/1916-c ondenser-microphone-090106/ ≪믹스≫ 명예의 전당(1928). “Western Electric 618A Dynamic Microphone”, (2008. 8. 28.). http://mixonline.com/TECnology-Hall-of-Fame/1928_w estern_electric_618A_microphone/ “12 microphoe that mad history”(Jim Web) http://www.coutant.org/12mics/ “E.C. Wente: An Unsung Audio Pioneer Gets His Due”(Jan 6, 2011) By George Petersen http://svconline.com/loudspeakers/features/ec_wente_unsu ng_audio_pioneer_0106/

23



03 믹싱 콘솔

믹싱 콘솔은 프리앰프(pre-amp)의 일종으로 콘솔, 믹서, 데스크, 보드(board), AMU(Audio Mixing Unit) 등 여러 명칭으로 부르지만 하는 일은 간단하다(Davis & Johns, 1989). 마이크로폰과 라인 등 각기 다른 종류의 신호를 받아서 적재적소 원하는 곳으로 보내주는 역할을 한다. 가정용 오디오 시스템에는 프리앰프(pre amplifier)라는 기기가 있어 CDP, 카세트데크, LP, 라디오튜너 등 각기 다른 출력 레벨을 지닌 장비들로부터 입력을 모아 적당한 신호를 다음 장비인 파워앰프로 보낸다. 믹싱 콘솔(mixing console)의 기능도 이 프리앰프와


같다. 마이크를 통해 들어오는 사람 목소리나 피아노 소리를 등 안정되게 받아 모은 후 원하는 곳으로 보내주는 것이다. 콘솔에서 나가는 출력은 파워앰프를 거쳐 라우드스피커로 가기도 하고, 이펙트 프로세서로 가서 소리를 변조하기도 하며, 녹음기로 저장할 수도 있다. 음향엔지니어는 이 과정에서 소리를 받아 음량, 톤, 위치(스테레오에서 좌우, 서라운드에서 앞뒤 등) 등을 조절해 원하는 목적지까지 안전하게 보내주는 역할을 한다.

믹싱 콘솔의 분류 콘솔은 사용하는 목적에 따라 PA(Public Address)용, 녹 음용, 방송용으로 분류되며 각각 강조되는 기능에 따라 약 간의 차이는 있지만 기본 기능은 모두 동일하다. ① 녹음 용 콘솔은 스탠드형으로 스튜디오 안에서 쓰이고 한 번 설 치되면 여간해선 이동하지 않는다. 멀티트랙 녹음기 사용 을 위해 입력 채널도 많고, 그룹버스(group bus)도 많이 필요하다. 그룹버스는 입력 채널로 들어온 신호를 녹음기 트랙으로 보내는 역할을 담당하기 때문에 멀티트랙 녹음

26


<그림 20> 빈티지 커스텀 콘솔

출처: 동아방송예술대학교 이경순소리박물관.

기의 트랙 수가 많을수록 그룹버스의 수도 상응하게 많아 야 한다. 니브(Neve) VR모델이나 SSL 9000시리즈 등이 녹음용으로 유명하다. ② PA용 콘솔은 공연장 내부나 야 외에서 사용되고, 공연 및 행사에 따라 이동이 잦아 내구 성이 강하다. 녹음용처럼 그룹이 많이 쓰이지는 않지만 대신 입력 신호를 콘솔 외부로 출력시키는 옥스(Aux.)가 발달되어 있다. PA용으로는 마이다스(midas)사의 콘솔이 오랫동안 많은 인기를 끌었고, 디지털시대가 되면서 야마 하의 M7CL이나 디지디자인의 베뉴(venue)도 점차 많이

27


사용되고 있다. ③ 방송용 콘솔은 자동화 기능이 포함되 고, 비교적 사용이 간단한 구조이며, 그룹과 유사한 4개의 분리된 채널인 쿼드라포니(quadraphony)을 포함하는 경 우가 많다. 초창기부터 아날로그 콘솔이 계속 쓰여 왔으나 최근에 는 녹음, PA 할 것 없이 모두 디지털 콘솔로 많이 바뀌는 추세이고, 기본은 아날로그인데 몇몇 기능만 디지털 방식 을 차용한 디지털 컨트롤(digital controlled 혹은 하이브 리드) 방식도 한동안 사용됐다. 최근에는 프로툴(pro tools)을 비롯한 DAW(Digital Audio Workstation)가 강 세여서 워크스테이션과 같이 연동하는 컨트롤러가 분야 를 막론하고 많이 사용되는 추세다. 디지디자인의 아이콘 (icon)과 같이 외관상 콘솔과 유사하나, 실제로는 마우스 처럼 소프트웨어를 제어하는 역할을 하므로 콘솔로 취급 하기에는 무리가 있어 가상 콘솔(virtual console)이라 부 르기도 한다.

믹싱 콘솔의 발전 초창기 녹음은 <그림 21>처럼 다 같이 모인 방에서 하나 의 어쿠스틱 마이크로폰으로 녹음하는 시스템이었다. 악 기 중에 밸런스가 안 맞는 악기는 위치를 바꾸어 소리의

28


<그림 21> 초창기 녹음 모습

출처: 미국 오디오엔지니어협회 홈페이지 http://www.aes.org/aeshc/docs/recording.technology.history/images/890 17.jpg

크기를 조절했고, 도중에 한 사람이라도 틀리면 처음부터 다시 녹음하는 원테이크(one take) 방식이었다. 때문에 여러 소리의 소스를 모으는 믹싱 콘솔은 필요하지 않았으 며, 1950년대 들어오면서 모노나 2트랙 테이프 녹음기가 쓰이기 시작했고, 이와 연결할 수 있는 1채널 또는 2채널 콘솔이 선보이기 시작했다. 특히 1956년 기타리스트 레스 윌리엄 폴(Les William Paul)이 트랙마다 각기 다른 정보

29


를 독립적으로 녹음하는 멀티트랙 녹음기(이 경우 8트랙) 를 개발하면서 믹싱 콘솔의 발전이 가속화되었다. 멀티트랙 녹음기를 콘솔과 연결하면서 콘솔의 사이즈 는 기존의 모노나 스테레오 녹음기와 연결하는 경우에 비 해 두 배로 커지게 되었다. <그림 22>와 같은 8트랙 녹음 기를 연결할 경우 마이크로폰이나 악기의 신호를 받는 8 채널(콘솔의 우측 8채널)은 다이렉트 아웃(direct output) 또는 그룹버스를 사용해 멀티트랙 녹음기로 녹음되고, 8 트랙 녹음기에서 재생(믹스 또는 모니터)되는 테이프 리 턴(tape return) 신호를 위해 또 다른 8채널(콘솔의 좌측 8 채널)이 필요하게 되었다. 멀티트랙 녹음기가 계속해서 16트랙, 24트랙으로 늘어나자 콘솔의 사이즈는 그 두 배 인 32, 48만큼 커지게 되었다. 이렇게 큰 사이즈를 감당할 수 없어 다른 방법을 고안하게 되는데 바로 한 모듈에 채 널과 모니터(믹스)가 같이 일렬로 있는 인라인(in-line) 콘 솔이다. 기존의 방식은 채널과 모니터가 별도로 떨어져 있어 스플리트(Split) 콘솔이라 부르게 되었다. 인라인 콘솔도 스플리트 콘솔과 같이 입력채널을 다이 렉트 아웃과 그룹버스를 사용해 멀티트랙 녹음기의 입력 으로 보낸다. 하지만 녹음기에서 들어오는 테이프 리턴 신호는 별도의 채널이 아닌 기존의 좌측 8채널과 동일한

30


<그림 22> 스플리트 콘솔과 멀티트랙 연결

채널 선상에 위치한 테이프 리턴 신호를 위해 별도로 마련 한 입력 단으로 들어온다. 콘솔의 구조가 복잡해지긴 했 지만 채널수는 스플리트 콘솔보다 적게 소모된다. 1970년 대 이전까지 콘솔은 공장에서 대규모로 생산하는 것이 아 니라 소규모 전기 회사의 도움으로 녹음엔지니어가 직접 원하는 방식대로 주문받아 디자인하는 추세였고, 이 인라 인 콘솔의 아이디어도 댄 플리킹어(Dan Flikinger)에 의 해 주문받아 디자인되어 만들었으나 몇 대를 제작하고 잊 혀졌다. 그로버 집 하메드(Grover ‘Jeep’ Hamed)는 자신

31


<그림 23> 인라인 콘솔과 멀티트랙 연결

이 설립한 MCI(Music Center Inc.)에서 엔지니어 루츠 메 이어(Lutz Meyer)의 도움으로 1971년 자신의 이름 약자를 딴 JH-400이란 콘솔을 만들고, 이 모델은 곧 업계에서 대 량생산되었다. 인라인 콘솔을 활성화시킨 또 다른 인물은 내시빌의 오디오 딜러 데이브 해리슨(Dave Harrison)이 었다. 그는 그의 이름을 딴 회사 해리슨을 설립하고 MCI 의 도움으로 인라인 콘솔을 제작해 1975년 해리슨 3232 모델을 출시했다. 콘솔 전문회사가 생겨나면서 스플리트 콘솔은 영국에

32


<그림 24> 야마하 CL-5 디지털 콘솔

출처: 아빅스테크.

서 많이 제작되어 PA 분야에서 사용되었고, 인라인 콘솔 은 미국에서 제작되어 녹음 스튜디오용으로 사용된 경우 가 많아졌다. 하지만 정확한 구분은 없었고, 점차 나라별 이나 용도별 선호도 없이 혼용되어 사용되었다. 프로용 아날로그 콘솔은 계속해서 대형화되고 사용자 의 편의성을 위해 진화했으며, 1982년 콘솔의 양대 산맥 중 하나인 니브(Neve, 루퍼트 니브가 창업)의 DSP-1 모델 이 최초의 상업용 디지털 콘솔로 출시되면서 디지털화가 시작되었다. 현재 양대 산맥 중 또 다른 회사인 SSL을 비 롯해 여러 콘솔 회사들이 녹음용, PA용 할 것 없이 디지털 콘솔을 활발히 제작하고 있으며, 단지 홈 스튜디오에서 사 용하는 소규모 콘솔과 중급 콘솔만 아날로그로 제작되고

33


있다. 디지털 콘솔과 함께 최근 많이 사용되는 것은 컨트롤러 다. 거의 모든 음악 녹음실이나 포스트프로덕션 녹음실이 프로툴을 비롯한 컴퓨터 기반의 하드디스크 리코딩 워크 스테이션을 사용하면서 이와 편하게 연동되는 전용 컨트 롤러를 사용하는 것이 초기 투자비용, 공간 효율성, 관리 나 수리 측면에서 모두 이로워 당분간은 이들의 독주가 예 상된다.

참고문헌 장인석(2001). 󰡔리코딩아트󰡕. 샤프랫뮤직. Alten, S. R.(2007). Audio in Media. 김윤철(2008). 󰡔미디어 음향󰡕. 커뮤니케이션북스. Gary Davis & Ralph Johns(1989). Sound Reinforcement

Handbook. Yamaha. Rumsey, F., & McCormick, T.(1992). Sound and Recording. Focal Press. ≪믹스≫ 명예의 전당(1972). “MCI JH-400 Series Inline Console”, (2007. 9. 1.). 2007 http://mixonline.com/TECnology-Hall-of-Fame/1972MCI-Console/

34


04 파워앰프

음향작업을 할 때 가장 중요한 것 중 하나는 모니터다. 디자인이나 영상편집 등 컴퓨터 작업을 할 때 컴퓨터 모니터가 화면을 확인하는 모니터인 반면 음향에서 모니터는 듣는 데 관련된 기기로 파워앰프, 크로스오버 네트워크, 라우드스피커가 여기에 속한다. 이 중 파워앰프는 소리를 증폭시켜 스피커를 구동시키는 역할을 담당한다. 앰프는 앰플리파이어(amplifier)의 약자로서 입력된 신호를 증폭시키는 일을 한다. 전문가용 믹싱 콘솔이나 가정용 오디오의 프리앰프에서 파워앰프의 입력 단으로 들어가는 전기 신호가


수백 마이크로와트(㎼)에서 작게는 수십부터 최대 수천 와트(Watts)로 증폭된다. 일반인에게 가장 익숙한 앰프는 홈오디오 시스템의 인티(integrated)앰프나 기타앰프일 것이다. 두 가지 다 하나로 되어 있는 것처럼 보이지만 사실은 두 가지 기능이 합쳐진 것이다. 인티앰프는 프리앰프와 파워앰프가 조합된 형태이고, 기타앰프는 통상 앰프헤드라고 부르는 프리앰프, 그것을 증폭시키는 파워앰프, 스피커유닛까지 일체형으로 된 것이다.

앰프의 종류 프리앰프

가끔 컨트롤앰프라고도 부르며, LP와 같은 낮은 신호를 증폭시켜 주거나 라디오튜너, 카세트데크와 CDP 등의 신 호를 받아 조절한 후 파워앰프로 전송시키는 역할을 한다. 프리앰프(pre amp, control amp) 뒤쪽을 보면 이들 기기 들을 연결할 수 있는 단자들이 설치되어 있다. 프리앰프 는 큰 힘을 만들어주는 파워앰프 앞에서 다양한 소스기기 들로부터 초기에 입력되는 신호를 어느 정도 정돈해 주고,

36


사용자의 취향에 맞추어 베이스(bass)와 트레블(treble) 스위치 같은 이퀄라이저나 라우드니스 등 음색을 조정해 주는 역할을 한다.

파워앰프

프리앰프가 소리의 질을 결정하는 부분이라면 파워앰프 (power amplifier)는 단순히 소리의 양이나 스피커의 구 동력을 결정한다. 일명 메인 앰프라고 부르며, 스피커 앞 신호경로의 마지막 구성기기로 프리앰프에서 보내온 약 한 신호를 받아 스피커가 진동할 수 있게 큰 힘으로 증폭 시키는 역할을 한다. 파워앰프의 각 채널 출력이 150W 이 상이면 스튜디오 모니터용으로 충분하다. 예전에는 2채 널 스테레오앰프가 주종을 이루었지만 현재는 홈시어터 를 겨냥한 5개 또는 6개 채널의 서라운드용 앰프도 간간이 출시되고 있다.

인티그레이티드앰프

인티그레이티드(Integrated)형이란 프리앰프와 파워앰프 를 하나로 합쳤다는 뜻이다. 우리나라 중급형 오디오 시 스템은 대부분 이것이다. 사운드의 질이나 스피커의 구동 력은 프리앰프와 파워앰프를 더한 형태의 제품보다 떨어

37


지지만 저렴한 가격에 설치가 가능하고, 운영이 손쉬워 대 중적으로 사용되는 앰프다.

리시버앰프

인티형 앰프에 라디오튜너가 포함된 것을 말한다. 하지만 요 즘은 리시버앰프(receiver amp)라고 하면 AV리시버를 의미 하며 자체에 5.1 DD/DTS(Dolby Digital/Digital Theater System) 디코더를 탑재해 DVD로부터 디지털 연결로 5.1 혹은 그 이상의 채널 시그널을 전송받아서 DD/DTS(돌비 디지털/디지털 씨어터 시스템) 포맷으로 인코딩된 사운드 시그널을 분리, 재생, 증폭할 수 있는 앰프의 의미로 홈시 어터 시스템에 주로 쓰이고 있다.

디지털앰프

소리를 증폭시켜 주는 앰프의 성능을 더욱 좋게 설계한 것 이 최근에 등장한 디지털 회로 방식이다. 기존의 진공관 이나 트랜지스터 방식의 앰프보다 크기가 작아 가볍고, 발 열도 거의 없다. 특히 잡음 성분이 많이 포함된 소음량을 청취할 때도 AD컨버터를 사용, 더욱 깨끗한 신호로 음악 을 들을 수 있다. 대개의 디지털앰프에는 디지털 시그널 프로세서인 DSP기능이 탑재되어 있는데, 이 기능을 사용

38


함으로써 원신호는 전혀 손상시키지 않고 완벽하게 반복 발진으로 유발되는 하울링(howling) 성분만을 제거, 보다 선명한 소리를 만든다(김윤철, 2007).

앰프의 증폭 소자에 따른 종류 진공관앰프

1897년 조지프 톰슨(Joseph J. Thomson, 1906년 노벨 물 리학상 수상)이 음극선(캐소드레이, cathode rays)을 발 견했고, 에디슨의 전구 발명에 사용한 에디슨 효과를 참고 해 1904년 존 플레밍(John A. Flemming)이 2극 진공관을 발명했다. 곧이어 1906년 리 드 포리스트(Lee de Forest) 가 ‘오디션’이라 이름 지은 3극 진공관을 발명하며 오디오 의 시작을 열었다. 진공관앰프(Tube Amp)는 트랜지스터 가 나오면서 사용이 줄어들었으나 진공관만의 장점 때문 에 꾸준히 발전되어 왔고, 빈티지 성향을 지닌 초창기 그 대로의 소리를 내고 있는 것부터 최신의 기술과 부품을 사 용한 것까지 다양한 종류가 있다. 진공관 증폭소자의 특 성은 해상도가 높지만 차가운 음색을 가진 트랜지스터 증 폭소자에 비해 따뜻하고 부드러운 음색으로 편안함을 준 다. 큰 차이는 아니지만 저음 신호가 약하고 고역에도 한 계를 보이며, 많은 열의 발생으로 부품의 노후화가 빠르다

39


<그림 25> 진공관앰프

는 단점도 있다. 그리고 출력이 약간 적을 수 있으나 진공 관에는 출력 트랜스라고 하는 최종 출력 단에 트랜스가 있 어서 적은 출력이라고 해도 실제로 스피커 구동에는 문제 가 없다. 앰프에 사용되는 오디오용 진공관은 가열방식에 따라 직렬관과 병렬관으로 나눈다. 직렬관은 필라멘트 (Filament)에 직접 열이 가해져서 전자가 튀어나오는 진 공관이고, 병렬관은 히터가 있어서 이것이 가열되어 음극 에서 전자가 튀어 나오게 하는 방식이다.

40


3극 진공관을 발명하며 오디오의 시작을 열었던 리 드 포레스트(Lee De Forest, 1873∼1961) ⓒ 커뮤니케이션북스

트랜지스터

뉴저지 소재 벨연구소의 존 바딘(John Bardeen)과 월터 브래튼(Walter Brattain)은 진공관이 전원을 많이 소모하 고 발열이 심해 새로운 대체물을 연구하던 중 1947년 전 자와 금속, 금속과 반도체(이 경우 게르마늄)의 상호관계 를 연구하다 3극으로 된 오디오 증폭기를 만든다. 처음 만 든 것은 점접촉(point contact) 트랜지스터였는데, 이들과 동료 윌리엄 쇼클리(William Shockley)는 트랜지스터의 발명으로 1956년 노벨물리학상을 받았다. 후에 쇼클리는

41


조금 더 간단한 접합형(junction) 트랜지스터를 개발했고, 트랜지스터는 BJT(Bipolar Junction Transistors)와 FET로 발전했다. 트랜지스터라는 명칭은 ‘transfer’와 ‘resister’의 조합어다. 트랜지스터는 이미터(E), 콜렉터(C), 베이스(B) 등 세 개의 다리로 이루어진다. C에서 E로 흐르는 전류량은 B에 서 들어오는 전류의 변화에 따라 크게 변화해 증폭작용을 한다. FET에 비해 가격은 싸지만 흐르는 전류의 증가에 따라 열도 증가되는 성질이 있어 방열판 및 냉각팬을 이용 해 방열대책을 충분히 세우고 온도가 어느 정도 이상 올라 가는 것을 제한하기 위해 온도 보상 회로가 필요하다.

FET

FET(Field Effective Transistor)는 전계효과 트랜지스터라 는 뜻으로 생김새는 트랜지스터와 같이 소스(S), 게이트 (Gate), 드레인(Drain) 등 세 개의 다리로 구성된다. 하지 만 동작 원리는 약간 다른데, 기존 트랜지스터의 베이스 전류 대신 FET는 전압의 크기에 따라 흐르는 전류가 크게 변화하는 방식이다. 1925년 줄리어스 릴리앙필드(Julius E. Lilienfeld)와 1934년 오스카 헤일(Oskar Heil)이 각각 특허를 신청했으나, 실제로는 1947년 벨연구소의 윌리엄

42


쇼클리가 개발했다. 접합형 트랜지스터인 BJT보다 조금 늦게 개발된 FET는 BJT에 비해 작고 얇게 제작할 수 있고 전력 소모량이 적으며, 증폭작용이 비선형적이고 반응속 도가 늦다. 그 후 1960년 역시 벨연구소에서 근무하던 한 국인 과학자 강대원 박사가 개발한 MOSFET(metal oxide semiconductor FET, 금속산화막-반도체-FET, 또는 모스 펫이라고도 칭함)를 대량 전력을 수용할 수 있어 급속히 확대되었다. 또한 MOSFET의 전압, 전류 특성곡선은 5극 진공관과 비슷하기 때문에 진공관의 특성을 많이 가지고 있다. 개인마다 선호하는 소리는 다르지만 최근에는 CD, MP3 등 디지털 장비에만 지나치게 노출되는 경향 탓에, 부드럽고 따듯한 아날로그에 대한 향수로 LP를 비롯한 진 공관앰프로 돌아가려는 움직임도 일부 보인다.

43


참고문헌 김윤철(2007). 󰡔디지털 사운드 제작󰡕. 동아방송예술대학출판사. 오츠카 아키라 저. 신동수(2006) 역. 󰡔음향인을 위한 전기실용강좌󰡕. SRMUSIC. Rumsey, F., & McCormick, T.(1992). Sound and Recording. Focal Press. Wadhams, W.(1990). Sound Advice. Simon & Schuster Macmillan ≪믹스≫ 명예의 전당(1906). “Lee De Forest Triode Vacuum Tube”, (2006. 9. 1.). http://mixonline.com/TECnology-Hall-of-Fame/leedefor est-triode-vacuum-090106/ 오동희(2009. 4. 28). “에디슨과 나란히. 반도체 대가 故강대원박사”, ≪머니투데이≫, http://www.mt.co.kr/view/mtview.php?type=1&no=2009 042715165033811&outlink=1 위키백과 “FET” http://en.wikipedia.org/wiki/FET

44


05 스피커

마이크로폰이 음향에너지를 전기에너지로 바꾸는 트랜스듀서인데 반해 스피커(또는 라우드스피커)는 역으로 파워앰프에서 증폭된 전기신호를 받아 사람들이 들을 수 있는 음향에너지로 변환한다. 전화기의 수신기에서 처음 시작되어 영화관이 무성영화에서 유성으로 바뀌며 전 세계 영화관이 스피커를 설치하는 계기로 비약적인 발전을 이루었으며, 홈오디오, 홈시어터 시스템으로 가정에도 보급되었다.


스피커의 발전 라우드스피커는 흔히 스피커라고 칭하며, 소리를 모니터 한다는 의미로 모니터 스피커라고도 한다. 1830년대 모스 가 시작한 전신도 신호를 전선으로 전송하고 수신해 재생 한다는 의미에서 스피커에 영향을 끼쳤다고 볼 수 있으나, 직접적인 영향을 준 것은 벨과 다른 사람들이 발명한 전화 기의 수신기다. 1876년 벨이 전화기에 대해 특허를 신청 한 후에도 전송된 음성을 인식하기 힘들었고, 이후 송화기 와 수신기의 음질 개선에 관한 연구가 계속되었다. 미국의 C. 커트리스와 독일의 에른스트 지멘스(Ernst W. Siemens) 를 비롯해 토머스 에디슨(Thomas Edison), 니콜라 테슬라 (Nikola Tesla) 등이 전화 수신기 혹은 축음기의 확성장치 를 연구하던 대표적인 인물이었다. 이 중 지멘스는 1874년 자기회로 내에 원형 코일을 넣 어 상하로 움직이게 하는 무빙코일 변환기(moving coil transducer)에 대한 이론을 확립하고 특허를 신청했다. 지 멘스는 이 이론을 실용화하지 않다가 1877년 관악기의 관 형태로 생긴 진동판을 만들어 축음기에 사용해 호른 (horn)형 스피커의 원조가 되었다. 무빙코일(다이내믹)형 은 1898년 올리버 롯지(Oliver Lodge)가 근대적인 개량형 을 선보였고, 캘리포니아에 거주하던 덴마크 출신의 피터

46


<그림 26> 2way 액티브 스피커

젠슨(Peter L. Jenson)과 에드윈 프리드험(Edwin Pridham) 도 실용성 있는 무빙코일형을 개발해 PA용으로 사용하기 시작했으며 이 모델을 마그나복스(magnavox)라 부르고 후에 같은 이름의 회사를 설립했다. 1919년 아서 고든 웹 스터(Arthur Gordon Webster)가 혼 방정식이라는 혼의 음향적인 특성을 수학적으로 풀어낸 논문을 발표했고, 1929년 웨스팅하우스의 시버트(J. D. Seabert)는 콘형 스 피커보다 목소리 전달에 유리한 혼형 스피커를 개발했다. 1924년 독일의 발터 쇼트키(Walter H. Schottky)는 리본 마이크로폰과 리본형 스피커를 발명했다. 이듬해인 1925

47


1877년 관악기 관 형태의 진동판을 발명한 에른스트 지멘스(Ernst W. Siemens, 1816∼1892) ⓒ 커뮤니케이션북스

년 에디슨이 설립한 제너럴일렉트릭(GE)의 연구원 체스 터 라이스(Chester W. Rice)와 에드워드 켈로그(Edward W. Kellog)는 직접 방사식(direct radiation) 유닛에 대한 논문을 발표했는데, 이는 현재까지 사용되는 라우드스피 커의 기본 모델이 되었다. 1904년 플레밍과 1906년 포레스트에 의해 진공관앰프 가 발명되고, 1906년 12월 캐나다의 레지널드 페센든 (Reginald Fessenden)에 의해 라디오가 개발되어 몇 년 후 보급되면서 앰프와 스피커가 널리 쓰이기 시작했다.

48


라디오는 제1차 세계대전을 통해 확산되기 시작했고, 1920∼1950년 동안 미국은 라디오 황금기를 보냈다. 라 디오와 함께 스피커의 발달을 촉진시킨 것은 유성영화의 시작이었다. 1920년대 당시 영화는 모두 무성영화였다. 웨스턴일렉트릭은 1913년 포레스트의 진공관앰프 ‘오디 션’의 특허를 사들였고, PA 분야에 연구를 시작하며 영화 에 쓰이는 사운드 시스템을 개발했다. 그 결과 ‘living’과 ‘sound’의 조합인 바이타폰(vitaphone)이라는 디스크축 음기를 영화필름과 별도로 놓고 같이 재생하는 시스템이 탄생했다. 4명의 형제들이 설립한 영화제작사인 워너브 라더스는 무성영화에 소리를 더하는 전략을 세우고 웨스 턴일렉트릭과 손잡게 되었다. 1926년 8월 원래 무성영화 로 제작되었던 <돈 주앙(Don Juan)>에 사전 녹음된 오케 스트라 음악을 디스크로 같이 틀었고, 이듬해 10월 알 존 슨(Al Johnson) 주연의 <재즈싱어(The Jazz Singer)>가 공식적인 첫 유성영화로 개봉했다. 이후 미국 전역뿐만 아니라 전 세계 영화관은 사운드시스템을 갖추기 시작했 고, 스피커 연구는 더 활발해졌다. 1931년 벨연구소에서 고역대는 혼, 저역은 무빙코일 콘 방식의 ‘대역별 분할(divided range)’이라는 2웨이 스피커 시스템을 개발하고, 1933년 영화를 위한 3웨이 시스템을

49


선보였다. 1935년 MGM(Metro Goldwyn Mayer)의 더글 러스 시어러(Douglas Shearer)와 존 힐러드(John Hillard) 는 2웨이 극장용 표준 스피커 시스템을 개발했고, 아카데 미위원회에는 표준으로 선정했다.

크로스오버 네트워크 스피커는 여러 파트의 조합으로 이루어지기 때문에 스피커 시스템이라고도 불리는데 ①몸체를 이루는 인클로저 ② 주파수 대역별로 재생하는 스피커 유닛 ③ 주파수 대역별 로 구분해 주는 크로스오버 네트워크(crossover network) 로 구성되며, 크로스오버 네트워크는 스피커 안에 없는 경 우도 있다. 크로스오버 네트워크는 디바이딩(dividing) 네트워크 라고 부르며, 필터를 사용해 주파수 대역을 분리해 각각의 스피커 유닛으로 보내는 역할을 한다. 우리가 흔히 보는 홈오디오의 2웨이 시스템은 고음은 위쪽의 작은 트위터에 서, 저음은 아래의 큰 우퍼에서 소리가 나온다. 이때 파워 앰프에서 증폭된 전기 신호는 한 선으로 스피커에 연결되 나 스피커 안의 네트워크에서 특정한 주파수를 기준으로 분리시켜 주는 것이다. 이 특정한 주파수를 크로스오버 주파수라 하며, 대개 공장에서 출시될 때 정해져서 스피커

50


안에 내장되어 있으나, 가끔 스피커에 가변형으로 조절할 수 있는 모델도 있고, PA처럼 전문가용은 따로 분리된 외 장형 크로스오버를 사용한다. 크로스오버 네트워크는 패 시브형 크로스오버와 액티브형 크로스오버가 있다<그림 27>. 패시브 크로스오버는 수동적인 방식으로 파워앰프 가 네트워크 전에 위치하며, 파워앰프로부터 신호를 받아 HPF(High Pass Filter, 저역필터)를 통해 저음 대역을 거른 후 고음 전용인 트위터로 보내 재생하고, 동시에 LPF(Low Pass Filter, 고역필터)를 통해 고음 대역을 거른 후 저음 전 용인 우퍼로 보내 재생한다. 액티브 크로스오버는 <그림 27>과 같이 콘솔이나 프리 앰프에서 나온 신호가 필터를 통해 분리된 저음역과 고음 역으로 분리되고, 각각 독립된 파워앰프로 보내져 증폭한 후 트위터와 우퍼로 보내 재생한다. 패시브 크로스오버는 파워앰프 바로 다음에 있고, 파워앰프를 하나만 사용하므 로 소리가 일그러질 수 있다. 반면에 액티브 크로스오버 는 필터 다음에 연결되는 각각의 독립된 파워앰프로 보내 지므로 일그러짐이 적고, 생기더라도 서로 영향을 끼치지 않는다.

51


<그림 27> 패시브 대 액티브 크로스오버

출처: 김윤철(2007). 󰡔디지털 사운드 제작󰡕. 동아방송예술대학출판사.

스피커의 분류 스피커 유닛의 위치

스피커 유닛은 각각의 주파수 영역에 맞게 독립된 방식으 로 만들어지는 우퍼, 트위터, 미드레인지 드라이버(mid range driver), 서브우퍼, 슈퍼트위터 등이 있으며, 이러한 유닛의 위치에 따라 멀티형과 동축형 스피커로 구분한다.

멀티형

일반적으로 많이 쓰이는 방식으로 3웨이 스피커의 예를

52


들면, 스피커 정면 윗부분에 트위터, 중앙에 미드레인지 드라이버, 아래에 우퍼를 장착하는 방식이다.

동축형

동축형(coaxial)은 이름 그대로 동일한 지점에서 소리가 방사되는 방식으로 우퍼 위에 트위터가 장착된 것이 아니 라 우퍼 안에 트위터가 있어 동일선상으로 소리가 나가는 원리다. 동축형 스피커는 1928년 허먼 팽거(Herman J. Fanger)가 특허를 신청해서 1933년 승인을 받았고, 영국회 사 탄노이(Tannoy)의 ‘듀얼 콘센트릭(dual concentrics)’ 방식이 유명하다.

스피커를 장착하는 위치

녹음 스튜디오를 기준으로 볼 때 모니터 스피커를 정면 좌 우의 벽 안에 매립하거나 선반 위에 올려놓는 방법을 파필 드(far-field)라 하고 콘솔 위에 올려놓고 가깝게 듣는 방법 을 니어필드(near-field)라 한다. 니어필드 방식은 에드 롱 (Edward Long)이 개발했으며, 파필드 방식이 먼 거리에 서 귀로 도달하는 과정에 천장, 벽, 콘솔 표면 등의 반사음 이 포함되어 간섭이 생기는 데 반해 니어필드는 직접음만 깨끗하게 들어온다는 장점이 있다.

53


라우드스피커, 크로스오버 네트워크, 파워앰프로 대표 되는 모니터링은 항상 정확해야 한다. 그렇지 못하면 마 치 우리가 컴퓨터그래픽 작업을 하면서 화상도가 떨어지 거나 흑백화면으로 작업을 하는 것과 마찬가지가 될 것이 다. 음향작업을 할 때 최상의 모니터링 장비와 좋은 귀는 훌륭한 결과를 위한 필수조건이다.

참고문헌 김윤철(2007). 󰡔디지털 사운드 제작󰡕. 동아방송예술대학출판사. 장인석(1996). 󰡔사운드리코딩테크닉󰡕. 셀룰러퍼블리싱. 장인석(2001). 󰡔리코딩아트󰡕. 샤프랫뮤직. Alten, S. R.(2007). Audio in Media. 김윤철(2008). 󰡔미디어 음향󰡕. 커뮤니케이션북스. ≪믹스≫ 명예의 전당(1925). “Chester Rice & Edward Kellogg, General Electric Co. Modern Dynamic Loudspeaker”, (2007. 9. 1). http://mixonline.com/TECnology-Hall-of-Fame/1925-d ynamic-loudspeaker/ ≪믹스≫ 명예의 전당(1926). “Western Electric 555-w First Compression Driver”(2011. 1. 1.). http://mixonline.com/TECnology-Hall-of-Fame/1926_w estern_electric_552_driver/ ≪믹스≫ 명예의 전당(1944). “Altec Lansing 604 Duplex Speaker”(2006. 9. 1.). http://mixonline.com/TECnology-Hall-of-Fame/altec-la nsing-speaker-090106/

54


06 이펙트 프로세서

소리를 바꾸는 이유는 여러 가지가 있다. 마이크로폰을 통해 들어온 소리가 원래 소리와 달라서 비슷하게 해주기 위해서, 무대 위의 어쿠스틱 잔향 소리가 부족해서 현실감을 주기 위해, 또는 다른 소리와 잘 섞이게 하거나 전체적인 분위기와 어울리게 하려는 것 등이다. 음향작업 중의 믹싱은 요리 과정으로 비유하기도 하는데, 이때 이펙터는 흔히 양념으로 비유된다. 바로 요리에 빠져서는 안 될 중요한 존재다. 이펙터는 크게 3종류로 구분할 수 있는데, EQ로 대표되는 음색 계열, 컴프레서와 같은 다이내믹 계열, 그리고 시간계열이다.


음색 계열 EQ(이큐, Equalizer)는 전화기의 주파수 응답을 보완하기 위해 만들었다. 초창기 전화 기술이 발전하는 과정 중 연 결 거리가 멀어지면서 송신기에서 말하는 소리가 수신기 에서 듣는 소리와 너무 달라 소리를 같게 해주는 장치를 고안해 이퀄라이저라 부르게 되었다. 주파수 대역별로 소 리를 크거나 작게 조절하는 장치이며, 처음 나올 당시에는 아직 증폭기가 발명되기 전이라 특정 대역의 소리를 줄일 수만 있는 패시브 EQ로 시작했고, 나중에 진공관이나 트 랜지스터 출현으로 감쇄뿐 아니라 증폭도 가능한 액티브 EQ가 사용되었다. EQ는 또한 구동 원리에 따라 필터, 셸빙, 피킹으로 나 누며, 패시브 방식인 필터에는 정해진 주파수(컷오프 또 는 차단주파수)를 기준으로 저음을 제거하고, 고음만 통 과시키는 하이패스(high pass 또는 low cut)필터, 그 반대 인 로패스필터, 정해진 주파수의 위아래를 제거하는 밴드 패스필터, 정해진 주파수 부분만 제거하는 노치(notch)필 터 등이 있다. 가정용 오디오의 트레블, 베이스나 콘솔의 저역과 고역대에 많이 쓰이는 셸빙(Shelving) EQ는 제품 디자인 때 미리 정해진 주파수(전환 또는 turnover 주파 수)를 크게 하거나 줄여준다. 피킹(peaking) EQ는 그래픽

56


<그림 28> 그래픽 EQ

출처: 동아방송예술대학교 오디오스튜디오.

EQ와 파라메트릭 EQ로 나뉜다(김윤철, 2007). 초창기 EQ는 벨연구소에서 전화기의 소리를 더 잘 알 아듣게 하려는 목적으로 시작했다. 1915년 AT&T의 연구 원 조지 캠벨(George A. Campbell)이 하이패스와 로패스 를 결합한 밴드패스필터인 LC(인덕터-캐퍼시터)필터를 고안해 목소리의 명료도를 높이는 데 기여했다. 이에 반 해 1930년대에는 유성영화를 시작하며 극장에서 더 좋은 영화 소리를 스피커로 재생하고자 EQ를 연구했다. 전화 에서 EQ는 수신기에 내장되는 형태였지만 영화관이나 공 연장에서 사용하는 EQ는 외장형으로 개발되었다. 1930 년대에 RCA의 존 볼크먼(John Volkman)이 활발한 연구 를 진행했으며, 랑주뱅(Langevin)의 EQ-251A모델은 요 즘 그래픽 EQ 모델 같은 형태는 아니었으나 슬라이더를 처음 시도한 EQ였고, 영화관 엔지니어였던 아트 데이비

57


1910년대 전화 목소리의 명료도를 높인 LC(인덕터-캐퍼시터)필터의 개발자 조지 캠벨(George A. Campbell, 1870∼1954) ⓒ 커뮤니케 이션북스

스(Art Davis)는 최초의 그래픽 EQ모델인 Type7080을 개 발했다. 파라메트릭 EQ는 1971년 다니엘 플리킹어 (Daniel N. Flickinger)가 특허를 취득했으며, 1972년 조 지 매센버그(George Massenburg)도 상용화한 EQ를 개 발해 ‘파라메트릭 EQ’라 처음 명명했다. 파라메트릭 EQ 는 콘솔에 내장되거나 외장 EQ로 사용되고, 중심주파수 (center frequency), 게인(gain)뿐만 아니라 영향 받는 대 역폭(Q) 등을 직접 조절하게 되었다.

58


<그림 29> 튜브텍 CL1b 컴프레서

출처: 동아방송예술대학교 오디오스튜디오.

다이내믹 계열 다이내믹 계열은 소리의 크기를 조절하는 이펙터다. 소리 의 가장 큰 부분과 가장 작은 부분의 차이를 다이내믹 레인 지라 하는데, 다이내믹 레인지를 압축하거나 확장하는 이 펙터로 컴프레서, 리미터, 익스팬더, 게이트로 분류된다. 컴프레서(compressor)는 다이내믹 레인지를 압축해 큰 레벨의 소리는 변동 없이 작은 신호의 레벨을 올려 소 리를 균등한 레벨로 만들거나 전체 소리를 크게 한다. 이 때 스레숄드(threshold)라는 기준점을 정해놓고 그 레벨 보다 큰 신호가 들어오면 압축비율(ratio, 입력 대 출력 비 율) 만큼 신호를 줄여주며, 기준점보다 작은 소리가 들어 오면 압축하지 않는다. 리미터(limiter)는 컴프레서와 동 작원리는 같고 다만 압축 비율만 10대1 이상의 심한 압축 이라 볼 수 있다. 스레숄드를 설정하면 그 이상은 레벨이

59


안 올라가게 제한하는 기기다. 익스팬더(Expander)는 압축의 반대인 확장의 개념이 다. 작은 소리를 더 작게 내림으로써 다이내믹 레인지를 확장한다. 게이트(Gate)도 확장이나 확장 비율 1대10 이 상의 과다한 확장이라 스레숄드 이하의 소리는 아예 나지 않아, 스레숄드 아래 레벨은 문(gate)을 닫는 것과 같다. 초창기 컴프레서는 리미터와 같은 개념으로 라디오 방송 에 상한선을 제한하는 용도로 개발되었다. 웨스턴일렉트릭 의 110모델이 1937년 개발되었으며, 비슷한 시기에 RCA, 게이트(Gates), 콜린스(Collins), 페어차일드(Fairchild)도 리미터를 출시했다. 녹음용 컴프레서는 1965년 녹음엔지 니어와 프로듀서이자 장비 디자이너였던 빌 퍼트넘(Bill Putnam, Universal Audio와 Urei 대표)이 인수한 텔레트로 닉스(teletronix)가 LA-2a 모델을 출시하면서 발전해 왔다.

시간 계열 시간 계열 이펙터에는 딜레이(delay)와 딜레이를 응용한 코러스(chorus), 페이저(phaser), 플랜저(flanger) 등이 있 고, 공간감을 형성하는 리버브(reverb)도 결국 수백 개의 지연 음이 모인 집합이므로 시간 계열로 분류할 수 있다.

60


딜레이

딜레이는 소리를 지연시켜 한 번 또는 여러 번 재생하는 기기다. 1952년 미국 라디오 생방송에서 전화 인터뷰를 할 때 방송에 부적절한 단어를 심의하기 위해 테이프에 녹 음하며 7초 뒤에 재생하는 데서 시작했다. 1955년 테이프 녹음기가 발전해 셀싱크(Sel-Sync, Selective Synchronous) 를 발명하고, 녹음헤드와 재생헤드 사이의 간격과 테이프 스피드의 조절로 테이프 딜레이를 음악녹음에 사용하기 시작했다. 1960년 이후에는 녹음기가 아닌 전용 테이프 딜레이로 만들어진 제품들이 개발되었다. 1973년 출시되 어 스페이스 에코라고도 불리던 롤런드 RE-100는 4분의1 인치 테이프를 사용해 무한반복 루프(loop)도 가능한 딜레 이였다. 또 다른 형태의 아날로그 딜레이는 회로(circuit) 딜레이라고도 불리는 버킷 릴레이(bucket brigade) 방식 이다. 이 방식은 1969년 필립 리서치 연구소가 고안한 방 법으로 커패시턴스(capacitance)를 직렬로 연결해 신호를 통과시켜 지연음을 얻는 방식이다. 이 방식은 테이프 딜 레이보다 작고 간편해서 1970년대에 널리 보급되었으나, 곧이어 나온 디지털 딜레이에 밀려나게 되었다. 디지털 딜레이는 다른 디지털 장비와 마찬가지로 1970 년 중반부터 개발되어 1980년대 초반부터 보급되었다. 디

61


지털 딜레이는 소리를 AD 컨버터를 거쳐 메모리에 녹음 하고 반복 재생하는 방식이었다. 초창기에 메모리(RAM) 용량이 작아 딜레이 시간이 짧았으나, 1980년대 들어오면 서 메모리 가격도 싸지고 용량도 커져 렉시콘(Lexicon), 롤런드(Roland), TC 일렉트로닉 등을 중심으로 널리 보급 되었다.

리버브

초창기에는 마이크 하나로 모든 오케스트라나 밴드의 소 리를 녹음하다 보니 마이크의 위치는 보통 방 중간 위에 설치되어 모든 악기 소리뿐 아니라 잔향도 자연스럽게 포 함된 소리를 녹음했다. 1950년대 중반 기타리스트로 잘 알려진 레스 폴(Les Paul)이 멀티트랙 녹음기를 발명해 한 악기씩 따로 녹음하는 오버더빙 방식의 녹음으로 전환되 었다. 따라서 원거리 마이킹에서 근접 마이킹 방식으로 바뀌었고, 잔향 소리가 들어갈 수 없게 되어 인위적으로라 도 잔향을 첨가할 방법을 찾게 되었다. 처음 시도한 방법은 소리를 옆방 또는 복도로 보내 울 림을 녹음하는 어쿠스틱 챔버였고, 엔지니어 겸 프로듀서 퍼트넘이 1958년 디자인한 3000sqft(약 84평) 공간의 유 니버설 스튜디오의 어쿠스틱 체임버가 유명했다. 다음 방법

62


은 플레이트 리버브(reverberation)로 1950년대 말 독일의 발터 쿨(Walter Kuhl) 박사가 개발한 EMT(Elektro-messtechnik) 140모델로 0.5mm 두께 금속판(1×2m)의 떨림을 이용했다. 스프링 리버브는 신호를 스프링으로 보내 떨림 을 감지하는 방법으로 제작비가 싸고 크기가 작아 홈 스튜 디오나 기타리스트가 선호했다. 아날로그 방식은 1970년 대 중반 디지털 방식이 선보이면서 쇠퇴하게 되었다. 상업용으로 보급된 디지털 리버브는 프랜시스 리 (Fransis Lee) 박사가 설립한 미국 기업 렉시콘의 224 모델 이었고, 1978년 AES 전시회에서 발표된 이후부터 녹음 스 튜디오에 보급되었다. 디지털 리버브는 알고리즘을 통해 여러 종류의 잔향을 구현해낼 수 있고, 크기도 작고 음질 도 우수해 빠른 시간에 아날로그 리버브를 대체했다. 디지털이 발전하면서 여러 종류의 이펙터가 한 기기에 같이 들어 있는 멀티 이펙터로 발전했고, 최근에는 컴퓨터 소프트웨어로 구현하는 플러그인 이펙터가 발전하면서 빈티지 이펙터를 비롯해 다양한 종류의 이펙터를 저렴한 가격에 사용할 수 있게 되었다. 반면에 부드럽고 따뜻한 아날로그의 느낌이 필요한 경우도 있어 EQ, 컴프레서는 진공관 방식의 아날로그를 선호하기도 한다.

63


참고문헌 김윤철(2007). 󰡔디지털 사운드 제작󰡕. 동아방송예술대학출판사. Alten, S. R.(2007). Audio in Media. 김윤철(2008). 󰡔미디어 음향󰡕. 커뮤니케이션북스. Rumsey, F., & McCormick, T.(1992). Sound and Recording. Focal Press. Wadhams, W.(1990). Sound Advice. Simon & Schuster Macmillan. ≪믹스≫ 명예의 전당(1915). “http://mixonline.com/TECnology-Hall-of-Fame/1915_a udio_filter_eq_circuit”, (2011. 1. 1.). ≪믹스≫ 명예의 전당(1957). “http://mixonline.com/TECnology-Hall-of-Fame/EMT140-reverb-090106/”, (2006. 9. 1.). “http://www.rane.com/note122.html#ref” 레인. “http://www.uaudio.com/about/our-story” UA. “http://www.gearslutz.com/board/so-much-gear-so-little -time/126571-whats-history-compression.html” 기어슬럿. “http://www.sweetwater.com/publications/sweetnotes/snlatesummer98/page-09.html”, 스위트워터. http://www.gearslutz.com/board/so-much-gear-so-little -time/180799-compressor-history-etc.html

64


07 녹음기

녹음기의 시조는 에디슨의 축음기다. 축음기로 시작된 녹음기는 우리 생활에 많은 영향을 끼쳤다. 그중에 가장 혜택을 본 분야는 음악이다. 일부 귀족들만 집에서 듣던 음악을 시간과 공간 제약 없이 무한정으로 듣게 된 것이다. 소리를 기록하려는 노력은 여러 가지 아이디어를 거쳐 탄생하게 되었다. 1957년 프랑스의 레옹 스콧(Leon Scott)은 원통형 용기에 공기를 통해 전해진 소리를 감지해서 기록하는 ‘포노오토그래프 (phonoautograph)’라 불리는 기계를 발명했으나, 재생 용도는 아니었다. 또한


1863년 영국의 발명가 조셉 펜비(Joseph B. Fenby)가 전자석형 축음기로 특허를 받고, ‘소리’와 ‘기록’이라는 조합으로 ‘포노그래프(phonograph)’라 이름 지었으나, 완성품을 만들지는 못했다. 1877년 프랑스의 시인이자 과학자 샤를 크로스(Charles Cros)는 사진제판술(photoengraving)을 통해 역으로 소리를 재생하는 기법을 제안했다. 팔레오폰(paleophone)이라 이름 붙은 이 이론은 실제로 재현되지는 않았고, 후일 1887년 에디슨에 의해 실현되었다.

원통형과 디스크형 축음기 1877년 토머스 에디슨(Thomas A. Edison)은 원통형 구조 위에 얇은 주석박(tin-foil)을 감싸 놓고, 회전시켜 감지한 소리를 바늘로 표현한 후, 재생 때에는 역으로 그 홈을 바 늘이 인지해 진동판을 진동시켜 소리를 재생하는 축음기 를 만들어 특허를 신청했다. 그 후 에디슨은 회사를 세우 고 새로운 발명품을 실용화하기 위해 노력했는데, 초창기 그가 생각한 포노그래프의 사용법은 ① 모든 종류의 받아

66


쓰기 대용 ② 시각 장애인을 위한 오디오북 ③ 웅변훈련 ④ 음악재생 ⑤ 유언을 비롯한 가족사 기록 ⑥ 오르골 대 용이나 장난감 ⑦ 목소리로 시간을 알려주는 시계 ⑧ 발 음법 연구 ⑨ 교사의 설명 저장 후 복습 ⑩ 전화 대화의 기 록 등이었다(Chanan, 1995). 다른 것들도 모두 여러 형태 의 녹음기로 현재 사용되고 있으나, 그중 가장 주목할 만 한 것은 ④번 음악재생일 것이다. 에디슨의 발명품이 발 전되어 세계로 전파되었고, 음악에 관련된 우리네 생활 패 턴을 바꿔 놓았다. 음악을 듣기 위해 유럽의 귀족들처럼 사설 오케스트라를 집에 상주시키지 않아도 되었고, 공연 장에서 공연을 보기 위해 시간 맞추어 가서, 줄서 있지 않 아도 되는 시대가 된 것이다. 음악 녹음을 언제나 어느 장 소에서나(축음기가 있다면), 몇 번이고 반복해서 들을 수 있게 된 것이다. 하지만 원통형 축음기는 녹음된 것을 복 사 또는 대량으로 제작하기에 어려운 구조였다. 이때 개 발된 것이 디스크형 축음기였다. 독일에서 태어나 1870년 미국 뉴욕으로 이주한 발명가 에밀 벌리너(Emile Berliner, 1851∼1929)는 전화기나 축 음기 등 오디오에 관심이 많았다. 전화회사 벨에 근무하 기도 했고, 송신기를 개량해 마이크로폰을 개발하기도 한 그는 1887년 그라모폰(gramophone)으로 그의 첫 번째

67


<그림 30> 1899년 에디슨의 축음기

출처: http://en.wikipedia.org/wiki/Phonograph

특허를 취득했다. 이것은 기존의 실린더형에서 진화한 원 반형으로 가격도 싸고, 제작도 간편한 데다 디스크의 대량 생산도 용이했을 뿐더러 처음 모델은 실린더형이나 음질 면에서는 별 차이가 없었으나 음질도 점차 현저히 좋아졌 다. 벌리너는 원반형 축음기만 개발한 것이 아니라 영국, 독 일, 미국, 캐나다 등에 콘텐츠 즉 음악녹음을 하기 위한 레코 드 회사도 차렸는데, 그중에 도이치 그라모폰(Deutsche Gramophone)은 클래식 레이블로 아직까지 유명하다.

68


1910년경부터 실린더형을 앞서기 시작한 원반형은 계속 발전해 현재까지 사용되고 있고, 실린더형은 1929년을 기 점으로 생산이 중단되었다. 이어 1925년 제이시 S. 맥스필드(Jacey S. Maxfield) 전 기형이 소개되었고, 음질 향상을 통한 대량생산도 시작되 었다. 그 당시 회전속도는 78rpm(분당 회전수)이었고, 디 스크의 직경은 10인치(25㎝)와 12인치(30㎝) 두 가지가 사용되었는데, 앞에 것은 약 3분, 뒤에 것은 4분 길이의 곡 이 사용되었다. 나중에 기술의 발달로 회전수는 45, 33⅓, 16rpm으로 떨어져 더 긴 시간이 가능해졌지만, 그때까지 는 이 3분에 맞춰 곡을 작곡하는 게 유행했다. 심지어 클 래식 음악도 30∼50분 되는 교향곡보다 3분 내외의 짧은 곡들이 많이 작곡되었다. 1948년 콜롬비아레코드에서 33 ⅓ 회전수에 비닐을 재료로 하는 디스크가 생겼고, 이것 이 60년대에 스테레오로 개선되어 오늘에 이르고 있으며, 롱 플레이(Long Play)의 약어로 LP라 칭했으며, 상대적으 로 78rpm을 SP(Standard Play), 45rpm을 EP(Extended Play)라 불렀다. 1930년대 상업용 디스크는 양면 78rpm 디스크 3∼4장을 하나로 묶어 파는 방식이 일반적이었고, 이것을 앨범이라 불렀는데 한 앨범에 6∼8곡이 들어 있었 다. 나중에 LP로 전환된 뒤에도 비슷한 수의 곡이 들어 있

69


었으며, 한 장짜리 LP도 여전히 앨범이라 불렀는데, RCA 빅터가 1949년 처음 소개한, 한 곡씩 들어 있는 45rpm 7인 치 디스크를 싱글이라 불렀다.

테이프 녹음기 테이프 녹음은 자기(magnetic) 녹음의 한 종류로 1898년 덴마크의 에디슨이라 불리던 발드마르 파울슨(Valdemar Poulsen)에 의해 이론적으로 발표되었고, 텔레그라폰 (telegraphone)이라 불렀다. 전선이나 테이프를 자기화 (磁氣化)되는 매체로 사용해 소리에 반응한 전기 신호가 녹음헤드를 지날 때 신호에 따라 자기화가 생기는 트랜스 듀서의 역할을 한다. 전선 녹음기는 음질이 축음기보다 현저히 떨어졌으며, 한 시간 녹음을 위해 수천 킬로미터의 철사가 필요하기도 하여 실용성이 떨어졌다. 전선 녹음기 는 결국 사용하지 못했고, 그다음으로 개발한 테이프 녹음 기로 발전했다. 자기 테이프 녹음기를 먼저 발전시킨 곳은 독일이었다. 1928년 프리츠 플로이머(Fritz Pfleumer, 1881∼1945)가 종이테이프에 자석가루를 입히는 아이디어로 특허를 획 득했고, 1931년 독일 AGI와 플로이머 박사는 자기테이프 녹음기 개발에 착수했다. 이듬해에 바스프(BASF)도 이 프

70


로젝트에 동참했고, 1935년 AEG는 찢어지기 쉬운 종이테 이프 대신 플라스틱을 사용해 최초의 자기녹음기 K1을 개 발했다. 마그네토폰(magnetophone)이라 불리던 이 테이 프 매체는 후에 음향과 영상 기록매체로 발전했다. 1941 년 AEG는 음질을 한층 업그레이드 시키는 교류바이어싱 (AC biasing) 기술을 선보였는데, 이 기술은 실제 사람에 게는 안 들리는 주파수 범위(50K∼150KHz)의 신호를 녹 음되는 신호에 첨부해 소리에 영향을 미치지 않으면서 일 그러짐과 잡음을 줄일 수 있는 방법이었다. 당시 독일군 은 뛰어난 과학 수준으로 첨단 기술을 개발했고, 이 녹음 기술을 첩보용이나 라디오방송 등에 사용했다. 이때 사용 한 테이프녹음기는 단일트랙, 4분의1인치 테이프 폭, 15ips(초당 인치) 속도의 규격으로 근래의 아날로그 테이 프 녹음기에 비해 트랙만 단일트랙에서 스테레오로 바뀌 었을 뿐 별 차이 없는 훌륭한 기술력을 보였다. 이러한 기 술은 비공개로 진행되었고, 미국을 비롯한 연합군의 관심 을 끌었다(Wadhams, 1990). 제2차 세계대전을 승리로 이끈 미국은 유럽 점령지에 서 이러한 신기술들을 수집했고, 그중에 존 멀린(John T. Mullin)은 미 육군 소속으로 독일에서 녹음기를 미국으로 가져와 연구한 끝에 새로운 테이프 녹음기를 개발했다.

71


이 녹음기를 확산시킨 것은 빙 크로스비(Bing Crosby)였 다. 1946년 자신이 진행하던 라디오 쇼를 공개방송에서 하기보다 편안하게 스튜디오에서 녹음하기를 원했던 그 는 이 녹음기의 시연을 보고 곧장 사전 녹음방송을 시작했 고, 곧 이어 미국의 주요 방송사들도 따라 하기 시작했다. 이 시기부터 테이프 녹음기는 미국의 암펙스(Ampex)와 3M(Minnesota Mining & Manufacturing)이 주도하기 시 작했다. 테이프 녹음기의 다음 진화는 한 테이프가 여러 개의 트랙으로 나누어지는 멀티트랙 녹음기로 이어졌다. 단일 트랙(풀 트랙이라고도 칭함)으로 시작해 2트랙, 3트랙, 4 트랙으로 계속해 발전했으며, 특히 기타리스트인 레스 폴 (Les Paul)이 1956년 암펙스의 지원으로 개발한 1인치 8 트랙은 기계적 측면뿐 아니라 녹음기술 면에서도 획기적인 발전을 가져왔다. 현대 멀티트랙 녹음 기술로 쓰이는 큐믹 스(cue mix), 바운싱(bouncing), 오버더빙(over-dubbing), 테이프 딜레이, 스피드조절(varispeed) 등이 이때 레스 폴 에 의해 개발되었다(Wadhams, 1990). 전문가용 멀티트 랙은 이후로도 16트랙, 24트랙으로 발전했고, 테이프의 폭은 ¼인치, ½인치, 1인치, 2인치로 발전했다. 한편 가정용 테이프로는 프로형과 유사한 형태의 릴투

72


릴(reel to reel, 또는 open reel) 녹음기와 미국 회사 포드 가 중심이 되어 자동차에 장착하기 위해 1960년대 개발했 던 8트랙 카트리지가 있었고, 네덜란드의 필립스(Philips) 가 1962년 발표한 콤팩트오디오 카세트가 있었다. 카세트 는 음질이 뛰어나진 않았으나 녹음과 재생이 간편했고, 1979년 일본의 소니가 출시한 워크맨의 휴대성을 통해 전 세계적으로 보급되었다. 이에 따라 상대적으로 사용이 불 편했던 릴투릴 녹음기와 재생만 가능했던 8트랙은 곧 사 라지고 말았다.

참고문헌 마크 카츠 지음, 허진 옮김(2006). 󰡔소리를 잡아라󰡕. 마티. Begun, S. J.(1949). Magnetic Recording. Rinehart & Company. Michael Chanan(1995). Repeated takes. 박기호(2005). 󰡔음악녹음의 역사󰡕. 동문선. Rumsey, F., & McCormick, T.(1992). Sound and Recording. Focal Press. Wadhams, W.(1990). Sound Advice. Simon & Schuster Macmillan. ≪믹스≫ 명예의 전당(1877). “Thomas Edison Cylinder Recorder”, (2006. 9. 1.). http://mixonline.com/TECnology-Hall-of-Fame/thomas -edison-recorder-090106/ ≪믹스≫ 명예의 전당(1887). “Emile Berliner Gramophone Disc

73


Recorder/Player”, (2006. 9. 1.). http://mixonline.com/TECnology-Hall-of-Fame/emile-b erliner-gramophone-090106/ ≪믹스≫ 명예의 전당(1926) “Western Electric/Bell Labs Vitaphone Film Sound”, (2006. 9. 1.). http://mixonline.com/TECnology-Hall-of-Fame/wesernelectric-vitaphone-090106/ ≪믹스≫ 명예의 전당(1935) “ AEG Magnetophon Tape Recorder”, (2006. 9. 1.). http://mixonline.com/TECnology-Hall-of-Fame/aeg-ma gnetophone-recorder-090106/ ≪믹스≫ 명예의 전당(1948). “Ampex Model 200A Tape Recorder”, (2006. 9. 1.). http://mixonline.com/TECnology-Hall-of-Fame/ampex200a-recorder-090106/ ≪믹스≫ 명예의 전당(1955). “Ampex Sel-Sync”, (2006. 9. 1.). http://mixonline.com/TECnology-Hall-of-Fame/ampexsel-sync-090106/

74


08 디지털 녹음기

1920년대에 이미 해리 나이퀴스트를 비롯한 여러 사람이 디지털 관련 이론을 발표했다. 이것을 응용해 디지털 음향 장비를 기술적으로 만들어 내는 데 약 50년의 세월이 흘렀다. 1970년대 중반 녹음기, 이펙터를 비롯한 각종 음향 장비의 디지털화가 시작된 이후 현재 사용되는 대부분의 장비는 디지털이다. 개개인의 취향에 따라 아날로그를 선호하는 사람도 있지만 현재의 주도적인 흐름은 누가 뭐라고 해도 디지털이다.


디지털 오디오의 시작 1928년 해리 나이퀴스트(Harry Nyquist)는 샘플레이트에 관한 이론을 발표하는데, 이는 50년 후 디지털 오디오의 중요한 근간이 되었다. 디지털 오디오의 또 다른 중요 이 론인 펄스부호변조(pulse code modulation, PCM)는 1937년 영국의 과학자 알렉 리브스(Alec Reeves)가 고안 했으며, 녹음이나 방송보다 훨씬 전에 원거리통신(tele communication)에 사용되었다. 1960년대에 들어 비로소 기술력이 뒷받침되어 상업적 인 녹음기 개발이 각 나라에서 앞다투어 시작되었다. 일 본에서는 NHK와 일본 콜롬비아(데논, Denon)에 의해 시 작되어 1971년 2인치 비디오테이프레코더를 응용한 모델 이 처음 소개되었고, 1972년 데논은 최초의 8트랙 릴투릴 디지털 녹음기를 발명했다. 물론 이것들은 가정용이 아닌 전문가용이었고, 1970년대 뉴욕에서 재즈 녹음에 쓰였다. 영국 BBC도 1960년대 디지털에 관심을 갖고 실험하다가 1970년대에 2채널 디지털 녹음기를 제작했고, 미국에서 디지털 녹음기는 1975년 클래식 위주의 라이브 녹음을 하던 사운드스트림(Soundstream)이 활발한 활동을 보였 다. 이 회사에서 1976년 최초의 16비트(bit) 37KHz 샘플 레이트, 2채널의 PCM 녹음기를 토머스 스톡햄(Thomas

76


Stockham)이 제작해 <산타페> 오페라에 사용했고, 얼마 후 4채널 50KHz 샘플레이트로 개선되어 텔락(Telarc)의 1978년 <홀스트 스위트(Holst Suites)> 녹음을 필두로 많 은 클래식 녹음에 사용되었다. 비슷한 시기에 3M도 BBC 의 기술력을 토대로 녹음실용 디지털 멀티트랙 녹음기 개 발을 시작해 1977년 마침내 전설의 32트랙 DDS 모델을 만들었다. 이 모델로 1978년 작곡가 아론 코플랜드의 <아 팔란치아의 봄>을 녹음했고, 1979년 스틸리 댄(Steely Dan)의 <가우초(Gaucho)> 앨범, 기타리스트 라이 쿠퍼 (Ry Cooper)의 <밥 틸 유 드롭(Bop Til You Drop)> 앨범 전곡을 디지털로 녹음했다. 이 모델은 그 당시 18만 달러 (현 시세로 환산하면 약 5000만 원)의 고가로 음질은 뛰어 났지만 가격 경쟁력이 떨어져 성공하지 못했으나, 녹음실 디지털 멀티트랙의 기준이 되었다. 이런 모델들은 나중에 개발된 회전헤드 방식과 비교해 고정헤드(stationary head) 방식으로 분류되었고, 이후 1980년대 소니의 PCM3324로 대표되는 DASH(Digital Audio Stationary Head) 포맷과 미쓰비시 X-86C모델과 같은 프로디지(ProDigi) 포맷으로 양분되어 발전했다.

77


고정헤드 방식과 회전헤드 방식 디지털 녹음은 크게 테이프를 저장 매체로 삼는 것과 디스 크를 매체로 삼는 것으로 분류될 수 있다. 여기서 디스크 는 LP나 CD(compact disc) 등 원반형을 의미하는 것이 아 니라 하드디스크(hard disk)를 뜻한다. 테이프는 다시 헤 드가 고정된 상태에서 테이프만 헤드를 통과하는 고정헤 드 방식과 테이프도 헤드를 지나가지만 헤드도 같이 회전 해 순간 접촉 면적을 극대화시키는 회전헤드 방식으로 나 뉜다. 고정헤드 방식은 자기 테이프에 수록된 내용이 일정한 속도로 헤드를 통과하면서 읽히거나, 녹음의 경우에는 헤 드가 자기장의 변화를 일으켜 신호를 기록한다. 이때 테 이프가 천천히 지나가면, 다른 말로 헤드 속도가 천천히 돌아가면 고음 신호 수록이 힘들어진다. 결국 대역폭의 표현은 테이프 속도와 관련이 있다. 디지털 녹음기는 아 날로그보다 더 넓은 대역폭이 필요하고, 더 빠른 테이프 속도가 필요한데, 이는 테이프 소모량과 직결된다. 이를 해결하기 위한 방법은 회전헤드다. 헤드가 테이프의 진행 방향과 반대방향으로 회전하면 테이프와 헤드의 접촉을 늘릴 수 있어 상대적인 속도는 높아지고 테이프의 속도는 낮게 유지할 수 있다. 이를 위해서 헤드가 경사져야 테이

78


<그림 31> 소니 PCM3348

프의 새로운 부분이 매회 회전 시 헤드를 통해 유입된다. 따라서 신호는 테이프 안에 사선으로 저장된다. 이것을 헬리컬(helical: 사선이란 의미의 helix에서 파생) 스캔이 라 부르며, 회전헤드(rotary head) 방식의 중요한 원리다. 헬리컬 스캔은 1956년 암펙스가 자사의 비디오 기기를 위 해 처음 고안했고, 1970년대 가정용 비디오인 VHS(video home system)에서도 사용되었다. 디지털 녹음기를 가정용으로 만든 PCM 포맷은 VHS나 베타맥스(beta max)를 매체로 사용하는 비디오테이프 포

79


맷을 차용했다. 소니는 1981년 16비트 녹음기 PCM-F1을 선보였고, 아카이(Akai), JVC, 나카미치 등도 비슷한 시기 에 가정용 제품을 선보였으나, 가격이 비싸 성공하지 못했 다. 소니는 1978년 유매틱(U-matic) 녹음 매체와 외장 디 지털 프로세싱 하드웨어의 조합으로 이루어진 PCM1600 디 지털 오디오 마스터링 시스템을 선보였다. 유매틱은 소니 베타맥스가 나오기 이전에 개발된 카트리지식 VTR(Video Tape Recorder)로 로터리헤드 방식이었다. 1969년 소니, 빅터(JVC), 마쓰시타(파나소닉) 등 3사의 통합 규격으로 원래 가정용으로 발표되었으나, 가격이 비싸 보급되지 못 하다가 1974년 미국 CBS 방송국이 TV 뉴스용으로 사용 후 방송국 위주로 보급되었다. 국내에도 방송국이나 특히 광고 관련사들이 1990년대 중반까지 업계 표준으로 사용했 다. 오디오 녹음기로 보급된 이래 PCM1600에서 PCM1630 으로 개선되었고, 편집 및 마스터링에 널리 사용되었다. 특 히 1980년대 중반 CD가 보급된 후부터, 녹음실에서 녹음 한 2트랙 결과물이 PCM1630으로 마스터링 되어 결과물 이 CD를 찍어내는 프레싱 공장으로 보내지는 것이 일반 화되었다. 이 기기는 1990년대 중반에 출시된 소닉솔루션 시스템을 포함한 다른 컴퓨터 기반의 워크스테이션과 한 동안 공존하다가 가격이나 편의성 등에 밀려 곧 사라지고

80


말았다. 또 다른 회전헤드 방식의 녹음기는 DAT(Digital Audio Tape)로 1987년 소니가 만들었는데, 외관은 카세트와 유 사했고(거의 절반 크기), 테이프가 기기에 장착되면 위의 덮개가 열리고 테이프가 헤드를 감싸는 구조는 VHS와 유 사했다. 테이프의 폭은 4mm로 외관 상 아주 흡사한 캠코 더의 6mm보다 좁다. 초창기에는 고정헤드인 S-DAT과 구 분하기 위해 로터리라는 의미의 R-DAT으로 불렀으나 곧 DAT로 바뀌었다. DAT는 48, 44.1, 32KHz의 샘플레이트 를 지원했고, 대부분의 모델은 CD와 같은 16비트를 지원

<그림 32> DAT

81


했다. 일본 타스컴(Tascam)에서 프로용으로 출시된 마지막 모델 DA-45HR은 16과 24비트를 같이 지원했다. 1980년 대 중반 CD가 LP를 대체하고, DAT가 카세트를 대체하는 계획이었으나, DAT가 CD나 카세트처럼 상업용 앨범을 내려는 계획이 틀어지고, 가격도 비싸고 하여 가정용으로 보급하려던 계획은 실패하고 말았다. 그 대신 뛰어난 음 질로 녹음 스튜디오에서 믹싱하는 2트랙 녹음기로 쓰이 고, 라이브 녹음이나 영화 및 방송물의 현장 녹음에 보급 되기 시작했고, 나중에는 컴퓨터의 데이터를 백업하는 저 장매체로도 쓰였다. 2트랙 DAT에서 발전된 회전헤드 방식은 MDM(modular digital multitrack)이라 분류되는 8트랙 녹음기로 1989년 미국 알레시스(Alesis)에서 출시한 ADAT(Alesis Digital Audio Tape)가 시초였다. ADAT는 기존에 나와 있던 고 정헤드 방식 디지털 멀티트랙 녹음기에 비해 가격이 훨씬 저렴하고, 작동도 간단해 홈 스튜디오나 중소형 스튜디오 에서 많은 인기를 끌었다. 이 모델은 비디오 매체인 S-VHS(슈퍼 VHS)를 새로 포맷해 사용했고, 한 기기에 8 트랙씩 여러 대 연결해서 사용할 수도 있었다. 이듬해에 타스컴에서 역시 비디오 매체인 Hi-8mm 테이프를 사용

82


<그림 33> Alesis ADAT

출처: 동아방송예술대학교 오디오스튜디오.

하는 DA88 모델을 출시해 MDM 경쟁에 뛰어들었고, 이 모델은 한동안 영화 등 포스트프로덕션의 마스터테이프 의 표준으로 사용되었다. 포스트프로덕션의 표준(DA88)으로, 녹음 스튜디오에 서 믹싱마스터 녹음기(DAT)로, 홈 스튜디오의 필수 아이 템(ADAT)으로, 혹은 메이저 녹음 스튜디오에서 위용을 부리며 사용되던 멀티트랙 녹음기(48트랙 고정헤드 방식 의 소니 PCM3348)로 쓰이던 디지털 테이프 녹음기는 1990년대 중반을 기점으로 역사의 뒤안길로 접어들었으 니, 프로툴로 대표되는 DAW(Digital Audio Workstation) 의 출현 때문이다.

83


참고문헌 Pohlmann, Ken(1988). Principles of Digial Audio. SAMS. Rumsey, F., & McCormick, T.(1992). Sound and Recording. Focal Press. Wadhams, W.(1990). Sound Advice. Simon & Schuster Macmillan ≪믹스≫ 명예의 전당(1928). “Harry Nyquist Theorem”, (2006. 9. 1). http://mixonline.com/TECnology-Hall-of-Fame/harry-n yquist-theorem-090106/ ≪믹스≫ 명예의 전당(1939). “Pulse Code Modulation”, (2011. 1. 1.). http://mixonline.com/TECnology-Hall-of-Fame/1939_pu lse_code_modulation/ ≪믹스≫ 명예의 전당(1981). “ Sony PCM-F1 Digital Recording Processor”, (2007. 9. 1.). http://mixonline.com/TECnology-Hall-of-Fame/1981-so ny-pcmf1/ ≪믹스≫ 명예의 전당(1991). “Alesis ADAT Modular Digltal Multitrack”,(2006. 9. 1.). http://mixonline.com/TECnology-Hall-of-Fame/alesis-d at-multitrack-090106/

84


09 미디

미디(MIDI)는 뮤지컬 인스트루먼트 디지털 인터페이스(Musical Instrument Digital Interface)의 약자다. 미디는 과연 무엇인가. 미디를 한 마디로 표현하면 ‘약속’ 또는 ‘규격’일 것이다. 이 단어들을 봐도 미디가 무엇인지 추측하기란 쉽지 않다. 이 질문의 답을 알기 위해서는 미디가 탄생한 배경을 먼저 이해해야 한다. 미디가 탄생하는 1983년 당시의 시대 특징을 살펴보면 많은 기기들이 1970년대 중반부터 아날로그에서 디지털로 바뀌었고, 1980년 초에는 어느 정도 가격도 떨어지고 기기 자체의 성능도 안정적이어서 대중에게


널리 보급되었다는 것이다. 이런 기기들 중에 신시사이저(synthesizer), 샘플러 (sampler), 시퀀서(sequencer), 드럼 머신(drum machine) 등 음악에 관련된 전자악기들도 포함되어 있었다. 각기 다른 회사에서 여러 관련 모델들을 생산했는데, 이들이 공통적으로 사용할 만한 표준이 없었다.

미디의 탄생 당시 같은 회사의 기기끼리는 서로 연결해 사용할 수 있었 다. 그러나 다른 회사 악기는 하드웨어적인 단자가 서로 다르거나 하드웨어적으로 연결이 되더라도 소프트웨어적 으로 서로 소통이 안 되었다. 이를 안타깝게 여긴 시퀀셜 서킷(Sequential Circuits)의 데이브 스미스(Dave Smith) 는 1981년 열린 AES(Audio Engineering Society, 음향엔 지니어협회) 전시회에서 전자악기 제조사들에게 규격을 통 일할 것을 공식 제안했다. 그때부터 2년간 롤런드(Roland), 야마하(Yamaha), 코르그(Korg), 가와이(Kawai), 오버하 임(Oberheim), 시퀀셜 서킷의 연구진이 협의를 거쳐 결정 한 규격을 1983년 1월 냄(NAMM, National Association of

86


Music Merchants, 미국 음악장비협회)전시회에서 발표했 다. 이때 만들어진 ‘MIDI Specification 1.0(미디 규격 1.0)’ 에는 모든 소프트웨어와 하드웨어의 규격과 약속이 들어 있어 이를 토대로 다른 회사들이 하드웨어나 소프트웨어 를 제작하고 서로 소통하게 된 것이다.

미디 하드웨어

미디 장비에는 입력장치인 미디 컨트롤러(Controller), 출 력장치인 사운드모듈(혹은 음원), 그리고 미디 인터페이 스가 있다. 각각의 장비에는 미디 인, 미디 아웃, 미디 스 루(Thru) 등 3개의 연결 포트(Port)가 있어 미디 메시지를 주고받는다. 예를 들어 미디 키보드에서 건반을 누르면 노트온(Note On) 메시지가 미디 키보드의 미디 아웃 포트 를 통해 출력되어 소리가 저장되어 있는 사운드모듈의 미 디 인 포트로 들어가 해당 노트의 소리가 들리게 한다. 미 디 스루는 미디 인으로 들어온 미디 메시지를 그대로 반사 해 내보내는 단자로 여러 대의 미디 장비 연결 시 유용하 게 쓰인다. 이때 쓰이는 커넥터는 5핀 딘(DIN, Deutsches Institut für Normung, 독일 표준 규격) 커넥터로 다섯 핀 중 1번과 3번 핀은 1983년 만들 당시부터 여유분으로 2개 로 만들어져 현재 세 핀만 쓰인다(<그림 34>).

87


<그림 34> 5핀 DIN 커넥터

① 미디 컨트롤러 연주 정보를 입력하는 미디 컨트롤러는 건반(keyboard) 형태가 가장 많이 쓰이며 마스터 건반이라 불리기도 한다. 순수한 의미의 컨트롤러는 기기 안에 악기 소리가 들어 있 지 않고, 연주 정보만 출력시키는 역할만 하지만, 음원이 같이 내장된 건반도 많다. 그 외에 다른 악기도 미디 신호 를 보낼 수 있게 특별히 제작되는데, 미디 기타, 미디 베이 스, 미디 바이올린 등이며 미디 색소폰에 해당하는 윈드컨 트롤러도 있어 각자 편한 악기로 미디 신호를 입력할 수 있다.

② 미디 인터페이스 미디 인터페이스의 1차 목표는 컴퓨터와 연결이다. 쉽게

88


생각하면 <그림 35>에서 보이는 미디 커넥터를 컴퓨터와 직접 연결할 수 없어 이 인터페이스에 먼저 연결하고 다시 인터페이스와 컴퓨터를 연결해서 컴퓨터로 미디 신호를 보내주는 것이다. 컴퓨터와 인터페이스의 연결 시 매킨토 시 컴퓨터는 시리얼 단자, PC는 시리얼 또는 패럴렐 (parallel, 프린터) 단자로 연결했으나, 최근에는 USB로 연결하는 것이 일반적이다. 1985년 출시된 아타리(Atari) ST 컴퓨터는 특이하게 미디 인, 아웃 단자를 내장해 단종 이 되던 1991년까지 음악용 컴퓨터로 애용되었다. 미디

<그림 35> 미디 포트와 미디 커넥터

89


인터페이스의 부가 기능에는 여러 가지가 있지만 그중 대 표적인 것은 여러 대의 미디 입·출력 기기들을 동시에 연 결할 수 있는 미디 패치베이 기능이다. 여러 대의 컨트롤 러와 미디 신시사이저, 샘플러 등을 갖춘 홈 스튜디오나 라이브 공연 때 꼭 필요한 기능으로 입력 4개×출력 4개나 입력 8개×출력 8개 연결을 가능하게 했다. 또 다른 부가 기능으로는 싱크(synchroniser, 동기화) 기능으로, 영상 장비나 다른 음향 장비와 연동해서 사용할 때 필요한 장비 다. 통상 방송국이나 전문 스튜디오용은 독립된 고가의 싱크 기기를 사용하지만 홈 스튜디오나 소규모 스튜디오 에서는 미디 인터페이스에 내장된 싱크 기기를 사용하는 경우도 있었다.

③ 미디 음원 미디 음원용으로 소리를 만드는 방식에는 여러 가지가 있 는데, 그중 대표적인 것이 신시사이저, 샘플플레이백, 샘 플링 방식이며, 최근에는 이 모든 방식을 컴퓨터 소프트웨 어로 구현하는 가상악기가 하드웨어 형태의 음원을 대체 하는 추세다.

90


신시사이저

신시사이저는 여러 파형을 합쳐서 새로운 소리를 만드는 첨가(additive) 합성법, 두터운 파형에 필터를 통과시켜 새로운 소리를 만드는 감산(subtractive) 합성법, 스탠퍼드 대학교 존 차우닝(John Chowning)의 FM변조(frequency modulation, 1967) 합성법(DX7) 등이 있고, 그 외에도 그 래뉼러(Granular), 피지컬 모델링 등 여러 방식의 신시사 이저가 개발되었다.

샘플재생 방식

신시사이저로 새로운 소리를 만들면서 아쉬운 것은 실제 악기를 흉내 내기 힘들다는 점이다. 그래서 만들어진 방 법이 샘플재생 방식(Sample Playback)이다. 여기서 샘플 은 짧은 녹음이라는 의미이고, 제조 시에 실제 악기를 한 음씩 짧게 녹음해, 그 높이(음)에 맞게 변조해 재생하는 방 식이다.

샘플러

샘플러는 말 그대로 직접 짧게 녹음을 하여 음원으로 사용 하는 방식이다. 처음에는 짧은 악기 소리로 시작했으나, 메모리 시간이 늘어나면서 간단한 소절이나 솔로를 녹음

91


할 수도 있었고, 드럼 등의 실제 연주를 한두 마디로 녹음 한 후 루프(Loop) 기능으로 구간 반복하는 테크닉도 널리 쓰였다.

미디 소프트웨어

미디 프로그램에는 크게 연주를 녹음하는 시퀀싱 (Sequencing) 프로그램과 악보를 그리는 노테이션 (notation) 프로그램이 있다. 시퀀싱에는 PC용으로 케이크 워크(Cakewalk)가 발전한 소나(Sonar), 큐베이스(Cubase), 매킨토시용인 퍼포머(Performer), 로직(Logic) 등이 있으며, 노테이션 프로그램은 앙코르(Encore)가 사라지고 시벨리우 스(Sibelius)와 피날레(Finale)가 시장을 양분하고 있다. 특 히 큐베이스의 VST(Virtual Studio Technology)를 시작으 로 가상악기가 빠르게 발전하고 있다. 미디는 비슷한 시기에 같이 발전한 신시사이저, 샘플 러, 시퀀서, 컴퓨터 등의 발전과 맞물려서 음악 산업에 많 은 영향을 끼쳤다. 그동안 음반을 제작하려면 녹음실을 계약해 실제 악기 연주를 전문 엔지니어를 통해 녹음해야 했는데, 미디 하드웨어와 소프트웨어를 통해 한 사람이, 집에서도 모든 작업이 가능하게 되었다. 이에 따라 제작 비도 훨씬 줄어들었다. 음악교육을 받지 않은 사람도 작

92


곡을 하고, 악보를 출력하고, 저작권을 등록하는 과정을 쉽게 할 수 있게 되었으며, 악보를 이해 못해도 편곡이 가 능해졌다. 작곡가가 곡을 만들면서 소리가 어떻게 될지 풀 밴드건 오케스트라건 미리 들어보며 작업할 수 있게 된 것이다. 물론 실제 악기에 비해 느낌이 떨어지긴 하지만 미디를 통해 더 많은 사람이 음악과 친숙해질 수 있게 되 었다.

참고문헌 박영권(2010). 󰡔큐베이스5󰡕. 혜지원. Huber, D. M.(1991). The MIDI Manual. SAMS. Huber, David(1995). Hard Disk Recording for Musicians. Music Sales America. ≪믹스≫ 명예의 전당(1983). “ Dave Smith, Sequential Circuits MIDI Specification”, (2006. 9. 1.). http://mixonline.com/TECnology-Hall-of-Fame/smith-s equential-midi-090106/ (Dave Roos) http://entertainment.howstuffworks.com/midi1.htm <HowStuffWorks> “How Making Music with MIDI Works” <TheFreeDictionary.com> http://encyclopedia2.thefreedictionary.com/MIDI

93



10 하드디스크 리코딩

1980년 초 처음 선을 보였고, 1980년대 말부터 본격적으로 보급되기 시작한 하드디스크 리코딩(Hard Disk Recording: HDR)은 몇 년 사이에 컴퓨터의 성능이 놀랍게 발전하고 상대적으로 PC나 하드디스크의 가격도 싸지면서 이제는 녹음실, 영화스튜디오, 라이브, 작곡 등의 녹음, 편집을 비롯한 모든 음향이나 음악 작업에서 중요한 위치를 차지하게 되었다. 하드디스크 리코딩은 DAW(Digital Audio Workstation)라고 불리는데, 엄밀히 말하면 약간 차이가 있다. DAW는 컴퓨터, 디지털 오디오 소프트웨어, 디지털 오디오 인터페이스


세 가지의 조합으로 이루어진 점을 강조하는 반면에 HDR은 하드디스크에 녹음을 한다는 개념이다. 하드디스크 리코딩에는 컴퓨터 기반(DAW)과 컴퓨터 없이 작동하는 전용 기기가 있다(<그림 36>). 그러므로 하드디스크 리코딩이 DAW보다 넓은 개념이라 볼 수 있다.

하드디스크 리코딩의 발전 1970년대에 테이프 기반의 디지털 녹음기를 개발했던 사 운드스트림은 1978년 하드디스크 녹음기에 도전해, 거대 한 메인프레임 컴퓨터와 소형 마이크로컴퓨터의 중간 단 계인 미니컴퓨터를 사용한 ‘디지털 에디팅 시스템’이라 부 르는 워크스테이션을 만들었다. 이 시스템은 컴퓨터와 ‘디 지털 오디오 프로세서’라는 개별 프로그램과 디지털 오디 오 인터페이스(DAI) 카드를 사용하는 전형적인 DAW였 다. 14인치 하드에 소리를 녹음하는 이 시스템은 가격이 나 성능 면에서 기존 테이프 기반의 아날로그나 디지털 녹 음기를 따라잡지 못했다. 컴퓨터를 사용하지 않는 HDR는 1982년 NED(New England Digital, 뉴잉글랜드디지털)에서 만든 싱클라비

96


<그림 36> 컴퓨터 기반과 전용기기

출처: 김윤철(2007). 󰡔디지털 사운드 제작󰡕. 동아방송예술대학출판사.

어(Synclavier) II 모델로 50KHz 샘플레이트와 16비트를 사용했다. 그 당시 20만 달러(약 2200만 원)의 고가로 신 시사이저, 디지털 샘플러, 디지털 녹음기 기능에 만족할 만한 스튜디오는 흔하지 않았으며, 몇몇 부유한 뮤지션들 과 음향연구소, 혹은 소수의 영화 포스트프로덕션에서 후반 작업용으로 사용되었다. 뮤지션 중에는 스팅(Sting), 스티비 원더(Stevie Wonder) 등이 있었고, 마이클 잭슨(Michael Jackson)의 <스릴러(Thriller)> 앨범에 사용되었다. 비슷한 시기에 호주 회사 페어라이트 CMI(Fairlight Computer Music Instrument)에서 1979년 신시사이저로 시작한 시리즈 1모델을 개선하면서 샘플러 기능을 추가해 1982년 시리즈 2, 1985년 시리즈 3을 선보였다. 이 시리즈

97


1982년 NED(New England Digital, 뉴잉글랜드디지털)에서 만든 컴 퓨터를 사용하지 않는 HDR 싱클라비어(Synclavier) II 모델 ⓒ 커뮤니 케이션북스

들은 모토롤라 칩을 탑재한 컴퓨터 기반이었고, 전용 편집 프로그램을 사용했다. 허비 핸콕(Herbie Hancock), 피터 가브리엘(Peter Gabriel), 얀 해머(Jan Hammer), 스티비 원더 등이 사용했다. 이 회사는 1991년에는 최초의 모듈 형 24트랙 녹음기를 개발했고, 1993년 오타리(Otari)도 RADAR(Random Access Digital Audio Recorder)를 개발 해 24트랙 디스크 녹음기를 녹음 스튜디오에 보급했다. 포스텍스, 아카이 등의 회사에서 1990년대 중반 저렴한 모듈형 디스크 녹음기를 만들었고, 2000년 이후에도 알레

98


시스의 HD24, 타스컴의 X-48MKII 등이 최근까지 보급되 었다. 한편 롤런드의 믹서일체형 8트랙 하드디스크 녹음 기 VS880이 1996년 출시되었고(<그림 36>), 2000년 출시 된 야마하의 Aw4416도 홈 스튜디오를 중심으로 보급되 었다. 매킨토시 기반의 사운드 툴이 개발된 후, 1992년 PC 기 반의 사운드스케이프(Soundscape)나 새디(SADiE)가 개 발에 참여했고, 독일의 스타인버그가 1993년부터 큐베이 스(cubase)를 출시해 1996년 큐베이스 VST를 소개하며 윈도 기반의 대표주자로 자리 잡게 되었다.

디지디자인의 프로툴 1980년대 하드디스크 리코딩이나 DAW가 자리 잡지 못한 데는 가격과 기술이 모두 원인으로 작용했다. 컴퓨터가 매우 고가인데다 속도도 느렸으며, 하드디스크도 마찬가 지였다. 그러던 것이 1980년대 후반으로 접어들면서 애플 의 매킨토시를 비롯한 아타리 ST, 코모도어 아미가 등의 퍼스널 컴퓨터가 비약적인 발전을 했고, 컴퓨터와 하드디 스크 모두 가격이 떨어지기 시작했다. 곧 주인공이 등장 하기 적당한 분위기였다. 디지디자인(DigiDesign)은 1984년 에반 브룩스(Evan

99


Brooks)와 피터 고처스(Peter Gotcher)에 의해 설립되어 1987년 매킨토시 기반의 간단한 미디 프로그램인 ‘큐시트 (Q-Sheet)’, 1988년에는 터보신스(Turbosynth)라는 소프 트 신시사이저를 개발했다. 1989년 DAT-I/O 하드웨어와 사운드디자이너2(Sound Designer2) 프로그램을 패키지 로 하는 사운드툴(Sound Tools)을 개발했다. 사운드툴은 2트랙이어서 편집과 마스터링 용도로 쓰였다. 멀티트랙 의 필요성에 마침내 1991년 4채널 입출력 외장 인터페이 스(442IO)를 갖춘 프로툴(Pro tools)을 출시했다. 이후 한 동안 2트랙 사운드툴과 멀티트랙 프로툴이 공존하다가 1995년 사운드툴은 프로툴에 흡수되어 생산이 중단되고, 같은 시기 디지디자인은 비선형 영상편집 프로그램 아비 드(Avid) 프로그램으로 알려진 아비드사와 합병하고 더 커진 규모로 공격적인 마케팅에 임해 프로툴을 널리 전파 했다. 프로그램은 계속 업데이트해 2011년 말에 회사명을 아비드오디오(Avid Audio)로 개명하고 프로툴10을 출시 했으며, 오디오 미디어 카드, 앰박스, 88I/O, 192 I/O 등 오디오 인터페이스도 꾸준히 업데이트했다. 음질도 초창 기 CD 음질(44.1KHz, 16비트, 스테레오)에서 24비트, 96KHz 샘플레이트로 발전했다. 여러 가지 플러그인을 추 가해 더욱 다양하게 사용할 수 있고, 1999년 출시된 프로

100


컨트롤(Pro-Control)이나 2004년 출시된 아이콘(i-con)과 SR용 베뉴(Venue) 등의 컨트롤러를 사용해 더욱 세밀하 게 조절할 수 있다.

하드디스크 리코딩의 특성 하드디스크 리코딩의 장점을 살펴보면 ① 비파괴 편집 및 간편한 편집 기능이다. 테이프 기반과 다르게 편집을 해 도 원본 파일이 그대로 남아 있기 때문에 처음의 상태로 쉽게 되돌릴 수 있다. 또한 파형을 보면서 편집을 하기 때 문에 보다 쉽고 정교한 작업을 할 수 있다. ② 비선형 편집(non-linear)이다. 테이프와 달리 지정 한 부분으로부터 순간에 재생이 가능하기 때문에 테이프 처럼 원하는 위치로 감아야 할 필요가 없다. ③ 플러그인(Plug-in)을 통한 이펙트 프로세싱으로 확 장할 수 있다. ④ 고음질의 리코딩이 가능하다. 기존에는 음질 때문에 프로녹음에서 외면되었으나 이제는 24bit 96KHz의 샘플 링 포맷까지 사용해 고음질의 리코딩을 할 수 있는 장점이 있다(김윤철, 2007). 단점은 고성능 컴퓨터와 대용량 하드가 필요한 것과, 작업 중이나 작업이 끝나면 하드디스크를 백업해 보관해

101


<그림 37> Sound Forge

출처: 김윤철(2007). 󰡔디지털 사운드 제작󰡕. 동아방송예술대학출판사.

야 한다는 점이다. 프로툴로 대표되는 하드디스크 리코딩의 발전은 현재 진행형이다. 아날로그나 디지털 테이프 기반 녹음기는 물 론 모듈형 하드디스크 녹음기도 모두 단종이 된 상황에서 이들만 홀로 남아 있다. 현재도 대세이며, 앞으로도 당분 간은 컴퓨터 기반의 하드디스크 리코딩이 대세일 것이다. 새로운 역사를 계속 써가는 이들의 발전은 어디까지일지 기대된다.

102


참고문헌 김윤철(2007). 󰡔디지털 사운드 제작󰡕. 동아방송예술대학출판사. 장인석(2001). 󰡔리코딩아트󰡕. 샤프랫뮤직. Alten, S. R.(2007). Audio in Media. 김윤철(2008). 󰡔미디어 음향󰡕. 커뮤니케이션북스. David Huber(1995). Hard Disk Recording for Musicians. Music Sales America. ≪믹스≫ 명예의 전당(1978). “New England Digital Synclavier”, (2006. 9. 1.). http://mixonline.com/TECnology-Hall-of-Fame/new-en gland-synclavier-090106/ ≪믹스≫ 명예의 전당(1979). “Fairlight CMI(Computer Musical Instrument)”, (2006. 9. 1). http://mixonline.com/TECnology-Hall-of-Fame/fairlight -computer-musical-090106/ ≪믹스≫ 명예의 전당(1991). “Digidesign Pro Tools”, (2006. 9. 1). http://mixonline.com/TECnology-Hall-of-Fame/digidesig n-pro-tools-090106/ SYNCLAVIER EARLY HISTORY(Steve Hills. 2006) http://www.500sound.com/synclavierhistory.html

103


부록 음향 관련 서적

국내 강성훈(2007). 󰡔음향기술용어사전󰡕. 사운드미디어. 강성훈(2011). 󰡔음향시스템의 기초󰡕. 사운드미디어. 강성훈(2012). 󰡔음향기술총론󰡕(개정판 7판). 사운드미디어. 김건수(2010). 󰡔뮤지션을 위한 사운드 시스템 가이드북󰡕. 예솔기획. 김건수(2011). 󰡔뮤지션을 위한 홈 레코딩 스튜디오 가이드북󰡕. 예솔. 김양한ㆍ남경욱(2012). 󰡔음향학 강의󰡕. 청문각. 박영철 저. 차성구(2006) 역. 󰡔무대음향개론󰡕. 예영커뮤니케이션. 박우철ㆍ이상봉ㆍ이선희(2010). 󰡔음향기술총론: 오디오 이론과 응용󰡕. 차송. 박지형(2006). 󰡔다채널 음향󰡕. 커뮤니케이션북스. 변태식(2003). 󰡔베이직 사운드 & 레코딩󰡕. 충남대학교출판부. 이돈응ㆍ이수용ㆍ조현의ㆍ최기선(2007). 󰡔무대음향3󰡕. 교보문고. 이석원(2003). 󰡔음악음향학󰡕. 심설당. 장인석(2011). 󰡔더 레코딩󰡕. SRMUSIC. 장인석(2012). 󰡔장인석의 음향입문󰡕. SRMUSIC. 장호준(2012). 󰡔음향시스템 핸드북󰡕(개정판3.5판). BIC 미디어 북스. 한국음향학회 음향전문사 자격검정위원회(2010). 󰡔음향문제집󰡕. 사운드미디어. 함상협(2012). 󰡔오디오 레코딩 기법󰡕. 퍼브플랜. Alten, S. R.(2007). Audio in Media. 김윤철(2008). 󰡔미디어 음향󰡕. 커뮤니케이션북스.

104


David Miles Huber & Robert E. Runstein(2005). Modern

Recording Techniques. 김철웅(2008) 역. 󰡔모던 리코딩 테크닉󰡕. 커뮤니케이션북스.

국외 Alex Case(2011). Mix Smart: Pro Audio Tips For Your

Multitrack Mix. Focal Press. Ben Duncan(2002). The Live Sound Manual: Getting Great

Sound at Every Gig. Backbeat Books. Bill A. Gibson(2011). The S.M.A.R.T. Guide to Recording Great

Audio Tracks in a Small Studio. COURSE TECH PTR. Bob Katz(2007). Mastering Audio: The Art and the Science. Focal Press. Bobby Owsinski(2006). The Mixing Engineer’s Handbook, Second Edition. Thomson Course Technology. Bobby Owsinski(2009). The Recording Engineer's Handbook. Course Technology PTR. Bobby Owsinski(2012). Audio Recording Basic Training: The

Hands-On Survival Manual for Musicians. Alfred Music Publishing. Brent Edstrom(2010). Recording on a Budget: How to Make

Great Audio Recordings Without Breaking the Bank. Oxford University Press. Bruce Bartlett & Jenny Bartlett(2012). Practical Recording

Techniques, Sixth Edition: The Step- by- Step Approach to Professional Audio Recording. Focal Press. Bruce Swedien(2009). Make Mine Music. Hal Leonard Books. Buster Fayte(2008). The Complete Home Music Recording Starter

Kit: Create Quality Home Recordings on a Budget. Que

105


Publishing. Carla Schroder(2011). The Book of Audacity: Record, Edit, Mix,

and Master with the Free Audio Editor. No Starch Press. Daniel M. Thompson(2005). Understanding Audio: Getting the

Most Out of Your Project or Professional Recording Studio. Berklee Press. Daniel M. Thompson(2005). Understanding Audio: Getting the

Most Out of Your Project or Professional Recording Studio. Berklee Press. David Gibson(2005). The Art of Mixing: A Visual Guide to

Recording, Engineering, and Production. Artistpro. David Miles Huber & Robert E. Runstein(2009). Modern

Recording Techniques, Seventh Edition. Focal Press. David Moulton(2000). Total Recording: The Complete Guide to

Audio Production and Engineering. KIQ Productions. David Trubitt(1993). Concert Sound(Mix Pro Audio Series). Hal Leonard Corporation. Douglas Self(2009). Audio Engineering Explained. Focal Press. Fett(2012). Fett’s Mixing Roadmap: A Step-by-Step Guide To

Mixing Music In The Studio. Azalea Music Group. Gary Davis & Ralph Jones(1988). Yamaha Sound Reinforcement

Handbook. YAMAHA. Geoffrey Francis(2009). Home Recording for Beginners. Course Technology PTR. Gleen Ballou(2002). Handbook for Sound Engineers. Focal Press. Glenn D. White & Gary J. Louie(2005). The Audio Dictionary:

Third Edition, Revised and Expanded. University of Washington Press. Howard Massey(2000). Behind the Glass. Backbeat Books.

106


Jay Beck (Editor) & Tony Grajeda (Editor). Lowering the Boom:

Critical Studies in Film Sound. University of Illinois Press. Jeff Strong(2011). Home Recording For Musicians For Dummies. For Dummies. John M. Eargle & Chris Foreman(2002). JBL Audio Engineering

for Sound Reinforcement. JBL Pro Audio Publications. John M. Woram , Alan P. Kefauver(1989). The New Recording

Studio Handbook. Elar Pub Co. John M. Woram(1989). Sound Recording Handbook(John

Woram audio series). Financial Times Prentice Hall. Maureen Droney(2003). Mix Masters: Platinum Engineers Reveal

Their Secrets for Success. Berklee Press. Mike Senior(2011). Mixing Secrets for the Small Studio. Focal Press. Mixerman(2009). The Daily Adventures of Mixerman. Backbeat Books. Mixerman(2010). Zen and the Art of Mixing. Hal Leonard. Mixerman(2012). Zen and the Art of Producing. Hal Leonard. Mr Ric Wallace(2012). Live Sound Basics(Volume 1). CreateSpace Independent Publishing Platform. Rick Clark(2010). Mixing, Recording, and Producing Techniques

of the Pros: Insights on Recording Audio for Music, Video, Film, and Games. Course Technology PTR. Roey Izhaki(2011). Mixing Audio: Concepts, Practices and Tools. Focal Press. Ronan Chris Murphy(2012). Audio Recording Boot Camp. Recording Boot Camp. Scott Hunter Stark(1996). Live Sound Reinforcement. Artistpro. Shannon Slaton(2011). Mixing a Musical: Broadway Theatrical

107


Sound Techniques. Focal Press. Stanley R. Alten(1995). Audio in Media: The Recording Studio. Schirmer. Stanley R. Alten(2011). Cengage Advantage Books: Audio Basics. Wadsworth Publishing. Stanley R. Alten(2011). Recording and Producing Audio for

Media. Course Technology PTR. Stanley R. Alten(2011). Working with Audio. COURSE TECH PTR. Steve Savage(2011). The Art of Digital Audio Recording: A

Practical Guide for Home and Studio. Oxford University Press. Tim Dittmar(2011). Audio Engineering 101: A Beginner's Guide

to Music Production. Focal Press. Wikibooks contributors(2011). Engineering Acoustics. CreateSpace Independent Publishing Platform.

108


김윤철 동아방송예술대학교 음향제작과 교수다. 뉴욕주립대학교를 졸업하고 뉴욕대학교 대학원에서 뮤직테크 놀로지를 전공하여 석사학위를 받았다. 뉴욕과 서울에 있는 다 수의 녹음 스튜디오에서 재직했으며, 상명대학교 멀티미디어 대학원, 이화여자대학교 뉴미디어대학원 등에 출강했다. 저서로 󰡔디지털사운드 제작󰡕(2007), 󰡔마이크로폰 테크닉󰡕 (2006) 등이 있고, 역서로 󰡔미디어 음향󰡕(2006)이 있다. <무 한대>, <Red Snake> 외 다수의 앨범 녹음 엔지니어를 담당했 고, <트랙16>, <빨강풍선> 등 여러 편의 영화 사운드 디자이너 로 참여했다.



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.