오디오가이 :: 디지털처럼 정확하고 아날로그처럼 따뜻한 사람들
FAQ

페이더 : 아날로그 vs 디지털

페이지 정보

본문

영자님 만큼은 아니지만 저도 장비를 자주 바꾸는 사람 중 하나입니다.
디지털과 아날로그를 넘나들다가
아날로그와 디지털 콘솔의 페이더 때문에
갑자기 궁금한 점 생겨서 고수분들께 여쭈어봅니다.^^

<interface + da  + 아날로그>로 믹싱하다가
<interface + 디지털>로 믹싱을 하면 적은 볼륨에서 음의 왜곡이 많이 느껴집니다.
그리고 페이더를 내려보면 아날로그에서는 그런 현상이 없었는데
디지털에서는 좀 많이 느껴집니다.
혹시나 싶어서 페이더를 낮추고 앰프 볼륨을 높여서 들어 보았는데
확실히 좀 떨어졌습니다.

제가 알고 있는 짧은 지식 안에서 이 현상을 나름대로 고민을 해보고 이런 식으로 이해를 했습니다.

 16비트 24비트 하는 포맷의 비트수는 최대레벨에서의 비트수를 말하는 것이고
 만약 레벨이 이보다 낮다면 사용되는 비트수도 이것보다 작아진다.
 그러니 만약 페이더로 레벨을 낮추면 비트수는 작아지는 것이다.
 그리고 비트수가 작아지니 당연히 정보량도 줄고 음질이 나빠진다.

저의 이해가 맞는것인지요?

그러면 이번에는 아날로그에서의 문제인데.
아날로그에서는 제가 사용했던 콘솔들의 상태나 노후함때문인지 알수는 없지만
아날로그에서는 노이즈가 살짝 끼어들어 오더군요.

저의 경우 여백이 많은 음악을 많이 하는 지라  페이더를 가득채워줄일이 그다지 많지 않습니다.
어떤 선택이 좋을까요? 조언 부탁드립니다.
[이 게시물은 운영자님에 의해 2008-06-17 13:28:00 레코딩에서 이동 됨]

회원서명

SIGNATURE

스튜디오 사운드퍼즐 운영 중입니다.

서명 더보기 서명 가리기

관련자료

장호준님의 댓글

상상력이 너무 뛰어나신 것 같습니다.  비트수는 소화 할 수 있는 다이나믹레인지를 말합니다. 쉽게 말하면 음량에 대한 부분을 비트가 담당합니다. 그리고 비트수는 정해져 있습니다. 샘플링 비트를 일일하 지원하는 환경내에서 바꾸지 않는 한, 페이더로 작아질 수 없습니다.  적은 소리건 큰 소리건 같은, 이미 정해진 비트로 처리됩니다.

장비를 좋은 것으로 바꾸는 것도 좋은 일인데, 옆 FAQ에 공지사항으로 떠있는 추천 서적을 먼저 읽으시는 것이 좋다고 사료됩니다.  저자의 성이 장으로 시작되는 두 분의 서적은 기본입니다.

장호준님의 댓글의 댓글

전혀 배경을 알 수 없는 부분에서 최선을 다해 해 드릴 수 있는 이야기는 기본적인 이야기일 수 밖에 없습니다. 알고 계시겠지만,, 더군다나 천차만별인 오디오가이회원들이 보는 글에서는 기본에 충실할 수 밖에 없겠죠..

김용재 개척교회님의 댓글

"16비트 24비트 하는 포맷의 비트수는 최대레벨에서의 비트수를 말하는 것이고
 만약 레벨이 이보다 낮다면 사용되는 비트수도 이것보다 작아진다.
 그러니 만약 페이더로 레벨을 낮추면 비트수는 작아지는 것이다.
 그리고 비트수가 작아지니 당연히 정보량도 줄고 음질이 나빠진다. "

거의 맞는 표현입니다.

저는 연구를 하다보니 8bit, 16bit, 24bit 데이터를 많이 다룹니다.
실험 장비들은 대부분 8~12bit 를 많이 사용합니다.
(이에 비하면 음향에서 사용하는 24bit는 거의 환상이죠...)
이런 상황이다보니 bit 에 굉장히 민감한 편입니다.

데이터 크기가 작을 경우 즉, 음량이 작을 경우
24bit 데이터 포맷을 사용하더라도 데이터는 10 bit(1024) 정도로 표현될 수도 있습니다.
10bit면 좀 심한 편이긴 하지만 이 정도까지 내려가면 계단 형태의 파형이 보이기 시작합니다.
일단 10bit 정도로 표현되었던 파형이 디지털이건 아날로그이건 증폭되면
소리가 조금 다르게 들리게 되지요...

작은 소리를 증폭했을 때 아날로그의 경우 페이더 노이즈나 회로 노이즈가 함께 증폭이 될테도
디지털의 경우 원래 없던 주파수 성분들이 섞이게 될 것입니다. 결국 이것도 노이즈이죠...

장호준님의 댓글의 댓글

고정되어 있는 비트수 가운데에 데이터화 되어있는 비트수는 당연 데이터의 크기만큼 변하겠죠. 그게 데이터니까,
하지만, 샘플링 비트 자체는 변하지 않죠. 24비트 다이나믹레인지를 10비트로 표현하는 것이 아닌 24비트 중에서 10비트에만 데이터가 있는 거니까..  000000000000001111111111 의 값이겠죠. 쓰고 보니까 2047의 값이네요.

김 용님의 댓글

음..
소리가 크든 작든지 간에 비트레이트와 샘플레이트는 고정입니다.
24비트의 오디오가 소리를 작게했다고 16비트가 되거나 12비트가 되는 경우는 없습니다.
소리가 다르게 느겨지는 것은 DA의 특성에 의한 것입니다.

bravo님의 댓글

음... 저의 의도는...^^... 당연히 비트수는 고정 상태이구요.
저의 표현은 페이더로 레벨을 1/2로 낮춘 그 순간 사용되는 양을 의미합니다.
그러니까 레벨을 낮춘 상태에서는 16,24비트를 완전히 다 사용하지 않고 그 내린 만큼만 사용한다는 것이죠.
예를 들면 16비트 포맷의 스케일에서
레벨이 100% - 16비트, 레벨이 50% - 15비트, 25% - 14비트만 사용한다는 점에서
레벨이 낮으면 16비트의 "음의 분해능력(?)"을 완전히 다 사용할수는 없게 된다.
그래서 분해능력이 떨어지면 왜곡이 늘고 음질이 저하되는 게 아닌가 싶어서요.

장호준님의 댓글의 댓글

충분히 그렇게 생각하실 수 있다고 봅니다. 귀의 반응도와 레벨은 분명 음색 차이가 있지요. 등청감곡선이라고 불리는 그래프도 있지요.

뭐, 워낙 새로운 이론과 변형들이 많이 있겠지만, 제가 알고 있는 한, 페이더를 1/2로 해놓건 100퍼센트로 해놓건 간에 피크레벨을 0dBfs로 하는 다이나믹레인지는 똑같습니다.  레벨이 50퍼센트라도 16비트가 소화하는 데이터의 반이라는 것이죠. 그리고 이미 컨버터를 통과한 뒤의 데이터는 샘플링 비트를 따로 변화하지 않는 한, 레벨에 따라 변화되지 않습니다. 비트수가 변화된다면 다이나믹레인지의 의미가 없어지죠.

장호준님의 댓글의 댓글

하나더 못밖으면, 모든 페이더는 로그 스케일로 표현됩니다. 그게 실제 우리 귀의 반응을 나타내는 방법입니다. 따라서 페이더가 절반에 있더라도 실제 레벨이 절반은 아닙니다. 정확하게 각각의 메이커가 어떤방식을 사용할련지 확신을 가지고 말씀드릴 데이터는 없지만, 디지털 믹서의 목적상 아나로그 믹서, 그리고 로그 스케일을 기반으로해야하는 것이 다이나믹레인지를 표현 할 수 있다는 조건들에 볼때 그렇습니다. 또 비트당 6dB의 다이나믹레인지를 가지는 것은 다 아는 이야기이고요.

16비트, 즉 65536개의 스텝으로 제일 적은 소리와 제일 큰 소리를 표현할때, 1024의 값을 가진 레벨이 10비트로 보는 것은 맞겠지만, 그건 16개 비트 가운데 10개의 비트가 켜있다라는 이야기이지 10비트만 연산하는 것이 아니기 때문이겠죠.

뜻밖에 전혀 생각 안해본 것을 생각하게 되네요. PM5D 매뉴얼 같은 것에 있을 지 모르겠네요. 찾아봐야지..

한번도 생각 안해본건데, 비트와 데이터량의 증가 스케일이 로그 스케일 같이 보이는데.. 수학에 밝을 용재님이 그래프 만들어서 비교하던지,

flanc0님의 댓글의 댓글

일단 CD를 mp3로 변환해 보신적이 있으시겠죠?

결론부터 말씀 드리면 선생님의 말씀이 대부분의 경우에 맞습니다.
디지털 신호 처리를 업으로 하는 회사에 다니고 있는 관계로 제가 아는 부분을 설명해 보겠습니다.
다들 디지털 신호를 오해 하시는 경우가 많은 것 같습니다.

그럼 아날로그 디지털 변환 과정을 알아볼까요..

디지털 샘플링(정확히는 디지털에서는 샘플링이 아닙니다)에서
사용하고 있는 비트를 정보량의 따라 바꾸는 것은 VBR 이라고 재생기의 정보창에서 보신 적 있으실 겁니다.

이는 변환된 데이터의 량에 대한 압축의 효율을 높이기 위한 하나의 대안으로
실시간 처리 장치에서는 잘 사용하지 않는 방식입니다. 실시간 장비는 이미 특정한 양을 처리할 수 있는
throughPut이 감안되어 제작되어 있으므로 VBR을 사용할 이유가 적습니다.
(그러나, 이렇게 제작할 수도 있습니다. 아주 못하는 것이 아니라 대부분 그럴필요가 없는 것입니다.
천천히 갈 때 엔진의 힘을 적게 쓰기 때문에 속도에 따라 1600cc 엔진이 저속에서 1000cc 엔진이
되도록 만들 필요는 없는 것과 비슷하겠습니다. 그러나 아닌 경우도 분명 있겠습니다.
이는 AD DSP chip 스펙에 따릅니다. 안따를 경우 선생님이야기가 틀릴 수 있는 것입니다.)

아날로그에서 디지털로 변환되는 과정에서 아날로그 정보를 디지털의 특정한 격자로 단위시간당
측정을 해서 이를 일정한 비트에 기록합니다. 이때 디지털 격자(일정한 비트)가
바로 저 10bit 16bit이라 부르는 것입니다. 아무래도 비트가 많을 수록 넓은 variation의 정보
가짓수를 기록할 수 있습니다. 가령 5층 아파트는 호수를 표시하는데 3자리면 되지만,
10층 이상 아파트는 3자리로는 부족하죠? 4자리이므로 10층 이상을 다 호수를 이름지을 수 있는 것입니다.

그래서 분해능력이 떨어지면 왜곡이 늘고 음질이 저하되는 것은 맞는 이야기 이나..
페이더의 위치에 따라 사용하는 비트가 달라지므로 음질이 저하된다는 맞는 이야기가 아닙니다.
페이더의 위치에 따라 사용하는 비트가 달라지지 않기 때문입니다.

좀 더 다아가 보면..

이렇게 디지털 부호화 된 정보는 10101111 처럼 1과 0의 반복이므로 압축 알고리즘을 통해
동일한 내용을 4자리수 아파트 호수가 아닌 1자리로 표시할 수 있는 알고리즘등이 있습니다.
보통 101호와 1101호는 101호에서 10층 높이 라는 식의 표현 같은 두 가지 정보의 차이를
기록하는 방식으로 압축합니다.
앞A의 신호 디지털 격자의 내용고 뒤B의 내용이 1이 차이가 나면 (A,A-1,....) 이런 형태를 통해
압축을 해서 단위시간당 전송(!)할 수 있는 능력을 높일 수 있습니다.

만약 물을 얼리면 부피가 1/10로 줄어들면 10개의 물동이로 물 10동이를 나르지만,
압축해서 얼리면 10개의 물동이로 물 100동이를 나를 수 있겠지요.

이럴때 디지털라인이 어떤 이유로 비트 손실이 일어날 수 있습니다.
가령 물동이 하나가 깨져서 얼음 한덩이가 살짝 긁혔습니다.
이럴 때 물을 녹이면 완벽한 물 100동이가 안되는 것죠.
전송 그 자체는 아날로그 입니다. 전송 매체는 절대 디지털화 할 수 없습니다.
아무튼 이러한 손실을 압축 복호화 알고리즘이 손실을 만회할 수 있는 다음 방법이 존재합니다.
물론 100%복구 가능한 경우와 아닌 경우가 있습니다.

그래서 디지털 전송 중에는 이런한 손실을 최소한으로 만드는 방법들이 있고 대표적인 것이
인터리빙입니다.  압축된 정보는 앞뒤 정보가 전부 연결고리를 가지고 있으므로(의존적)
앞뒤 정보가 한꺼번에 날라가면 일부를 전부 복원할 수 없는 경우가 생깁니다.
그래서 특정한 정해진 방법으로 앞뒤의 순서를 마구 섞어서 일정 정보 부분이 한꺼번에
날라가는 것을 막습니다. 단위 위치당 정보 손실을 줄이는 방법입니다.

그래서 디지털 전송에서는 거의 오류가 없습니다. 이는 전송 매체별로 차이가 납니다.
그으러나 대부분의 디지털 전송에서는 오류가 없음을 보장합니다.
대부분은 AD/DA 과정에서 손실이 일어납니다. 이는 회로를 구성함에서 분명 발생할 수 있습니다.

어떻게 디지털에 대한 오해가 좀 풀리셨을까요?
설명 드린 부분은 디지털화 하는 우리는 쉽게 코덱이라고 부르는 또는 AD/DA라고 부르는 장비들에
사용된 복잡한 이론의 아주아주아주 처음만 대충 설명 드렸습니다.
더 많은 이론과 기술이 사용되어 아주 단순한 정보 전송을 보장(!)하고 있습니다.

갑자기 -_- 이상한 글을 써서 죄송합니다. 오해를 좀 덜어들이기 위해 적었습니다.

duper20님의 댓글

저같은 경우 컴퓨터에서 음악감상을 하면서 아날로그 믹서와에 조합에서 예전에
듣던 소리가 안나와 고민하면서 이부분은 제가 아날로그 믹서와 디지털에 대한
이해가 없어서 그렇겠지만 그렇게 고민하면서 최근 bravo님의 생각과 비슷한
접근을 시도한 글을 보았습니다.

http://extra.benchmarkmedia.com/wiki/index.php/Outline_for_Computer_Audio_App_Note

다른내용도 많이 있지만  비슷한 내용이 포함되어 있는것 같아요.

장호준님의 댓글

반대로 생각해보니까 브라보님의 말씀이 틀린 것은 아닙니다. 아나로그에서 레벨이 적다고 소리 그 자체가 변하지는 않는 생각이 디지털에서는 데이터 분해도가 적어지기 때문에 뭔가 차이가 있을 것 같기도 하군요.  만약 샘플링때 전체 96dB(16비트)의 다이나믹 레인지 가운데, 48dB(8비트가 되겠네요)정도로 녹음된 신호를 아나로그 상태의 신호와 비교해보면 용재님이나 브라보님의 말씀이 맞겠지만, 일단 컨버팅 된 데이터를 100으로 볼때 페이더의 위치에 대한 음질적인 변화는 없을 것(아나로그와 같이)이라고 생각됩니다.  이제 정리가 되네요..  정확한지는 모르겠지만, 기승전결은 맞는것 같습니다.

구씨네님의 댓글

- 급 질 문 -

지식이 짧아 여지껏 토론들을 눈팅만 해오다가 이번엔 쪼금 궁금한게 생겨서 질문드립니다..

우문일지라도 너그러이 답변해주시길 바랍니다..

페이더를 올리고 내리는것에 따라 비트의 양(?)-비트수라는 표현이 맞을지도-이 변화해서 음색이나 음질의 변화가
생길 수 있다가 현 질문의 요지인거 같은데요..이건 콘솔이 있을 경우에 해당되겠습니다만, DAW에서는 어떤가요?

그렇담 프로툴을 예로 들겠습니다..

저야 원래 fader를 unity에 놓고 쓰는걸 좋아라 하는 편이지만 다른 곳에서 녹음되어진 소스를 믹싱할경우
레벨이 천차 만별이죠.. 그것이 여러 스튜디오를 거쳤을 경우는 더욱 그렇구요..

여기서 천둥이 바위를 깰듯한 의문이 생깁니다..ㅋ

어떤 소스들이 트랙킹 당시 하늘을 찌를듯한 레벨(여기서 하늘은 피크입니다 ㅎㅎ)로 녹음이 되었습니다.
그래서 그 소스들을 다 unity에 놓으면 터질듯한 소리를 우리의 구하기 힘든 여러 앰프들과 스피커들이
고스란히 감당하겠지요.. 그래서 페이더를 내리는 순간 비트수는 줄어들고 음질은 나빠지고..

혹자는 녹음할때 레벨을 끝까지 쓰는게 좋다 혹자는 아니다 라고들 합니다...

본래의 논의에서 조금 벗어나긴 했지만.. 무엇이 더 좋은걸까요?

적절한레벨로 녹음을 하면(이를테면 피크레벨이 -14정도?) 페이더를 많이 움직이지 않아도 될테지만..
녹음기(DAW)가 가지고 있는 레인지를 다 쓰지 못하는 경우가 되고..

피크까지 녹음을하면 녹음기가 가지고 있는 레인지는 다 사용할지언정 믹스시 페이더를 줄이게 됨으로
또다른 손해를 감수해야 겠지요...

모 음악적인걸루다가 고르면 된다..이러시면 곤란합니다...ㅎㅎㅎ

flanc0님의 댓글의 댓글

제가 장비 스펙을 안읽어봐서 모른다 라고 할 수 있습니다만,
꼭 먹어봐야 장인 줄 아느냐의 말을 빌어 확실히 말씀드리면,

페이더 내린다고 사용하는 비트 수가 줄어들 수 없습니다.
그리고 피크를 처서 찌그러지는 음은 그냥 디지털 부호화 된 그 정보를 곧이 곧대로
DA 했으므로 생기는 이라는 것은 아시겠죠?
여기서 재생 페이더를 줄여서 음량을 줄이는 것은 스피커의 콘의 움직임을 줄이는 데만
영향을 주지 디지털 데이터가 바뀌는 것이 아닙니다.
DA 한 후 A가 스피커로 가는 음의 량에 대한 변화 입니다. 음색이 아니구요.
물론 녹음한 Data가 EQ등을 통해 변화 가능한 것은 사실이고 이를 통해 피크 현상이 있는 Data를
살짝 변경해서 그 영향을 줄일 수도 있겠습니다만 역시 정보량이 바뀌지 않습니다.

DAW에서는 소프트웨어 이므로 제작사가 자사의 알고리즘에 확신이 있을 경우에
VBR(variable bitrate, http://en.wikipedia.org/wiki/Variable_bit_rate)로 정보를 생성할 수 있습니다.
이는 CPU의 단위시간당 생성 정보량을 낮춤으로 단위시간당 처리 정보량을 늘리는 효과로
많은 수의 input을 처리할 수 있는(프로툴에서 여러 이펙을 먹이고, 많은 채널을 처리할 수 있는)
능력을 가지게 할 수 있습니다. CPU에서 돌아가는 소프트웨어이기 때문입니다.

계속 답글을 달수록 제가 동문서답화 되는 거 같습니다. ㅡㅜ..

저희가 생각하는 변수는 생각보다 굉장히 많으므로 변수가 없다라고 가정하는 것이
더 나은 음악 창조물을 만들 수 있다고 생각합니다.
대부분 장비에서 가져오는 왜곡변수는 사람이 행하는 행위가 가져오는 왜곡에 비하면
아주 무시할 수 있는 수준이라고 생각하기 때문입니다.

그런 의미에서 선생님의 마인드인 사람의 마인드와 기술에 대한 생각에 더 집중하자는 것에 지지 한표를 보냅니다.

flanc0님의 댓글의 댓글

^^ 친구가 메신져로 기타 장비 얘기를 늘어놓는 일이 근 2년 되어 갑니다.

그 얘기보다는 그냥 연습하는 것이 더 낳겠다는 생각이 안들래야 안들 수 없더라구요.
아주 친한 놈이라 뭐라고 하기도 그렇고..

이젠 자중..을.. 해야죠.크~

bravo님의 댓글의 댓글

동문서답의 글이 라도 많이 생각해보게 되고, 또 어떤 때는 많이 많이 배워 간답니다.
곡을 쓰고 연주하는 사람들도 기본적인 지식이 없이는 힘든 시대이니까요

남상욱님의 댓글의 댓글

24비트로 녹음하시는 경우라면 전혀 head room을 가득 채워야 하는 걱정은 하지 않으셔도 됩니다. 헤드룸을 가득 채워야 한다(보통 피크가 -2dBFS정도가 되게 녹음하도록 권장했었지요)는 생각은 16비트 녹음기의 경우에 해당하는 의미가 있었겠습니다. 실제로는 잘해야 14비트 정도만이 사용되었기 때문이지요.

디지털 콘솔에서 페이더를 올리거나 내린다는 것은 수학적으로는 곱하기를 하는 것과 같습니다.
예를 들어보지요. 1.1 x 1.1 를 하면 1.21이 나오는데요, 이 값을 저장하는 시스템은 오직 소수점 한자리만
저장할 수 있다면 시스템은 소수점 둘째 자리의 1은 버리고 1.2 만 저장을 하게 되겠습니다.
이 경우 실제 소스에 들어있는 유의미한 정보인 0.01은 온데간데 없이 사라지게 되고 말지요.

물론 이러한 문제를 해소하기 위해 디지털 콘솔의 경우 좀더 큰 저장장치를 가져서 계산과정에서 발생하는 추가정보들을 가능한 가지고 있으려고 합니다만, 수많은 DSP를 써야하는 믹싱환경에서는 사실 부족할 때가 많은 것이 사실입니다. 그렇기에 가능한 unity level을 지켜주는 것이 더 중요하다고 생각합니다.

김 용님의 댓글

볼륨이 크다고 다이나믹레인지가 큰 것은 아닙니다.
되려 작은소리의 세세함을 잃을 수도 있습니다.
녹음볼륨레벨을 피크값까지 올리는 것은
순간적인 피크값을 뭉게서 자연스러운 소리를 없에는 일을 합니다.
소리는 다양한 주파수 변화의 합입니다.
큰소리와 작은소리가 어울려서 하나의 소리를 만드는 겁니다.
적절한 헤드룸 확보는 자연스러운 소리를 녹음하는데에 필수 조건입니다.
또 한가지는
믹스따운시 맥시마이져나 파이날나이져등의 이텍터를 사용하는 분들이 있는 줄 압니다.
이런 이펙터는 처음 들으때에는 좋은 것처럼 느껴집니다.
하지만 여러번 듣으면 무뎌져서 더 자극적인 이펙터를 원하거나 쉽게 피로해집니다.
그리고 이런 종류의 이펙터를 사용하지 않으면
맹맹한 소리로 음질이 안좋아진것처럼 느겨집니다.
큰소리와 이런류의 이펙터는
요리의 경우는 자극적인 양념(조미료)같은 거라 생각합니다.

김 용님의 댓글

다이나믹레인지...
디지털에서는 비트당 6dB의 다이나믹 레인지를 갖는다고 알고 있습니다.
16비트는 96dB,
24비트는 144dB...
하지만
이건 이론적이 것이구요
실제로는 이렇 값이 나올수 없습니다.
왜냐하면 현실은 아날로그이기 때문입니다.

미루님의 댓글

좋은 말씀들 감사하게 잘 보고 있습니다.
써주신 내용들을 보다가 호기심에 간단한 테스트를 해봤는데요

DAW상에서 가상악기로 sine파를 A1음으로 해서 각기 다른 레벨로 별도 오디오트랙에 녹음해보았습니다.
가상악기 트랙 아웃풋 기준으로 -10db, -40db, -70db로 조절해서 각각 오디오트랙에 녹음해보고
다시 게인을 레벨을 같은 아웃풋으로 맞춰보았는데요

막상 소리로나 파형으로나 bit가 낮아졌다기 보다는 화이트노이즈스러운 잡음이 늘어나는 결과가 나오는데요..
비교삼아서 원래 가상악기 트랙에 bit crusher 류의, 강제로 bit를 줄이는 플러그인을 걸어보면
노이즈만 늘어나는 것이 아니라 소리 자체가 바뀌는 현상이 나타나곤 하는데..

댓글로 써주신 내용에서 제가 이해한 것과 다른 결과라서 호기심이 증폭돼버렸습니다..
이미 확보된 레벨에서 페이더를 내렸다가 올린게 아니라,
페이더를 내린 상태에서 다시 샘플링된 것을 뻥튀기해준 것인데.. 어떤 이유인지 궁금해졌네요 ^^;

장호준님의 댓글의 댓글

녹음을 똑같은 레벨로 하고 -10dB(단위 잘쓰는 훈련을 합시다.), -40dB, -70dB로 출력레벨만을 조정해서 사용하시면 아무 이상이 없을 겁니다. 레벨이 적으면 당연히 화이트노이즈의 영향이 있을것이고.

또, DAW내부에서 게인조정을 페이더로 하는것이 아닌 플러그인으로 전체나 일부 구간을 키웠다 줄였다 하는것은 Resampling 한것과 같겠죠. 해상도 자체를 다시 건드릴테니까.

안헷갈렸으면 좋겠습니다.  만약 생각하시는 데로 페이더의 위치에 따라 소리가 바뀐다면. 에이... 믹서회사가 망해야지요..

아, 마지막 질문에 대해서도.. 아나로그 콘솔은 부품 자체에 신호가 지나갑니다. 따라서 부품의 메카니컬한 에러에도 영향을 받게 되죠. 디지털이야 데이터의 양만 조절하는 것이니까, 페이더가 망가져서 안움직인다고 해도, 다른 페이더로 그 채널을 조정할 수도 있겠죠.

bravo님의 댓글

햐~~~역시 명쾌한 글들 ... 깨우쳐 주시니 감사합니다.

그런데...제 귀가 문제가 있는건지, d/a 컨버터의 특성인지 미묘한 차이가 있는 것 같네요.
심리적인 요소일 수도 있구요.ㅎ

이럴때는 좋은 귀를 가지신 분들이 참 부럽습니다.
역시 믹싱은 엔지니어에게^^/

장호준님의 댓글의 댓글

약은 약사에게...

좋은 귀라는 것은 별 의미가 없다고 봅니다. 훈련은 필요하지만,, 객관성이 더 중요하다고 봅니다.

미루님의 댓글의 댓글

제가 말씀을 부정확하게 드린 것 같습니다.
모든 작업은 DAW의 가상 라우팅으로 이뤄졌고 레벨 조절은 악기 트랙의 페이더로 조절한 것이고
오디오 녹음한 것은 모두 페이더를 unity에 놓은 상태에서 비교할때 -10, -40, -70dB였습니다.
(단위 표기 조심하겠습니다. ^^; 잘 몰랐었는데 지적해주셔서 감사합니다)

즉 3개의 오디오트랙에서 샘플링할 신호의 소리 크기가 달랐던 것인데요..

그림파일로 비교하자면, 같은 파일을 그냥 줄였다가 다시 키운게 아니라,

100x100 크기의 파일을 10x10, 40x40, 100x100을 리사이징해서 저장한 다음,
다시 열어서 각각의 파일을 100x100으로 다시 리사이징한 것과 비교할 수 있을 것 같습니다.

이렇게 쓰다보니... GIF나 BMP파일은 저렇게 하면 모자이크 같은 네모 비트맵들이 확대되는 느낌이지만,
JPG의 경우는 그냥 뿌옇게되니까... DAW상에서 게인을 올리는건 JPG와 같은 알고리즘이 적용돼있는 것일 수도 있겠네요.

남상욱님의 댓글

디지털이든 아날로그든, 콘솔의 페이더는 가능한 unity level에 놓이는 것이 이상적입니다. 아날로그의 경우는 일단 나중에 다시 한번 논의할 기회가 있을 거라 생각이 들고요, 디지털만 한번 생각해 보지요.
이렇게 실험을 한번 해보세요. 보컬이나 다른 악기 한 트랙을 -30dB정도로 줄여서 bouncing을 하신 다음에 다시 그 파일을 30dB 크게 하셔서 다시 bouncing을 하시고요. 이 마지막 파일을 오리지널 파일과 한번 비교해서 들어보세요.

왜 콘솔의 페이더가 가능한 unity level에 놓여야 하는 지 쉽게 확인하실 수 있으실 것입니다.

예전에도 한번 비슷한 글을 올린 적이 있는데요, Al(Schmitt)이나 Don(Murray)과 같은 분들에게 작업하는 방식을 물어본적이 있었는데요. 둘다 멀티트랙으로 protools를 사용하지만, Al은 다시 Neve콘솔로 불러들여서 믹싱을 하고요, Don은 프로툴 내부에서 믹싱을 하는 차이점이 있습니다. 공통점은 녹음시 rough믹스가 진행되서 녹음 레벨이 그에 맞춰 세팅이 되기 때문에 이후 믹싱할 때 별 다른 게인 변화가 없다는 점입니다.

Bravo님이 주로 작업하시는 음악장르라면 더더욱 critical한 부분일 것이라고 생각이 됩니다.

장호준님의 댓글의 댓글

상욱님, 저는 페이더를 유니티레벨에 놓으라는 의견에는 동의하지 않습니다. 그것이 이상적이라는 것은 여러가지 면에서 부작용이 있다는 생각이 듭니다. 그냥 가변저항 자체의 이야기가 아닌, 전체 게인스트럭쳐의 흐름을 바꿀 수도 있다고 생각하기 때문입니다.  예를 드신 것은 중간에 Bouncing이라는 부분이 없어야 의미가 있다고 봅니다. 이미 Bouncing이라는 작업 그 자체가 비교를 방해한다고 봅니다. 그게 위에 있는 여러 댓글의 공통적인 내용이고요.

페이더는 채널의 출력레벨을 조정하는 부분으로 저는 정의하고 있습니다. 출력레벨을 안움직이는 것으로 방향을 정하면 게인작업의 의미도 변합니다. 그리고 믹싱이라는 것이 서로 다를 레벨로 발란스를 정하는 것이기에.. 전부 다 1이면 믹싱은 되겠지만 맛이 안나겠지요.  Al 이나 Don 같은 분이 페이더를 안만지면서 믹싱하실 것이라고는 생각하지 않습니다. 그게 중요한 믹싱엔지니어의 도구인데요.  Rough Mixing의 경우에도 페이더의 위치가 중요하겠지요. 페이더를 유니티에 놓고 게인을 줄이거나 키워가면서 녹음하지는 않습니다. 게인은 Reference Level을 만드는 도구고 fader는 그 레벨을 다른 채널과 비교해서 Art를 만드는 도구입니다.

자주 편하게 예를 들었던 것 같은데, 어떤 의미에서든 Unity Level에 놓이는 페이더 위치의 비중이 중요하다면, 그냥 저항하나 꼽아두는 것이 콘솔가격을 훨씬 줄일 수 있을 겁니다. 예전 맥기가 소형믹서를 만들면서 사용했던 페이더 대신 놉을 넣은 것 조차도 실제 사용자에게 불만이 많았습니다.

남상욱님의 댓글

네.. 글에 오해의 소지가 있는 부분이 있네요.
게인 라이딩이 필요한 경우 fader를 유니티 레벨에 고정시키는 것은 의미가 없겠습니다. 사실 게인 라이딩이야 말로 믹싱을 하나의 art form으로 만드는 중요한 요소라고 생각합니다.

다만, 전체적인 밸런스를 잡는 경우에 있어서, 예컨대 woodwind가 대선율로 멜로디 라인을 살짝 따라 간다거나, 백그라운 보컬이 메인 보컬을 살짜쿵 바춰주는 경우, 아니면 드럼의 경우 kick이나 snare의 레벨도 마찬가지겠습니다.
레벨을 가득채워서 녹음 한 후에 믹싱시 10dB이상 낮춰서 트랙을 사용하는 것이 아니라 애초 녹음 자체가 실제 믹스시의 레벨과 유사하게 되 있어서 녹음된 레벨 그대로를 믹싱시 사용하게 하는 것이 좋다는 것이 전달하고자 하는 바입니다.

bouncing과 관련해서는 제가 정확하게 의미를 이해 못했으니 다시한번 말씀해 주시면 감사하겠습니다. 다른 댓글에서 제가 놓친 부분이 있는 건가요. 적어도 Protools HD의 경우(Bravo님이 사용하시는 DAW로 알고 있습니다) Bouncing이나 Bus아웃은 동일한 방식으로 작동하는 것으로 알고 있습니다. bouncing이 걸리시면, channel strip에서 -30dB를 내린 후 다른 버스로 routing 하셔서 다시 30dB를 올리신 것과 오리지널 트랙을 비교해 보셔도 되겠네요.

장호준님의 댓글의 댓글

실제 녹음의 방법에서 예전과 달라진 대표적인 부분이 게인라이딩에 대한 부분이라고 생각합니다. 예전 아나로그 시대에는 테입 특유의 BIAS와 Saturation이라는 장단점을 같이 가지고 있는 부분 때문에 확실한 게인작업을 강조했었습니다. 아예 녹음때 VU미터의 바늘이 때려대는 소리가 계속 되었으니까요. 그래도 용하게 깨끗하게 느낌을 만들어주는 AMPEX의 그리움을 가지고 있기도 하죠.  하여간, 디지털로 넘어가면서 실제 믹싱까지 같이 하는 엔지니어 경우에는 원하는 만큼으로 조정해서 쉽게 가는 예도 많습니다. 괜히 하이햇 같은것을 기준레벨만큼 키울 필요를 못느끼는 것이죠.  안그래도 큰데,,

bouncing에 대한 부분은, 질문의 요지가 그냥 Playback 하는 상황에서 fader가 이를테면 1/4위치에 있을때와 0의 위치에 있을때 실제적인 소리의 질적 변화가 있냐라는 것입니다. 그리고 그것이 아나로그에서는 못느꼈는데, 디지털에서는 느껴진다라는 것이고요.  Bouncing이라는 자체가 신호에 변화를 주는 작용이기에 그런 이야기를 했던 것입니다. 만약 Internal Bouncing이 아닌 Outboard Summing이라면 이야기가 달라지겠지요. 그래도, 그 경우에도 페이더를 통해서 전달 또는 조정되는 데이터가 소리의 크기외에 다른 소리의 왜곡을 일으키지는 않는다는 이야기 입니다. 

제가 질문을 잘못 이해하고 있을 수도 있습니다. 남상욱님 보다는 쪼금 더 오래 한국을 떠나있어서..ㅋㅋ

miding님의 댓글

다른 토론에서도 몇 번 언급했던 내용입니다만.. 예를 들어 입력되는 사인파의 아날로그 소리가 0dBFS 에 근접하게 샘플링 된다고 봤을때 16bit 와 24bit는 양자화오차 범위가 0dBFS 부근에서 각각 0.0015258% (1/65536) , 0.0000059% (1/16777216) 의 차이를 갖습니다. 이와 비슷한 이유로 입력 레벨이 작아지면 그 만큼 오차 범위가 늘어나게 되므로 음질에 미치는 영향은 커지게 됩니다. 심지어 노이즈 플로어에 가까 신호는 그 오차 범위가 100%에 근접하게 되죠.
다만 이러한 양자화 오차 범위를 낮추기 위해 내부 워드비트를 늘린다던가 혹은 float 포멧을 사용하는것이죠. 누엔도의 경우에는 32bit float(부동 소숫점-소숫점 자리가 고정되어있지 않음) 포멧을 프로툴의 경우에는 48bit fixed 포멧을 사용함으로써 이러한 오차 범위를 줄이고는 있습니다만.. PCM이 갖고 있는 근본적인 특성떄문에 완전하게 해결 할 수는 없죠.어쨋든 그런점에서 어떠한 차이를 느끼셨을 수있다고 봅니다.

신배호님의 댓글

호준형님...  ^^;

행님을 싸랑하지만 그냥 필드 엔지니어의 한사람으로써 뒤늦게 뒷북 몇가지 칩니다.  "통촉하여 주소서!"  ^^

먼저는 '김용재 개척교회'님과 '남상욱'님의 댓글에서 저는 두분의 말씀이 상당히 깊고 일리 있는 말씀이라고 생각합니다.

다른 DAW에서는 테스트를 못해봐서 모르겠지만 브라보님이 겪으신 현상과, 김용재님과 남상욱님이 말씀해 주신 이야기들이 ProTools HD 버젼에서는 아직까지 확실한 기정사실입니다. 

예전에 내쉬빌에 있는 East Iris 스튜디오에서 Digidesign Tech.이 와서 한 특별 세미나에서 나온 내용중 하나가 바로 이부분이지요. 

과연 프로툴스에서 마스터 페이더를 남상욱님 말씀처럼 Unity에 안 놓았을때 어떠한 프로툴즈 소프트웨어 프로그램상에 어떠한 제한이 있는가에 대해서요...  그 디지디자인 관계자의 말에 따르면 브라보님이 겪으신 현상이 이론이나 실제로 그대로 나타난다는 것입니다.  그것을 최소화 하기 위해서 디지디자인은 물론 각 DAW마다 아주 여러가지 작은 trick들을 쓰긴 하고.. 실제로 "일반적인" 믹싱/마스터링에서는 이론이 무시된 "음악적인" 소리를 찾는 아주 용감 무도한 "훌륭한" 엔지니어들도 있긴 하지만... 이런 사실을 알고 무시하는 것과.. 모르고 무시하는 것에는 큰 차이가 있다고 봅니다.

형님도 이미 잘 아시듯 실제 필드 녹음/믹싱/마스터링 상황은 '음악'이 원하는 것을 따라가야 하는 것이기에 어떤 방식으로 작업되든 상관이 없겠지만..

특별히 믹싱의 관점에서보면 요즘은 대부분 24비트를 사용하기에 왠만큼 레벨이 낮고 정말 후진 디더나 노이즈 쉐이핑을 쓰지 않는다면 아주 아주 극도히 레벨을 낮게 잡아서 거의 모든 페이더가 땅바닥을 기게 만들지 않으면 이런 현상을 느끼기 어렵겠죠.  그리고 이런 현상이 꼭 나쁘다고만 말할 수 없는 것이 얼마전 작업한 영국의 팝/락 밴드 작업에서는 프로듀서가 16비트로만 녹음한다고 세션을 16비트로 통째로 보내왔더군요.  ㅍ.ㅍ  레트로(retro)~라나요?  ㅋㅋ

디지디자인의 소프트웨어 디자인한 친구들이 현재 HD에서 페이더의 아랫부분이 바닥에서 막 올라가는 순간이 -80dB이나 -90dB가 아니라, -40dB정도 되게 믹서의 그래픽을 디자인한 것도 이전에 디지디자인 테크가 말한 일종의 트릭일 수도 있구요.

하지만 특별히 마스터링을 많이 하시는 남상욱님의 경우에는 이런 레벨에 대해서 더욱 민감하게 반응을 하시고 그 중요성에 대해서 더 인식을 하시고 계시지 않을까 싶습니다.  저도 마스터링을 하다보면 믹싱할때보다 항상 게인 스트럭쳐에 대해서 더 많이 생각하게 되는 것 같습니다.  믹싱할때는 클라이언트 요구 맞추어주다보면.. ㅋㅋ~  신경쓸게 너무 많아용~  ^^

괞히 이런글 올렸다가 행님께 '큰호통' 받지는 않을까 두렵네요.  지금 내쉬빌은 자정이 넘었지만 캘리포니아는 저녁 10시 20분이니 생각난김에 행님께 전화나 드려야 겠습니다. ㅎㅎ~  이글 읽고 노여워 마세욤.  무지한 필드 엔지니어의 넋두리였습니당.  ㅋㅋ~

장호준님의 댓글의 댓글

오랫만에 전화 1시간 통화했구나... 통화해서 말한것 같이, 마스터 페이더의 위치가 중요한것은 당연한거고, 각 개별 페이더의 페이더 위치가 0에 있으면 안된다는 것이지..

점점 느끼는 것은 진리는 하나뿐이다라는 거지.. 해아래 새것이 뭐가 있겠나? 다 변하지..

신동철님의 댓글

열심히 다 읽었습니다.

이해되지 않는 부분이 있어서...

다음에 다시 읽어야 겠습니다.

어렵군요.

모두들 대단하십니다.^^.

타미리님의 댓글

아날로그 디지털 페이더
==>> 비트수는 그대로 가는거고요 0dB는 입력부와 출력부가 같기 때문에 0dB 인데요
 페이더를 내리는거는 크기를 감쇄시키는것인데 페이더 내릴때 감쇄하는 특성에 따라 다를듯 합니다


==>>  페이더를 가득 채운다는 말이 왜곡없이 처음 녹음 소스를 그대로 간다는 의미라고 생각하는데요
같은소스일때 볼륨에 따라서 예를 들면 고주파대역은 낮은 볼륨에서 저역대역보다는 잘들리는 등 특성을
보면  볼륨 조절을 하면 예상했던 음색이랑 다를수있겠다는 생각이 드네요~
후에 믹싱 할때 음량 밸런스를 고려해서 녹음을 하는것이 좋겠죠? ^^

최범석님의 댓글

질문이있습니다.

음악을 듣거나 만들시에는,
아날로그믹서의 마스터페이더를 유니티에 두고 채널페이더의 볼륨을 조절하는것과
채널페이더를 유니티에두고 마스터로 전체 볼륨을 조절하는것과 둘 사이에는 아무런 차이가 없는건가요?

곡을 만들때도 DAW내부 믹서를 이용하기때문에 현재는 그냥 채널페이더를 유니티에두고 마스터만 오르락내리락
하고 있습니다. 문득 이글을 읽다보니 이경우에도 마스터를 유니티에 두는것이 좋은것은 아닐까 하는 생각이 들어서요..
  • RSS
전체 62건 / 2페이지

+ 뉴스


+ 최근글


+ 새댓글


통계


  • 현재 접속자 266 명
  • 오늘 방문자 1,281 명
  • 어제 방문자 5,677 명
  • 최대 방문자 15,631 명
  • 전체 방문자 12,668,943 명
  • 오늘 가입자 0 명
  • 어제 가입자 0 명
  • 전체 회원수 37,533 명
  • 전체 게시물 248,526 개
  • 전체 댓글수 193,363 개