디더..디더..디더..
페이지 정보
본문
디더가 정말 상상초월하는군요..
어떤사람들은 사람의 귀로는 구분하지 못하는수준이다..라고 이야기를 하는데..
오디오가이에서 사용하고 있는 SAIDE 에서는 CD를 구울때 3가지의 디더를 선택할 수 있는데..
이에 따라서 음량도 달라지고 소리가 너무너무 많이 바뀌네요..(성향이..)
디더가 이렇게나 중요한것인줄 몰랐습니다..ㅜ.ㅜ
그동안 만든(최근에 새디로 작업한) 마스터들 모조리 다 다시 만들고 싶어지네요...ㅜ.ㅜ
우선 오디오가이 레이블에서 발매한 기타&타악기 듀오음반은 프레스를 다시해야할듯..
이정도로 차이가 많이 납니다.
컨트롤룸이 아닌 옆방의 사무실에서 열심히 공제 파워케이블을 제작하고 있는 한영민군이..
컨트롤룸이 아닌 자신의 자리에서 들어도 차이가 들리다고 하는군요..
아..디지털 오디오 더 많이 공부해야겠습니다.ㅜ.ㅜ
여러분들은 CD를 구울때 디더를 어떻게 사용하시는지요?
관련자료
dahinir님의 댓글
다다다당연히 많은 차이가 날수 밖에 없어요
24 -> 16 비트로 디더링 한다면 24자리수의 2진수로 저장했던걸 16진수의 2진수의 근사치로 바꾸는 거잖아요
24bit와 16비트는 256배로 더 많은 종류의 숫자를 저장할 수 있는 공간이 많은거죠
사진으로 치자면 256색의 사진을 16색으로,
좀 더 다이나믹하게 말하면 칼라사진을 흑백 사진으로 바꾸는거와 유사한 행위에요
가장 연산이 쉬운 알고리즘은 역시나 반올림, 버림 같은 방식이고,
좀 진화된 방식은 앞뒤관계를 따지는 거나 통계적 방법에 입각한 함수를 사용 하겠죠
사운드 이미지에서는 양자화를 다운시킬때 보다 셈플레이트를 다운시킬때 연산을 정확히 하기가 더 쉽습니다.
(인간이 느끼기에 자연의 아날로그에 가까운 디더링이 쉽습니다.)
그리고 누엔도시리즈는 3버젼 이상부터인가? 내부적으로 32비트로 연산 합니다.
많은 경우의 플러긴도 32비트로 처리를 하고요
24비트로 녹음하더라도 내부적으로 32비트로 dd 컨버팅을 한다음 연산을 하는 거라,
(이 비트수를 늘려서 다시 저장하는 것도 여러종류의 알고리즘마다 다 소리가 다르겠죠)
연산 속도만 본다면 오히려 24비트가 32비트보다 더 느립니다.
(실제로는 디스크 io, 메모리 io 까지 따져야하니 해봐야 알겠습니다.)
플러긴을 거친 소리를 다시 녹음 한다면 두번의 dd 컨버팅 과정을 거치게 되니 좀더 많은 오류가 포함되는 거구요
그래서 전 항상 32비트로 녹음 합니다.
개인적으로 디지털 오디오포맷이 어서 32bit로 바뀌어야 생각 하는데 참 생각보다 느리네요
표준 포맷이 정의되지 않아도 32비트로 컨버팅하는 ad 컨버터가 달린 오디오 카드는 나올법도 한데..
또 32비트로 녹음하면 좋은것이, 결과적으로 만들 씨디포맷(16)의 정확히 두배의 비트수 이기 때문에,
디더링시 연산도 빠르고 더 정확할 수 밖에 없습니다.
여기서 정확하다는 말은 32비트의 원본를 16비트로 디더링 했을때의 소리의 차이가 적다는 거죠
매번 얻어가기만 했는데 뭔가 도움되는 글을 남긴거 같아 좋네요
그래서 말인데요,, 진공관 안쓰는 보컬용 하이엔드 1채널짜리 컴프레서 아시는거 있으시면 추천좀..
24 -> 16 비트로 디더링 한다면 24자리수의 2진수로 저장했던걸 16진수의 2진수의 근사치로 바꾸는 거잖아요
24bit와 16비트는 256배로 더 많은 종류의 숫자를 저장할 수 있는 공간이 많은거죠
사진으로 치자면 256색의 사진을 16색으로,
좀 더 다이나믹하게 말하면 칼라사진을 흑백 사진으로 바꾸는거와 유사한 행위에요
가장 연산이 쉬운 알고리즘은 역시나 반올림, 버림 같은 방식이고,
좀 진화된 방식은 앞뒤관계를 따지는 거나 통계적 방법에 입각한 함수를 사용 하겠죠
사운드 이미지에서는 양자화를 다운시킬때 보다 셈플레이트를 다운시킬때 연산을 정확히 하기가 더 쉽습니다.
(인간이 느끼기에 자연의 아날로그에 가까운 디더링이 쉽습니다.)
그리고 누엔도시리즈는 3버젼 이상부터인가? 내부적으로 32비트로 연산 합니다.
많은 경우의 플러긴도 32비트로 처리를 하고요
24비트로 녹음하더라도 내부적으로 32비트로 dd 컨버팅을 한다음 연산을 하는 거라,
(이 비트수를 늘려서 다시 저장하는 것도 여러종류의 알고리즘마다 다 소리가 다르겠죠)
연산 속도만 본다면 오히려 24비트가 32비트보다 더 느립니다.
(실제로는 디스크 io, 메모리 io 까지 따져야하니 해봐야 알겠습니다.)
플러긴을 거친 소리를 다시 녹음 한다면 두번의 dd 컨버팅 과정을 거치게 되니 좀더 많은 오류가 포함되는 거구요
그래서 전 항상 32비트로 녹음 합니다.
개인적으로 디지털 오디오포맷이 어서 32bit로 바뀌어야 생각 하는데 참 생각보다 느리네요
표준 포맷이 정의되지 않아도 32비트로 컨버팅하는 ad 컨버터가 달린 오디오 카드는 나올법도 한데..
또 32비트로 녹음하면 좋은것이, 결과적으로 만들 씨디포맷(16)의 정확히 두배의 비트수 이기 때문에,
디더링시 연산도 빠르고 더 정확할 수 밖에 없습니다.
여기서 정확하다는 말은 32비트의 원본를 16비트로 디더링 했을때의 소리의 차이가 적다는 거죠
매번 얻어가기만 했는데 뭔가 도움되는 글을 남긴거 같아 좋네요
그래서 말인데요,, 진공관 안쓰는 보컬용 하이엔드 1채널짜리 컴프레서 아시는거 있으시면 추천좀..
JesusReigns님의 댓글의 댓글
제 생각엔.. 녹음 자체엔 24비트 이상은 필요 없을 것이랑 생각을 많이 합니다.
하지만 processing 할 때엔 80비트도 필요하다고 생각합니다.
모듈에서 모듈로 넘길 때 모두 80비트라면 너무 값비싼 시스템이 될지도 모르니
넘겨주기할 때에는 32비트라도 모듈 내부에서 연산은 80비트정도를 사용하면
좋지 않을까~ ^ ^ 그런다음 32비트로 디더링을 하는 거죠.. 그런다음.. 최종적으로
24비트나 16비트로 다운할 때 또 디더링을 하고..
하지만 processing 할 때엔 80비트도 필요하다고 생각합니다.
모듈에서 모듈로 넘길 때 모두 80비트라면 너무 값비싼 시스템이 될지도 모르니
넘겨주기할 때에는 32비트라도 모듈 내부에서 연산은 80비트정도를 사용하면
좋지 않을까~ ^ ^ 그런다음 32비트로 디더링을 하는 거죠.. 그런다음.. 최종적으로
24비트나 16비트로 다운할 때 또 디더링을 하고..
HOOK ST님의 댓글
제가 알고 있는 내용이 맞는지해서요...
제가 아는 디더링은... 우선 양자화 개념에서 양자화 과정에서 생기는 오차를 복원 시에 좀 더 원신호에 가깝게 자연스럽게 하기 위해 인위적으로 노이즈성분을 섞는 것이라고 알고 있습니다.
2차원에서 봤을 때, 연속적인 아날로그 신호를 시간(x) 축에 대해 discrete하게 표현하기 위해 일정한 주기로 (44.1, 48.2khz ...)샘플링하는 것이 이산화과정이고... 이 샘플링된 값들이 지니는 연속성(y)을 DSP가 이해할 수 있는 discrete한 0과1의 값들로 변화(24bit,32bit)이 양자화 과정입니다.(딱히 구분짓기는 뭐한 개념이네요; 동시에 일어나는 것들이라...)
이중에 여기서 주목되는 것이 양자화 과정인데, 신호가 가지는 모든 값들을 0과 1로 값을 표현하기 위해 2의 승수로 값의 기본적인 범위를 나누고(예를들어 8비트로 컨버팅한다고 하면, 8bit=2의 3승 이면 000, 001, 010, 011, 100, 101, 110, 111, 이렇게 Y축(Value축)을 총 8개의 대표값으로 나눈다), 모든 값을 그 대표값들만으로 표현한다는 것인데, 32bit 컨버팅이면 2의5승이니깐, 00000, 00001, 00010,....,11111 로 나눠지겠지요.
물론 여기서 또 Adaptive 양자화가 또 나오는데, 이건 위처럼 나누어지는 대표값들을 같은 간격으로 배분하지 않고, 많이 사용되는 범위의 값들을 판단하여 그 부분에 더 조밀하게 대표 값을 할당하여, 복원 시 좀 더 오차를 줄이는 방법입니다. 이건 아마 모든 프로세서들이 다 사용하는 기본적인 기법이라 생각됩니다.
이제 디더링인데... 여기서 연속적인 아날로그 신호값을 모두 불연속적인 저 범위안에 나타내려면, 아무래도 값들간에 경계가 선명해지고, 오차도 많이 생기는 부분이 발생할 것입니다. 이를 좀 더 부드러운 형태로 아날로그 원신호와 유사하게 복원하기 위해, 실제의 값들 사이에 임의의 노이즈 성분을 넣게 되고, 이로 인해 값들간의 서로 불연속하게 구분지어지는 부분들을 좀 더 뭉그러트릴 수 있어서 원신호와 유사한 형태로 추측 재생이 된다는 것이.. 디디링의 개념으로 알고 있습니다. 어떠한 노이즈를 어떤 알고리즘으로 사용할 지는 디더링의 핵심기술일테구요.
원신호에 뭔가 다른 노이즈성분을 섞는 것이므로, 말씀하신 것처럼 음색에도 변화를 가져올 것이 자명하구요.
참, 사운드쪽 말고 이미지 복원에도 많이 사용되고 있답니다.
이러한 개념에서 보면, 좀 더 높은 비트로 양자화(24->32)를 하게 되면 디더링 기법에 의해 발생하는 음색의 변화 등을 줄일 수 있지 않는가 하는 당연히 생각이 들지만 결국 최종결과물이 들어가는 CD표준이 16비트라는 거;;; dahinir 님 말씀처럼 이거 좀 바뀌어야 하는 거 아닌지...쩝
혹시 잘못 알고 있는 점이 있다면 지적을 좀 부탁드리겠습니다~~
제가 아는 디더링은... 우선 양자화 개념에서 양자화 과정에서 생기는 오차를 복원 시에 좀 더 원신호에 가깝게 자연스럽게 하기 위해 인위적으로 노이즈성분을 섞는 것이라고 알고 있습니다.
2차원에서 봤을 때, 연속적인 아날로그 신호를 시간(x) 축에 대해 discrete하게 표현하기 위해 일정한 주기로 (44.1, 48.2khz ...)샘플링하는 것이 이산화과정이고... 이 샘플링된 값들이 지니는 연속성(y)을 DSP가 이해할 수 있는 discrete한 0과1의 값들로 변화(24bit,32bit)이 양자화 과정입니다.(딱히 구분짓기는 뭐한 개념이네요; 동시에 일어나는 것들이라...)
이중에 여기서 주목되는 것이 양자화 과정인데, 신호가 가지는 모든 값들을 0과 1로 값을 표현하기 위해 2의 승수로 값의 기본적인 범위를 나누고(예를들어 8비트로 컨버팅한다고 하면, 8bit=2의 3승 이면 000, 001, 010, 011, 100, 101, 110, 111, 이렇게 Y축(Value축)을 총 8개의 대표값으로 나눈다), 모든 값을 그 대표값들만으로 표현한다는 것인데, 32bit 컨버팅이면 2의5승이니깐, 00000, 00001, 00010,....,11111 로 나눠지겠지요.
물론 여기서 또 Adaptive 양자화가 또 나오는데, 이건 위처럼 나누어지는 대표값들을 같은 간격으로 배분하지 않고, 많이 사용되는 범위의 값들을 판단하여 그 부분에 더 조밀하게 대표 값을 할당하여, 복원 시 좀 더 오차를 줄이는 방법입니다. 이건 아마 모든 프로세서들이 다 사용하는 기본적인 기법이라 생각됩니다.
이제 디더링인데... 여기서 연속적인 아날로그 신호값을 모두 불연속적인 저 범위안에 나타내려면, 아무래도 값들간에 경계가 선명해지고, 오차도 많이 생기는 부분이 발생할 것입니다. 이를 좀 더 부드러운 형태로 아날로그 원신호와 유사하게 복원하기 위해, 실제의 값들 사이에 임의의 노이즈 성분을 넣게 되고, 이로 인해 값들간의 서로 불연속하게 구분지어지는 부분들을 좀 더 뭉그러트릴 수 있어서 원신호와 유사한 형태로 추측 재생이 된다는 것이.. 디디링의 개념으로 알고 있습니다. 어떠한 노이즈를 어떤 알고리즘으로 사용할 지는 디더링의 핵심기술일테구요.
원신호에 뭔가 다른 노이즈성분을 섞는 것이므로, 말씀하신 것처럼 음색에도 변화를 가져올 것이 자명하구요.
참, 사운드쪽 말고 이미지 복원에도 많이 사용되고 있답니다.
이러한 개념에서 보면, 좀 더 높은 비트로 양자화(24->32)를 하게 되면 디더링 기법에 의해 발생하는 음색의 변화 등을 줄일 수 있지 않는가 하는 당연히 생각이 들지만 결국 최종결과물이 들어가는 CD표준이 16비트라는 거;;; dahinir 님 말씀처럼 이거 좀 바뀌어야 하는 거 아닌지...쩝
혹시 잘못 알고 있는 점이 있다면 지적을 좀 부탁드리겠습니다~~
dahinir님의 댓글의 댓글
"이 샘플링된 값들이 지니는 연속성(y)을 DSP가 이해할 수 있는 discrete한 0과1의 값들로 변화(24bit,32bit)이 양자화 과정입니다." <------------- 샘플링이 discrete화 하는 행위고, 양자화는 digit화 하는 행위죠.
"(예를들어 8비트로 컨버팅한다고 하면, 8bit=2의 3승 이면 000, 001, 010, 011, 100, 101, 110, 111, 이렇게 Y축(Value축)을 총 8개의 대표값으로 나눈다), 모든 값을 그 대표값들만으로 표현한다는 것인데, 32bit 컨버팅이면 2의5승이니깐, 00000, 00001, 00010,....,11111 로 나눠지겠지요. " <-------8bit 이면 2의 8승이고, 32bit면 2의 32승입니다.
"여기서 연속적인 아날로그 신호값을 모두 불연속적인 저 범위안에 나타내려면, 아무래도 값들간에 경계가 선명해지고, 오차도 많이 생기는 부분이 발생할 것입니다. 이를 좀 더 부드러운 형태로 아날로그 원신호와 유사하게 복원하기 위해, 실제의 값들 사이에 임의의 노이즈 성분을 넣게 되고, 이로 인해 값들간의 서로 불연속하게 구분지어지는 부분들을 좀 더 뭉그러트릴 수 있어서 원신호와 유사한 형태로 추측 재생이 된다는 것이.. 디디링의 개념으로 알고 있습니다. " <----------- 이거는 DA컨버팅이죠
"dahinir 님 말씀처럼 이거 좀 바뀌어야 하는 거 아닌지...쩝 " <---------저는 씨디표준의 양자화를 늘려야 된다는 예기가 아니라 s/pdif 같은 디지털 인터페이스 표준을 32bit로 늘렸으면 하는 바램이였습니다.
"dahinir 님이 말씀하신, 24비트를 16비트로 디더링한다는 것인데... 이게 다운 컨버팅을 그냥 통칭해서 그렇게 적으신 건가요?" <----------- 이거는 무슨 말씀 하시는지 잘 모르겠어요..
"(예를들어 8비트로 컨버팅한다고 하면, 8bit=2의 3승 이면 000, 001, 010, 011, 100, 101, 110, 111, 이렇게 Y축(Value축)을 총 8개의 대표값으로 나눈다), 모든 값을 그 대표값들만으로 표현한다는 것인데, 32bit 컨버팅이면 2의5승이니깐, 00000, 00001, 00010,....,11111 로 나눠지겠지요. " <-------8bit 이면 2의 8승이고, 32bit면 2의 32승입니다.
"여기서 연속적인 아날로그 신호값을 모두 불연속적인 저 범위안에 나타내려면, 아무래도 값들간에 경계가 선명해지고, 오차도 많이 생기는 부분이 발생할 것입니다. 이를 좀 더 부드러운 형태로 아날로그 원신호와 유사하게 복원하기 위해, 실제의 값들 사이에 임의의 노이즈 성분을 넣게 되고, 이로 인해 값들간의 서로 불연속하게 구분지어지는 부분들을 좀 더 뭉그러트릴 수 있어서 원신호와 유사한 형태로 추측 재생이 된다는 것이.. 디디링의 개념으로 알고 있습니다. " <----------- 이거는 DA컨버팅이죠
"dahinir 님 말씀처럼 이거 좀 바뀌어야 하는 거 아닌지...쩝 " <---------저는 씨디표준의 양자화를 늘려야 된다는 예기가 아니라 s/pdif 같은 디지털 인터페이스 표준을 32bit로 늘렸으면 하는 바램이였습니다.
"dahinir 님이 말씀하신, 24비트를 16비트로 디더링한다는 것인데... 이게 다운 컨버팅을 그냥 통칭해서 그렇게 적으신 건가요?" <----------- 이거는 무슨 말씀 하시는지 잘 모르겠어요..
우주여행님의 댓글
위 글들을 보니 디더를 제가 너무 소홀히 생각했던거 같네요.
저는 프로툴에서 24비트44.1k 로 녹음해서 믹싱을 한 후에 역시 24비트44.1k 스플릿 스테레오 화일로 바운스 합니다.
그런 다음 바운스 한 화일들을 모아 프로툴에서 마스터링 세션을 만들어 마스터링을 하는데
이때 L1 UltraMaximizer를 걸면서 그 안에 들어있는 디더를 사용하거든요.
제가 궁금한건, 믹싱세션에서 24비트44.1k 스플릿 스테레오 화일로 바운스 할 때도 디더 플러긴을 거쳐야 되는가 라는 점입니다.
현재는 안 쓰고 있거든요.
만약 바운스(믹스다운)할 때도 디더를 써야한다면, 마스터링 세션에서 L1를 거치면서 또 디더를 하게되니 결국 두 번 하게되는 셈인데...
어떻게 하는게 정답인지 궁금합니다.
고수님들... 바쁘지 않으시면 조언 좀 부탁드립니다. ^^;
저는 프로툴에서 24비트44.1k 로 녹음해서 믹싱을 한 후에 역시 24비트44.1k 스플릿 스테레오 화일로 바운스 합니다.
그런 다음 바운스 한 화일들을 모아 프로툴에서 마스터링 세션을 만들어 마스터링을 하는데
이때 L1 UltraMaximizer를 걸면서 그 안에 들어있는 디더를 사용하거든요.
제가 궁금한건, 믹싱세션에서 24비트44.1k 스플릿 스테레오 화일로 바운스 할 때도 디더 플러긴을 거쳐야 되는가 라는 점입니다.
현재는 안 쓰고 있거든요.
만약 바운스(믹스다운)할 때도 디더를 써야한다면, 마스터링 세션에서 L1를 거치면서 또 디더를 하게되니 결국 두 번 하게되는 셈인데...
어떻게 하는게 정답인지 궁금합니다.
고수님들... 바쁘지 않으시면 조언 좀 부탁드립니다. ^^;
JesusReigns님의 댓글의 댓글
이게 가능한지는 잘 모르겠는데..
44/24로 녹음을 하신 것을 44/32로 바꾸신 다음 믹싱을 하시고
바운싱 하실 때 44/24로 바꾸면서 디더를 한 번 하고 나중에 마스터링 할 때
또 한 번 할 수 있다면 그것도 느낌이 다를 것 같습니다.
그보다는 그냥 32로 끝까지 간 다음 막판에 마스터링 때 디더링 한 번 하는게 깨끗하려나..
디더링 한 것을 다시 디더링 하는 것은... 지저분해질 소지도 많이 있으니까요..
44/24로 녹음을 하신 것을 44/32로 바꾸신 다음 믹싱을 하시고
바운싱 하실 때 44/24로 바꾸면서 디더를 한 번 하고 나중에 마스터링 할 때
또 한 번 할 수 있다면 그것도 느낌이 다를 것 같습니다.
그보다는 그냥 32로 끝까지 간 다음 막판에 마스터링 때 디더링 한 번 하는게 깨끗하려나..
디더링 한 것을 다시 디더링 하는 것은... 지저분해질 소지도 많이 있으니까요..
행동수정운동님의 댓글
말씀하신 3가지 dithering이 POW-r 디더링 프로세싱이 아닌가 생각되는데요...
소나에서두 그러한 프로세싱을 사용하고 있더군요...3가지는 아래와 같습니다.
POW-R #1: optimized for simple program of average dynamic range, such as spoken word.
POW-R #2: optimized for low dynamic range program, such as rock music.
POW-R #3: optimized for complex, high dynamic range program, such as orchestral music.
혹시 도움이 될까 하고 wikipedia에서의 설명도 링크시킬께요^^
http://en.wikipedia.org/wiki/POW-R
소나에서두 그러한 프로세싱을 사용하고 있더군요...3가지는 아래와 같습니다.
POW-R #1: optimized for simple program of average dynamic range, such as spoken word.
POW-R #2: optimized for low dynamic range program, such as rock music.
POW-R #3: optimized for complex, high dynamic range program, such as orchestral music.
혹시 도움이 될까 하고 wikipedia에서의 설명도 링크시킬께요^^
http://en.wikipedia.org/wiki/POW-R
dahinir님의 댓글
아 갑자기 떠오른 아이디어인데요,
디더링은 디지털--->디지털 이기 때문에 수학식에의한 함수대응으로 밖에 처리하는 방법이 없었는데요,,
이렇게 하면 어떨까요?
24bit의 사운드이미지를 DA 컨버터로 플래이하고,
이것을 AD컨버터로 컨버팅 하는데 이때 16bit로 컨버팅 하는 거죠!
좀더 자연스러운 디더링이 될 것 같은데요?
그림으로 그리면
(24bit digital sound image)------DAconvert------->(analog)-----ADconvert------->(16bit digital sound image)
디더링은 디지털--->디지털 이기 때문에 수학식에의한 함수대응으로 밖에 처리하는 방법이 없었는데요,,
이렇게 하면 어떨까요?
24bit의 사운드이미지를 DA 컨버터로 플래이하고,
이것을 AD컨버터로 컨버팅 하는데 이때 16bit로 컨버팅 하는 거죠!
좀더 자연스러운 디더링이 될 것 같은데요?
그림으로 그리면
(24bit digital sound image)------DAconvert------->(analog)-----ADconvert------->(16bit digital sound image)
dahinir님의 댓글의 댓글
용어를 다시 정립해야 할게,
이미지가 사진과 같을 것을 뜻하는게 아닙니다.
원래의 것의 상(像), 그림자, 레퍼런스와 같은 뜻이죠
디지털 데이터란게 전부 실존의 것을 디지트화 한것.
사운드도 이미지 입니다.
실제 음파을 represent 하는 상 입니다.
그러니 웨이브파일 같은것은 '사운드 이미지'라 해야 합니다.
그리고 서밍은 제가 정확히 잘 모르는데요,
서밍에서 아날로그로 바꾸는 이유는 아날로그 상태에서 여러트렉을 합치기 위한것 아닌가요?
합쳐진 2트렉을 다시 디지털로 바꿀때도 같은 양자화 수준으로 컨버팅 하고요.
제 아이디어는 아날로그로 바꾼뒤에 다시 AD로 받을때, 16bit로 컨버팅 하는거죠,
그렇게 되면 디더링 없이 DA AD 컨버팅만으로 씨디표준의 디지털 사운드 이미지를 얻을수 있으니까요
이미지가 사진과 같을 것을 뜻하는게 아닙니다.
원래의 것의 상(像), 그림자, 레퍼런스와 같은 뜻이죠
디지털 데이터란게 전부 실존의 것을 디지트화 한것.
사운드도 이미지 입니다.
실제 음파을 represent 하는 상 입니다.
그러니 웨이브파일 같은것은 '사운드 이미지'라 해야 합니다.
그리고 서밍은 제가 정확히 잘 모르는데요,
서밍에서 아날로그로 바꾸는 이유는 아날로그 상태에서 여러트렉을 합치기 위한것 아닌가요?
합쳐진 2트렉을 다시 디지털로 바꿀때도 같은 양자화 수준으로 컨버팅 하고요.
제 아이디어는 아날로그로 바꾼뒤에 다시 AD로 받을때, 16bit로 컨버팅 하는거죠,
그렇게 되면 디더링 없이 DA AD 컨버팅만으로 씨디표준의 디지털 사운드 이미지를 얻을수 있으니까요