오디오가이 :: 디지털처럼 정확하고 아날로그처럼 따뜻한 사람들
질문&답변

[토론] 로컬라이제이션

페이지 정보

본문

실은 앞서 모노, 스테레오의 토론은 엔지니어로써 어떻게 모노와 스테레오의 개념을 이해할 것인가에 대한 부분이었고, 그보다 더 중요한 부분이 이 로컬라이제이션에 해당되는 것인것 같습니다.

요즘 읽고 있는 책에 재미있게 설명된 부분이 있는데, 나름대로 해석을 해보면

뇌에 일종의 3차원의 청각에만 해당되는 특별한 공간이 있고, 이 공간에는 실제 머리를 기준으로 전후좌우상하에 대한 각각의 위치에 대해 똑같은 위치로 반응하게끔 만들어져 있답니다. 그래서 만약 정면을 바라볼때에 수평으로 3시, 수직으로 20도 아래의 위치에서 소리가 들리게 되면, 똑같은 청각공간-그냥 이름 붙인겁니다-의 같은 위치에 소리가 놓이게 우리의 귀와 청각이 작용을 한다는 거죠. 제가 하나 더 붙이면 거기에 4차원적인 시간까지 우리의 뇌는 처리하는 것 같습니다. 어제 이맘때 옆집에서 망치질을 했었는데,, 하는 부분까지 있다는 거죠.

자, 한번 더 공부해보죠. 로컬라이제이션이란 뭔가? 소리를 어떻게 전후좌우상하를 두개의 귀로 구분할 수 있는가?  실제 금방 답이 나올 수 있습니다. 이미 많은 과학자와 엔지니어들이 연구를 했기 때문에..
하지만, 지난번 주제처럼 정답이든 아니든, 자율적으로 생각해볼 수 있는 토론이 되길 원합니다. 어디에서 그냥 검색해서 붙이지 마시고,, 김 뭐시기 님처럼. ㅎㅎ

관련자료

JesusReigns님의 댓글

제 생각엔, 사람의 뇌는 두개의 귀로 받아들인 신호로부터 직접 절대적인 공간 이미지를 만들어 내는 것이 아니라
음원의 정체 확인, 확인된 정체(개냐 바이올린이냐 발걸음 소리냐 등등...)의 경험적 기준(메모리)에 대한
음색 차이, 양 귀로 포착된 동일음으로 판단되는 음의 딜레이 차이 및 음량 차이... 혹시 눈썹이나 코털의
반응까지도 사용할지도... 농담처럼 들리지만, 신경 세포의 작동 원리는 그런 신호를 배제할, 혹은 포함할
구체적인 메카니즘은 없다는 생각이 듭니다. 즉, 발생한 event와 항상 같은 시기에 일어나는 모든 sensation
은 뇌작용에 기여를 하고 이 모든 것을 복합해 음상을 만들어 낸다고 생각합니다.

장호준님의 댓글의 댓글

경험적 기준,, 이거 중요하죠.  예를들어 멍멍이 소리를 나라마다 다르게 표현하는 것처럼..

뇌라는 것, 참 신기합니다. 센서에서 전기신호를 받아드리는 것 뿐인데,, 창작까지 할 수 있으니..

성영님의 댓글의 댓글

기본적으로는 저도 JesusReigns님과 비슷한 의견입니다.
이미 위의 모노, 스테레오의 토론에서 많은 부분이 나왔지만
(영자님의 글에서 잘 정리되었듯이)
사람에게 공간감을 줄 수 있는 Cue는 아주 다양합니다.

즉 하나의 큐를 독립적으로 컨트롤했을 때는 그 컨트롤에 대해 반응해 auditory image가 변화하는 것이죠.

그중에 가장 중요한 것이 양귀의 레벨차이와 시간차이로 알려져왔습니다.

그런데,
최근에 사람들이 관심을 보이고 있는 부분은
과연 이러한 독립적인 컨트롤이 실제 생활에서 있느냐 하는 것입니다.

실험실에서 사인톤을 이용해서 했을 때는 완벽하게 컨트롤이 되는 것 같았는데

실제의 음악과 같은 복합음에서는 잘 컨트롤이 안되는 경우가 많았기 때문입니다.

결국 최근의 가설은
음원의 위치 (로칼라이제이션)나 공간감같은 정보는

동시에 입력된 여러정보를 뇌가 우선순위를 정해서 그 우선순위에 따라서 정하는 것이다라는 쪽으로 많이 소개가 되고 있습니다.

화면과 오디오를 같이 재생해서 상반되는 정위감을 재생하면
항상 화면에 우선순위를 두고 결정하죠.

왜냐하면 시각과 청각이 발달되어올때 보이는 것에 일단 우선 순위를 주어야 했기 때문입니다.

저희 같은 레코딩 엔지니어(? 이 용어가 타당한지 모르겠지만)들은
이러한 기본적인 우선순위를 무시하고 오디오 정보 쪽에 더 weighting을 주도록 훈련을 해온사람들입니다.
즉 우선순위가 훈련에 의해서 바뀔 수 있다는 것이죠.
(기억된 정보들이 여기서는 우선 순위를 준다고 할 수 있겠죠)


저희들이 "신인류"는 아니지만 훈련을 통해서 다른 사람들과는 다른 감각을 개발해온 것은 사실입니다.

하여튼...
 
이렇게 복잡한 뇌 작용이 로칼라이제이션에 광범위하게 영향을 미치고 있지만 (현상적으로),
이러한 복잡한 현상을 모두 이해하거나 혹은 적용하는 사운드 컨트롤 시스템은 아직 없는 것 같습니다.

가장 근접한 방법은 양귀의 사운드 인텐시티와 벨로시티를 재 합성해내는 시스템들이 있는데
아직까지 정확한 로칼라이제이션을 주면서 만족할만한 timbre를 재생하는 시스템은 단언컨데 하나도 없습니다.

그래서 timbre를 우선시하면서 로칼라이제이션에 가장 영향을 주는 큐로 알려진 양귀간의 레벨차이(interaural level difference)를 이용해서 임의의 음상을 만드는 방법이 발전해오는 것이라고 생각합니다.

지금 서라운드 패닝에 대해서 칼럼을 준비중인데
사실 내용이 너무 방대해서 어디서부터 손을 댈지 몰라서 미적대고 있습니다.
쩝...

[이제부터는 잡담입니다만

새로 일을 시작한지 6개월만에
벌써 좀 지치는 느낌입니다.
역시 프로덕트를 만드는 사람들의 관점은
또 사용자들의 관점과 많이 다른 것 같습니다.

마케팅이 거이 모든 것을 지배하는 것을 새삼 또 느끼네요.]

김용재 개척교회님의 댓글

김 뭐시기.... 잔인한데요...ㅋㅋ

김성영님께서 이야기 하신 내용에 너무 많은 것들이 들어가 있어서
의견 내기가 쉽지 않네요... 저는 그냥 제 경험담에 대해서 이야기를 적겠습니다.

스테레오, 모노, 로컬라이제이션 이야기가 나와서
집에 앉아 음악을 틀어놓고 감상에 젖어보았습니다.

집에 있는 맥키 믹서가 고장이 났는지 한쪽 소리가 갑자기 작아졌습니다.
오른쪽이 크고 왼쪽이 소리가 절반 정도로 작은 상태에서 들었는데
원래 중앙에서 들을 때만 센터에서 보컬 이미지가 형성되었는데 다른 곳에서도 센터에서 보컬 이미지가 형성되는 것을 느끼게 되었습니다.

하나는 스피커와 제 머리가 정삼각형을 이루는 중간지점에서
또 하나는 두 스피커의 음량이 비슷한 수준으로 들리는 왼쪽 스피커에 치우친 지점에서...

신기하더군요...
제가 느낀 것은 둘(시간차, 음량) 중의 하나만 만족되어도 센터에서 이미지가 형성되다는 것이었습니다.

다른분들도 비슷하게 느끼는지 궁금하네요^^

성영님의 댓글의 댓글

네. 두가지 큐 중 하나만 만족해도 이미지가 형성됩니다. 아래의 그림에서 보시듯 약 1ms의 양귀간의 시차와 약 12dB의 레벨차이까지는 두가지 큐가 상호변경가능(interchangeable)입니다.

<img src="http://www.music.mcgill.ca/~kim/photo/time-amplitude.JPG">


흠... 댓글에는 그림이 안들어가는것 같네요. 위의 링크로 가셔야 될 것 같습니다.

미루님의 댓글

큐(cue)는 시차와 레벨차라는 2개의 '요소', 혹은 '단서' 정도로 생각하시면 될 것 같습니다.

갑자기 끼어들어 죄송합니다. ^^;

제가 학부때 심리학과 출신이라서 이 주제에 각별히 관심이 많습니다.
전문적으로 음향인지에 대해 공부한건 아니지만 알고 있는 정보 몇자 적어보려합니다.

일단 레벨차와 시차가 상호변경가능한 이유는, 인간의 뇌라는게 마치 컴퓨터 씨디롬처럼 '오차수정'이란걸 하기 때문이라고 여겨지고 있습니다. 미디에서 5ms 미만의 레이턴시는 마치 없는 것 처럼 레코딩 할 수 있는 것과 비슷한데요,
꼭 청각 뿐만 아니라 다른 감각에 대해서도 좀 더 강한 단서에 맞춰서 나머지 오차는 알아서 수정하곤 합니다.
다만 각각의 단서(cue)들에 대한 신뢰도가 거의 비슷할 경우, 경험이나 성향에 따라 처리 결과가 달라지곤 합니다.

이 단서들이란게, '좌우'까지는 시차와 레벨차 정도로 재현가능하지만
전후와 상하라는 2개의 축은 정말 다양한 단서들이 존재하는 것 같습니다.
단순히 프리퀀시의 문제도 아닐꺼구요 (필요조건이 아니라 충분조건 인것 같습니다.)
위상 간섭만의 문제도 아닌 것 같습니다.

심지어는 2채널로는 100% 재현할 수 없다는 의견도 있기까지 합니다.(그렇다고 5.1채널로 할 수 있는 것도 아닙니다)
왜냐하면 인간은 사실 청각신호를 처리할때 두 귀의 고막에서 전해지는 신호 뿐만 아니라,
피부나 뼈에서 전해지는 물리적 진동도 어느정도 참고하기 때문이라는 허탈한 주장입니다;
실제로 인간은 고막이 없더라도 청각신경이 남아있다면 머리뼈를 친다던가 할때 소리를 들을 수 있습니다.
얼마전에 뼈의 진동을 이용한 헤드폰도 있었죠..

그럼에도 불구하고 더미헤드를 이용한 샘플들이 정말 상하전후를 표현해내는 것을 보면
무엇이 진리인지 참 모르겠습니다. ㅎ;

장호준님의 댓글의 댓글

수직축에 대한 연구는 거의 귓볼을 비롯한 외귀의 구조가 영향을 준다는 쪽으로 많이 나와있습니다. 특이한 사항은 어깨에 의한 반사도 이야기를 하고 있네요.  화상으로 외귀를 잃은 분들이 구분을 못한다는 이야기도 있고, 그래도 학습능력으로 어느정도 인식한다는 이야기도 있네요.

수평축에 대한것을 조금 풀어 말하면 신호를 두 귀가 받아들이는데에 각각의 시간이 다른 부분때문에 소리가 어디서 나는지 아는 것이 시간차이고, 각각 레벨이 달라서 소리가 어디에 있는 지 파악한다는 것이 레벨차이입니다.

김용재 개척교회님의 댓글

상하 좌우를 구별하고 표현하는 방향의 경우
소스로부터 귀 안의 고막까지 도달하는 시간차와 신호의 응답 곡선을 이용하면 충분히 가능하지 않을까요?
그렇기 때문에 이를 최대한 구현했다고 할 수 있는 더미헤드 마이크로 녹음한 소리의 경우
그 위치 파악이 쉬운 것 같은데요^^

그래서 머리형상의 영상을 덜 받는 저음의 경우 방향성을 구별하기가 힘들지만
작은 머리와 귀의 형상의 영향을 받는 고음 영역에서 방향성을 찾기가 쉬운 것 같습니다.

김용재 개척교회님의 댓글

거리감의 경우는 스테레오 효과하고는 거리가 먼 것 같습니다.
거리감은 음량의 크기와 시간차 그리고 리버브레이션 효과로서 구현이 가능한 것 같습니다.

구 좌표계의 경우 구의 중심을 원점으로 하고 방향과 거리 정보만 있다면 3차원상의 어떤 좌표도 표현할 수 있는 좌표계이죠 따라서 방향성과 거리감을 표현할 수 있다면 정확한 로컬라이제이션이 가능할 것 같습니다.

더미헤드로 녹음을 하면 가장 정확한 로컬라이제이션이 될 것 같은데요^^
대신 들을 때 헤드폰으로 들어야 되겠죠...
더미헤드로 녹음해도 앞에 있는 스피커로 들으면 효과가 많이 반감될 것입니다.

조계혁님의 댓글

음악은 왜 우리를 사로잡는가 (로베르 주르댕, 558쪽)

이책을 대학교때 사서 읽었었습니다...
뭣도 모르고 제목만 보고 음악의 spirit 이나 soul적인 부분, 즉 영적인 부분에 대해 이야기 하는 책인줄 알고...
읽다보니 첫페이지부터 두뇌가 어쩌구 저쩌구...
의학적으로 사람이 음악을 들을때 두뇌의 반응을 풀이해논 책이더군요...
지금까지도 반밖엔 이해하지 못했지만, 장호준 선생님께서 계속 던져주시는 stereo와 localization에대한
부분이 많이 나왔던것으로 기억됍니다...물론 전체적으로 봤을때 psycho-acoustic에 더욱 근접한 내용일수도 있구요.

암튼 전 내공이 부족한 관계로 제 의견은 패스...
그냥 책한권 추천해 드립니다... 우연히 읽은...^^

좀 두껍지만 한번쯤 꼭 읽어보시면, 음향인들에겐 좋은거 같아요...

액면님의 댓글

눈팅만 하다가 예전에 잠깐 관심을 갖은 적이 있어서 몇자 끄적 입니다.
좌우의 소리 구별은 앞서 성영님께서 말씀 하신 양귀의 시차와 크기와 관계가 깊은거 같고 예를들어 모노 음원에 약간의 딜레이를 걸어 팬을 좌우로 쫙 벌리면(hass Effector 였던가???)  스테레오감 생기며 먼저 소리가 나오는 쪽으로 음상이 기우는 거와 연관이 좀 있을까요? 이게 시차의 차이인듯 합니다.

그리고 상하의 구별은 머리 생김새와 귀댕이의 생김새 외이도라 하나요??(기억이 가물가물) 와 연관이 있을까 생각 됩니다. 이를테면 위나 아래 에서 소리가 나면 머리 형태와  외이도의 생김새가 소리가 날라오는 방향에 따라 복잡한 반사음을 만들어 귓구녕 으로 들어가서 반복 훈련?? 된 뇌가 인지 하는게 아닌가 합니다...

이런 윈리가 HRTF (HEAD R??? Transfer F???? 헉!! 뭐였더라)라고 예전에 이원리를 이용하여 Kaist 에서 2Ch입체음향 소프트웨어를 개발한적 있었는데 실제로 HRTF를 적용하여 엔코딩된 소리를 2개의 스피커나 헤드폰으로 들어도 음원의 위치가 그다지 별로 였다는느낌이였습니다. 음질의 왜곡과 열화도 심하고 ..
앞서 여러분들께서 말씀 하신거와 같이 귀로 듯는 소리 이외에도 여러가지 요인이 있을듯 합니다. 
 
암튼 장호준 선생님께서 토론장을 여셨으니 주제넘지만 몇자 끄적여 봤습니다...

성영님의 댓글의 댓글

HRTF = Head Related Transfer Function입니다.
음...HRTF까지가면 너무 복잡할 것 같아서 쓰지는 않았지만 이것을 이용한 서라운드 프로세서가 지금은 거이 대세입니다.

최근까지는 두개의 스피커로 청취자의 귀의 HRTF를 재합성하는 방식인 transaural을 많이 사용했습니다.
그런데 이 transaural을 이용하는 방법은 항상 inverse filtering을 동반하지 않으면 안됩니다.

혹시 공학을 전공하신 분이 있으시면 이 인버스 필터링에 대해서 자세히 설명해주시면 도움이 될 것 같습니다. 저로서는 설명에 한계가 있어서...

하여튼 문제는 이 inverse filtering을 하는 것이 그리 쉬운일이 아니라는 점입니다.
이론적으로는 완벽하게 되어야 하는데 항상 tonal quality가 변하는 (액면님깨서 들으신데로) 문제가 동반되더라구요. 그리고 스피커의 directivity또한 문제가 되어왔구요.

그래서 현재는 기존의 5.1의 시스템에(혹은 7.1 / 10.2) 이 transaural을 적용하는 hybrid 방식을 채용하여 음원의 로칼라이제이션을 구현하는 방식을 채용하는 곳이 많아지고 있습니다.

일단 5채널 스피커에서 적어도 5곳의 위치는 정확하게 재현이 되니까
문제가 될만한 L와 LS사이라던지 혹은 LS와 RS사이의 공간에 음원을 배치하여야 하는 경우
그 공간의 위치로 부터 귀에 도달하는  HRTF반응을 나머지 스피커들을 통해서
재합성하는 것이죠.

버츄얼 서라운드 기법은 거이 이러한 HRTF재합성에 근거하는 경우가 많습니다.

jheoaustin님의 댓글

좀 다른 얘기인지 모르지만, 전 Smyth Research란 회사에서 개발한 Smyth Virtual Surround란 헤드폰 HRTF 알고리즘으로 레퍼런스가 된 스피커와 99% 이상 동일한 소리를 내는 데모를 경험했습니다.  끔찍할 정도로 많은 연산량이 필요하긴 하지만 정말 제대로 소리가 나더군요.  그런데 스피커 2개로 똑같은 것을 하는 것은 불가능에 가깝다고 하더군요.

성영님의 댓글의 댓글

네 헤드폰 재생인 경우에는 정밀한 정도의 구현이 가능합니다. AKG사의 HEARO라는 제품과 SONY MDR-DS8000같은 모델도 있습니다.
이 경우에는 헤드폰을 통해서 소리를 externalizae하는 것을 목표로 합니다. 즉, jheoaustin님이 말씀하신 것 처럼 스피커에서 나는 것 같은 소리를 듣게 하는 것이 목표죠.

하나 재미있는 것은 헤드폰을 쓰면 내 머리가 움직일 때 재생되는 음장또한 동시에 따라 움직인다는 점이 문제라면 문제였는데,
최근에는 헤드폰에 모션 트랙커를 달아서 머리가 움직일 때 움직인 머리에 해당하는 HRTF를 실시간으로 다시 계산해서 그에 해당하는 음장을 제공하게 합니다.

따라서 내가 오른쪽으로 머리를 돌려도 내 앞에서 노래하고 있는 싱어의 위치는 머리를 기준으로 왼쪽으로 약간 이동한 셈이 되고 음장의 입장에서 보면 그대로 머물러 있는 것이죠.

장호준님의 댓글의 댓글

HRTF 관련 공식 같은, 실제 얼마나 복잡한 연산을 해야 그나마 비슷하게라도 흉내낼 수 있는지 보여줄 수 있으면 좋겠습니다.

성영님의 댓글의 댓글

대부분의 경우에 있어서는 HRTF는 HRIR을 이용해서 측정되는 경우가 많습니다.
주파수 특성 = 임펄스 응답이기 때문이죠. 즉, 시간축에서의 임펄스 응답이 주파수축에서의 특성 혹은 응답이라는 것은 아마 다 아실 겁니다.

그러니까 스피커의 방향에서 재생해낸 임펄스를 더미헤드로 녹음합니다.
그 더미헤드에 녹음된 임펄스 반응이 바로 (녹음에 사용된 더미헤드의) HRTF입니다.

이미 여러 곳에서 이러한 HRTF 데이타를 종적, 횡적인 각도에 따라서 database해 놓았습니다. 그러니까 그러한 데이타 베이스를 받아서 활용하면 되는 것이죠.

자 장호준 선생님이 말씀하신 연산에 관해서 잠깐 말씀드리자면...

이러한 임펄스반응이 있을 때 이 임펄스 반응을 임으로 적용하는 것은 두가지 입니다. (DSP기초에서 배우셨겠지만...)
1. 시간축에서의 convolution
2. 주파수축에서의 multiplication

주파수축에서의 곱셈은 아마 다 이해하시리라 생각합니다. 즉 임펄스 반응에 1000Hz의 앰플리튜드가 0.5이라고 하면 재생할 신호의 1000Hz에 1/2을 곱하면 됩니다.

물론 그리 간단한 것은 아니죠. 복소수 곱을 해야하기 때문에...

이론을 아시는 분도 많을 테니, 실용적으로 간단하게 할 수 있는 방법만 말씀드리면

1. 재생하기 원하는 신호의 DFT를 구합니다.
2. 같은 사이즈로 HRIR의 DFT를 구합니다.
3. 두 DFT결과를 복소수 곱셈을 합니다.
4. 결과를 Inverse DFT합니다.
5. 끝 (물론 Left Ear신호와 Right Ear신호에 각각 해야합니다)


가장 보편적으로 사용하는 MIT에서 작성한 데이터 (HRTF-HRIR)를 받을 수 있는 곳은 아래와 같습니다.

sound.media.mit.edu/KEMAR.html

헤드폰으로 들을 때는 큰 문제가 없습니다.
[사실은 문제가 있기는 합니다. 더미헤드의 HRTF와 내 머리로 인해 생기는 HRTF가 같지 않기 때문입니다.
 하지만 그것은 덮어두고...]

문제는 이러한 내용을 근거하여 스피커로 재생할 때가 복잡하고 또 좋은 음질을 구현하기가 힘들다는 점입니다. 더군다나 사람의 머리가 조금만 움직여도 반응이 달라지기 때문에 ...

jheoaustin님의 댓글의 댓글

재미있는 점을 지적하셨는데, 그 Smyth Research의 창립자 3명중 2명은 형제입니다.  Stephen/Mike Smyth라고 DTS coherent acoustics의 원래 발명자들이죠.  그런데 이 Smyth VS는 personalization이라고 해서 직접 사용자의 귀에 마이크를 끼우고 측정해서 그 청자에 딱 맞는 필터를 만들어냅니다.  그 사람들 말로는 형제라서 얼굴 모양이 비슷한 점도 많은데, 실제로 남의 필터를 가지고 들어보니 들어주기가 힘들더라는...
그러니 더미 헤드로 모든 사람에 맞는 필터를 만들어낸다는 것이 거의 불가능해 보입니다.

jheoaustin님의 댓글의 댓글

제 회사의 대빵들 얘기로는 Smyth VS도 옛날에 Lake DSP에서 했던 Dolby Headphone의 기반이 되는 기술이 거의 같은 것이라고 하더군요.  귀속에 마이크를 장착하고 헤드폰과 스피커를 측정한 후에 5채널을 2채널로 매핑하는 필터 매트릭스를 inversion해서 문제를 푸는 것 아닐까 합니다만, 이런 경우 항상 방정식의 답이 존재하는 것이 아니고, 수천 탭씩 되는 필터가 원소인 매트릭스의 경우 계산이 어느 정도 될지는 대강 짐작하실 듯... ^^

이렇게 해서 나온 필터도 헤드폰 채널당 수천 탭의 필터가 입력 소스 채널만큼 필요하니 DSP로는 천문학적인 계산량입니다.  여기다 에뮬레이션하는 방의 크기가 커지면 그만큼 필터 길이가 더 길어지고요... -.-;;;

성영님의 댓글의 댓글

저도 지금 거이 대부분의 시간을 그 inverse filter 구현하는데 보내고 있는데.. 정말
눈물납니다. 그냥 현장에 나가서 마이크 들고 녹음하고 싶습니다.

딴 소리지만
마이크 들고 나가서 좋은 공연 녹음해본게
기억에 가물 가물합니다...  ㅠㅠ

성영님의 댓글의 댓글

일단 어떤 소리인가 싶어하시는 분들도 많을 것 같아서
quick으로 ^^

데모 사운드를 만들었습니다.

임의의 클래식 기타 모노마이크로 녹음된 소스 (모노 음원은 아닙디다 ^^) 에

정면에서부터 0도 30도 110도 250도 330도, 즉 5.1채널 스피커 위치에 해당하는 HRIR을 convolution해서 만든 사운드입니다. 각 헤드에 따라 약간씩은 다르겠지만 헤드폰을 쓰고 들으시면 스피커에서 나오는 듯한 느낌을 받으실 수 있습니다.

www.music.mcgill.ca/~kim/photo/TESTHRTF.wav

장호준님의 댓글의 댓글

어렵긴 어렵나보네,, 그냥 팬폿 사용한것과 별 차이를 못느끼겠는데,, 이젠 15kHz이상이 안들려서 그런가?

jheoaustin님의 댓글의 댓글

Smyth VS도 헤드 트래커를 이용한 데모를 했습니다.  그런데 화면이 앞에 고정되어 있으면 몰라도, 화면이 없는 포터블 음악 재생의 경우는 별로 필요한 기능같지는 않습니다.

성영님의 댓글의 댓글

저도 동의합니다. 화면이 있는 경우에도 'Oh! Cool!'이라고 한번 얘기한 후에는
'근데 음질이...'라고 회의적이 되는 경우가 많았던 것 같습니다.

홀리아바님의 댓글

뇌를 이해하는데 있어서... 중요한 요소중 하나는...

1. 뇌는 원래 인간이 창조될 때 디자인되었고..
2. 그 디자인이 다양한 형태의 염색체 조합에 의해... 형태학적으로 기능적으로 다르고..
3. 그 부분이 계속해서 유전되어 온다는 사실과...
4. 배속에 있을 때.... 외부로 부터 받는 여러가지 자극 등에 의해 훈현되어지고...
5. 무엇보다고... 3살 때 까지... 뇌의 발육은 성인이 되어서... 까지 깊은 영향을 주게 되고..
6. 그 이후로 자라면서... 성인이 되어서도... 지속적인 훈련에 의해...발전되며...
7. 만 20세가 넘어서면... 서서히... 노화가 시작된다는 점과...
8. 그 노화에 대항하는 지속적인... 재생이 이루어지며...
9. 그러는 과정에서도 훈련이라는 반복학습과 유전에 의해 받은 것과...훈련을 통해 받은 정보를 통합하는 일은..
10. 죽을 때 까지 계속되다는 점입니다.

장호준님의 댓글의 댓글

실제 어떤 부분이 어떤 작용을 한다,, 그런 이야기는 없나요? 엔지니어적인 부분에서..

 얼마전에 코 잘못 후비면 죽을 수 있다라는 이야기도 들었는데,, 코 속의 핏줄이 뇌에 직접 연결된다고,,,

홀리아바님의 댓글의 댓글

#코후비다가 죽을 수 있는 경우의 수...
 1. 운전도중 코를 후비다가... 중앙선 넘어갔는데.. 마침 반대쪽에서 차가 올 때...
 2. 그랜드캐년에 가서...낭떠러지 앞에서 코후비다가 미끄러져서..
 3. 코를 후볐는데..엄청 심한 염증이 생긴데다가..면역결핌이 있는데다가... 잘 치료가 안되고 있는데..
    마침 뇌와 연결되 작은 혈관을 타고... 뇌혈관으로 들어 갔는데.. 마침 이걸 몸이 못 막아 낼때...
 4. 사형수가... 죽기전에... "저 딱 한번만 코 후비면 안될까요?;라고 물은 후 10분후에...

이런 경우가 있겠습니다.

장호준님의 댓글의 댓글

4번,, 근데, 코 후비고 5분지나 약물주사로 즉사해버리면 4번도 기회가 없네요.  그럼 3개만 남나?
아니, 1번의 경우에도 반대편 차 역시 코 후비다 이쪽 차선으로 넘어와 충돌을 피할 수도 있겠고,

2가지 경우밖에 없겠네요.

홀리아바님의 댓글의 댓글

실제 어떤 부분에 작용한다?라는 표현은... 매우 위험한 발상입니다.
실제로 오감을 통해서.... 정보가 들어갑니다만...
모든 신호는... 한곳에 있는 신경세포로 가지 않습니다.
물론 중점적으로 가는 부위가 있습니다만....
더 광범위한 부분과 서로 connection되어 있기 때문에.... 상당히 힘든 설명입니다.

뇌에 대해서... 마침 다 아는 것 처럼 이야기하는 사람들의 대부분은 사기꾼입니다.
나머지는... 거짓말인 것 자체를 모르는 사람들이구요.

그래서 뇌과학은.... 계속 될 것 같습니다.

그러나 일반인들에게는....
그냥 정해서...(어느정도 국한을 시켜서) 말해주는 것이...
설명하는데 도움이 됩니다.

공부하면 할수록....
"도대체 내가 아는 것은 진정 무엇이란 말인가?"하는 것이....
짧지만.... 저의 소견입니다.

장호준님의 댓글의 댓글

아,, 그렇군요. 아인시타인이 몇퍼센트 밖에 사용 못했다,, 이말도 그 근거가 없겠네요. 무슨 엔진오일 꺼멓게 되는 것이 아니니까..

김용재 개척교회님의 댓글

이제 로컬라이제이션 원리를 이용해 자연스러운 소리를 재연하는 방향으로 이야기를 전개하면 어떨까요?

예를 들어
"2개의 스피커로 들을 때 눈을 감으면 마치 앞에 싱어들과 악기들이 실제로 존재하는 것 같은 느낌이 들도록 하려면 어떻게 할 것인가? "
등등 이런 주제는 어떤가요?

저의 독특한 체험을 소개합니다.
집에서 주로 좌우 1미터 정도 벌려져 있는 ESI의 니어05로 음악을 듣습니다.
권장사항대로 스피커로부터 두 스피커와 정삼각형을 이루는 위치에 앉아서 음악을 듣습니다.
그러다가 눈을 감고 제 느낌이 좋아지는 쪽으로 머리를 움직여 봅니다.

그러면 신기하게도 스피커와 정삼각형을 이루는 지점이 아니라
두 스피커 사이에 머리를 둘 때 로컬라이제이션이라든가 살아있는 듯한 느낌
현장감이 훨씬 좋아지는 것을 느끼게 되었습니다.

장호준님의 댓글의 댓글

소스가 뭐냐에서 부터 출발하길.. 스테레오 입체감이 좋은 곡을 모아보는 것도 좋겠네요. 인위적이 아닌 자연적으로,, 성영님, 이거 성령님이 되버리는 구만,, 성영아 서라운드 말고, 스테레오 마이킹과 믹싱이 좋은 곡들 추천해봐라.. 구하기 쉬운걸로..

JesusReigns님의 댓글

저두 용재님과 비슷한 경험이 있습니다. 사실, 어느 믹스든... 스피커하고 1-2미터 이상 떨어져서 그게
정삼각형이 되든 뭐가 되든 그렇게 듣는 것 보다는 헤드폰으로 듣던지 각 스피커에서 20센티 이내로
되게 하고 듣는 것이 제일 듣기가 좋았습니다. 옛날에.. 외삼촌이었나.. 갖고 계시던 라디오를 버리셔서
줏어다가 들었는데.. 기억엔 안에 튜브가 들어있었습니다. 좋은건 아니였고.. 그냥 옛날거라서 튜브가
있었던듯.. FM방송을 들을 때 양스피커의 한가운데, 라디오에 코를 댄 듯이 가까이 가면 너무 소리가
좋았었죠. 요새 것들도 돈을 잔뜩 들인 큰 시스템보다 작은거.. 스피커 분리형 좀 좋은 품질의 것을
양 귀에 가깝게 듣는게 소리가 좋은 것 같다는 느낌을 많이 받습니다.

장호준님의 댓글의 댓글

스튜디오에서 믹스할때 스피커의 위치를 바꾸는 경우가 많이 있습니다. 좋은 포지션을 위해서 그렇죠.

이야기가 나온김에, 예전 카세트에 보면 wide 기능이 mono, stereo 다음에 있었습니다. 실제 와! 할 정도로 넓어지는 느낌이었고, 당시는 아무것도 모를때였지만,, 내 기억에 70년대 말인것 같은데,  돌아가신 외삼촌이 별안간 선물이라고 하나 사오셔서..
왜일까요?

장호준님의 댓글의 댓글

의외로 정담은 좌/우 끝에 달려있는 아주 작은 스피커 두개더라고,, 카세트 왼쪽의 작은 스피커에는 오른쪽 신호를 넣고, 반대로도 하고..

JesusReigns님의 댓글

글쎄요.. 당시에 딜레이와 믹싱을 사요하지는 않았을테고.. 저도 wide모드가 가물가물 생각이 납니다.
요새도 쓰는건지 모르겠는데... 혹시 그냥 한쪽 polarity를 바꾼거 아니였을까요?

장호준님의 댓글의 댓글

네. 틀렸습니다... ㅋㅋ  polarity를 바꾸었다면 역위상으로 귀에 금방 들리죠.. 불량으로 반품했을거고,,

JesusReigns님의 댓글

그렇담 뭐 .. 믹싱 회로가 들어갈 수 밖에 없겠네요.
설마 딜레이까지는 안썼으리란 생각. . .
그니까.. 왼쪽 채널에 오른쪽 채널의 역상을 줄여서 믹스하고
오른쪽 체널에는 왼쪽 채널의 역상을 줄여서 믹스하고
그럼 넓어지려나..

장호준님의 댓글의 댓글

70년대 말, 요즘 말하는 붐 박스 같은건데, 한 40센티미터 넓이게 높이가 25센티미터 정도 되는 것 같은..

승남님의 댓글

개인적인 바램으로는 구체적으로 믹스에서 어떤 방법으로 로컬라이제이션을 컨트롤 할 수 있을까 하는 것들이 좀 더 이야기 되었으면 좋겠습니다.
 가장 단순한 방법으로 페이더를 올리면 소리가 앞으로 나온다. 그것은 왜 그럴까요? 답은 사람이(생물이) 큰 소리를 더 가까이 있는 것으로 인식하기 때문이다. 이겠지만, 그것이 왜 일까까지 생각한다면 좀 더 공부가 되겠지만 믹스하다가 밤샐것 같고, 실제로 어떻게 로컬라이제이션을 하는가라는 방법들에서 거꾸로 짚어 나간다면, 좀 더 답에 편하게 갈 수 있을 것 같습니다.
 다른 이야기일수도 있겠지만, 제가 엔지니어를 하면서 점점 재미있어지는 부분이 음향 엔지니어링에 있어 변수가 많고 그 변수들이 서로 유기적으로(?) 영향을 미치기 때문이라는 생각이 들기 때문입니다.
 처음에 이큐나 컴프레서 등을 사용해서 음을 조정하면서 하나의 변수를 컨트롤 할때는 그 변수에 관해서만 생각했었습니다만, 얼마전 부터는 좀 더 여러가지면에서 생각하게 됩니다.
 예를 들면, 전에는 소리의 레벨과 주파수와 시간의 3개의 축에서 하나의 축만 바라보았다면, 요즈음에는 3차원 공간 그래프를 떠올리게 됩니다.
 음원의 레벨이 커지면 인식하는 주파스 스펙트럼이 변하고 이큐잉으로 주파수 축을 건드리면 레벨축이 변하고, 컴프레싱으로 레벨 - 시간 축을 건드리면 주파수축이 변하고, 여기에 심리음향적인 측면과 두 개 이상의 소리가 합쳐졌을때의 효과들.. 공간감과 관련된 효과들이 더해지면 머리가 빙글빙글 하네요. ^^;
 다 아시는 이야기일지 모르겠지만 소리의 정위를 앞뒤, 위아래, 양옆 의 세가지 방향이라고 한다면, 한 가지 방향으로만 변화를 주는 것은 힘들다고 생각합니다. 제가 느끼기에는 앞뒤정위를 조정하기 위해 레벨이나 엔벨로프를 조정하면 위아래 정위도 같이 움직이더군요. 스피커를 폭으로 하는 육면체의 입체방을 생각한다면, 소리의 정위가 움직이는 방향이 면과 면이 마주보는 방향이 아니라 면과 면이 만나는 선 부분(이것을 무엇이라 부르는지 갑자기 까먹었습니다;;) 이 마주보는 방향(반대편 면의 대각선 선 방향)으로 움직이는 것 같습니다. 그러니까 앞뒤위아래의 두 방향과 앞뒤양옆의 두 방향이 되겠네요. 뭐, 스테레오 믹스일 경우겠지요. 여담입니다만, 고음성분이 많은 소리일 수록 가깝게 들린다고는 하지만, 저음의 경우도 마찬가지라는 생각입니다. 중저음이 많으면 정위가 더 튀어나오게 들립니다. 덩어리가 크달까.
 그런데, 이건 또 하나의 음에 대한 이야기이고, 다른 소리가 들어오면 달라지는 것 같은데 이거 뭐라고 말씀드리기도 힘들고 잘 모르겠습니다;;
 갑자기 토론들을 주욱 읽어보다가 잠깐 끼어드니 저도 정리가 잘 안되네요. 다른 분들의 의견들 부탁드립니다.
전체 9,430건 / 396페이지

+ 뉴스


+ 최근글


+ 새댓글


통계


  • 현재 접속자 303 명
  • 오늘 방문자 4,385 명
  • 어제 방문자 6,006 명
  • 최대 방문자 15,631 명
  • 전체 방문자 12,708,451 명
  • 오늘 가입자 0 명
  • 어제 가입자 0 명
  • 전체 회원수 37,535 명
  • 전체 게시물 254,758 개
  • 전체 댓글수 193,379 개