창조적인 소리를 만들어내는 것은 그것이 의미하는 것처럼 유동적이며, 변화하는 것이다. 그래서 전자음악을 만드는 사람들이 상상할 수 있는 모든 딱딱한 표면에서 울리는 소리들을 포함하게 된다. 그리고 실제 대화와 새로운 현상들에 대한 것들을 노트에 자세히 공을 들여서 적는 음악가들의 모든 것을 반영하는 것이다. 이 모든 것이 Mogees 프로젝트에 포함된다.
Mogees는 런던대학 컴퓨팅학과의 연구원 Bruno Zamborlin가 파리에 있는 IRCAM의 연구팀과 공동으로 진행하는 실험으로서 소리를 만들어내는 새로운 방법을 연구하면서 제스처 인터랙션을 위한 새로운 방법을 실험하고 있다. 이 프로젝트는 4살짜리 아이를 기쁘게 할 뿐만 아니라, 연구원들의 관심을 받고 있는 것들을 비디오로 발표하였다. 이 비디오에서는 콘택트 마이크와 오디오 처리 소프트웨어를 사용하여 나무의 몸통, 풍선, 버스의 유리판, 팽창된 풍선과 같은 여러 가지 표면으로부터 제스처 인식 터치 인터페이스를 만들 수 있는 것을 보여주고 있다. 또한 다른 제스처가 다른 소리들을 제어하는 것도 보여주고 있다.
나무판은 자전거벨과 같은 소리를 내며, 풍선을 가지고 노는 것은 바람에 흔들리는 크리스탈이 걸린 장식과 같은 소리를 만들어낸다. 다른 표면들은 두드리거나, 닦고, 치거나 손가락을 두드려서 소리를 만들어낸다. 그리고 음악적 내러티브의 중심에 있는 연속적인 피아노음도 포함하게 된다.
Mogees 프로젝트는 버튼과 같은 실버 마이크와 오디오 처리 소프트웨어를 사용하여 어떤 표면이 제스처 음악 인터페이스로 변화하게 된다. 이것이 어떻게 동작하는지는 ExtremeTech가 자세히 설명해줄 수 있다. 콘택트 마이크는 여러 개의 마이크로폰을 가지고 소리의 스테레오 영상을 만들어내게 된다. PC 케이블 연결은 손가락 진동을 알아내어 그것을 분석하고 제스처로 변환하게 된다. 시각적 프로그래밍 언어(MaxMSP)는 제스처를 소리로 변환하게 된다.
“사람들이 표면을 터치하게 되면, Mogees는 입력되는 오디오 신호를 분석하고, 소리 데이터베이스 내에서 가장 가까운 세그먼트를 계속 찾게 된다. 이러한 세그먼트들은 시간에 따라서 연속적으로 동작하게 되며, 이 기술을 연속적인 합성이라고 말한다.”
예를 들어, 표면은 손과 같은 어떤 툴을 가지고 연주할 수 있으며, Mogees는 항상 그것에 맞는 소리를 찾도록 항상 시도를 할 것이다. 또한 이것은 목소리 또는 음향/전기 악기와 같은 다른 소리들에도 적용될 수 있다.
Zamborlin은 전기 음악을 만들 때 실제 표면을 터치할 수 있는 아이디어를 그가 좋아했기 때문에 이 프로젝트를 시작했다. “실제 표면을 터치하는 것은 사용자들이 했던 것에 대하여 햅틱 피드백을 경험할 수 있도록 해주며, 기기들과의 관계를 향상시켜주게 된다.”
연구원이며 개발자인 Norbert Schnell은 Mogees 노력의 일부분으로서 이름을 지었으며, 이 프로젝트는 또한 MaxMSP를 위한 MuBu 환경의 사용을 참조하고 있다.
Max는 음악과 멀티미디어를 위한 시각적 프로그래밍 언어로서 전자 음악가들은 특별한 소리 생성툴을 위해서 이것을 사용하고 있다. 프로그램은 공유된 라이브러리의 형태로 대부분의 루틴들을 모듈화한 것이다. MuBu는 실시간 인터랙티브 오디오 처리를 위한 소리표현 버퍼이다.