대화하는 사람들의 주변에 있는 사물을 동영상 촬영하는 것만으로도 그들의 대화를 들을 수 있는 방법이 개발돼 화제다.
미국 매사추세츠공대(MIT) 연구원들이 음성이 사물에 가하는 미세한 진동을 비디오 이미지로 촬영한 뒤 이를 분석해 원래의 음성을 파악하는 알고리즘을 개발했다고 4일(현지시간) 워싱턴포스트(WP)가 보도했다.
연구를 주도한 MIT 전기컴퓨터공학부의 대학원생 에이브 데이비스에 따르면 음성이 사물에 부딪히면서 생기는 진동은 미약해 때로는 파악이 어렵다. 그러나 모든 음성 신호의 평균을 내 인지할 수 있는 음성을 추출할 수 있으며, 사물 전체를 정밀히 관찰하면 잡음을 걸러낼 수 있다. 실제로 데이비스는 과자를 담은 봉지를 방음 유리벽을 사이에 두고 15피트(약 4.5m) 거리에서 비디오 카메라로 촬영했으며 이를 분석해 음성을 재구축해 대화를 파악하는 데 성공했다.
이 연구는 현재 마이크로소프트(MS) 연구소에 일하는 마이클 루빈스타인이 MIT 재학하던 지난 2012년 수혈 받을 때 피부색이 변하는 것을 포착할 목적으로 비디오 이미지 미세 변화를 증폭하는 실험을 한데서 힌트를 얻어 이를 음성으로 적용한 실험이라고 WP는 전했다.
데이비스는 “종전에는 아무것도 들을 수 없던 상황에서 음성을 찾아내는 데 이 방법을 사용할 수 있을 것으로 본다”면서 “법의학 분야에 적용할 도구를 하나 더 보탠 셈”이라고 말했다.