Naukowcy z University of Sussex zaprezentowali pierwszy projektor dźwięku, który jest zdolny do śledzenia poruszającej się osoby i kierowania do niej dźwięku.
Prototyp projektora został przedstawiony w trakcie konferencji SIGGRAPH 2019, która odbyła się w Los Angeles na przełomie lipca i sierpnia. Jak mówi Arash Pouryazdan, który w projekcie odpowiedzialny był za elektronikę, wydarzenie to – jako skupione na technologiach komputerowych – „było idealnym miejscem, byśmy mogli zademonstrować naszą wizję zarządzania dźwiękiem w przyszłości”. Wśród wystawców na tegorocznej edycji SIGGRAPH znaleźli się przedstawiciele między innymi z firm takich jak Marvel Studios, Google, czy Disney.
Stworzony przez zespół naukowców pod przewodnictwem dr Memoliego system składa się z kamery, która jest w stanie śledzić wybraną osobę i kontrolować odległość między dwiema soczewkami akustycznymi. Te z kolei są w stanie skupić fale dźwiękowe w ograniczonej przestrzeni formując „kulę dźwięku” o średnicy około 6 cm przed wybranym celem. Soczewki akustyczne, tak samo jak optyczne – mogą zarówno rozpraszać, jak i skupiać fale. Zewnętrzne oprogramowanie do śledzenia twarzy dostarcza dane o pozycji osoby, która stanowi cel. Jak wyjaśnia jeden z naukowców pracujących przy projekcie, Thomas Graham, śledzący człowieka projektor dźwięku inspirowany był aparatami fotograficznymi z funkcją auto zoom – „zastosowaliśmy bardzo podobny system, nawet wydający podobny mechaniczny dźwięk silnika”. Projekt powstał na bazie badania dr Memoliego z 2017 roku dotyczącego manipulacji dźwiękiem za pomocą drukowanych w 3D metamateriałów. W pewnym sensie system stanowi przeciwieństwo drukowanych w 3D metamateriałowych pierścieni opracowanych przez naukowców z Boston University, które redukują hałas.
Prezentowany podczas konferencji projektor widoczny jest na zdjęciu głównym. W czarnej obudowie znajdują się kamera, głośnik i jedna z dwóch soczewek, drugą soczewkę stanowi biała część na przedzie teleskopu.
Jednym z założeń projektu było ograniczenie kosztów budowy systemu. Dlatego do jego budowy wykorzystano niedrogą kamerę internetową i Arduino, same zaś soczewki zostały wydrukowane w 3D – według Joshuy Kybetta, studenta drugiego roku w Sussex, który w projekcie odpowiedzialny był za śledzenie, wydrukowanie ich kosztowało „zaledwie” 100 funtów.
W przypadku – poniekąd słusznych – wątpliwości dotyczących niewłaściwego wykorzystania technologii, naukowcy zapewniają, że ich projektor wymaga do prawidłowego działania wyrażenia zgody użytkownika. „Wymaganie to ma sprawiać, że nie będzie można użyć go w sposób inwazyjny, ani kierować dźwięku niechętnym temu odbiorcom” – tłumaczy Joshua.
Jak na razie, system ma ograniczenia, badacze jednak pracują nad ich usunięciem. W planach jest rozszerzenie jego możliwości o śledzenie więcej niż jednego celu i transmitował dźwięki w zakresie pozwalającym na objęcie większości mowy i podstawowych melodii, a docelowo – pełnych utworów muzycznych. Potencjalne możliwości systemu, kiedy ten zostanie udoskonalony, są wręcz nieograniczone – z branżą gier i wirtualnej rzeczywistości, oczywiście, na czele.
Źródło: www.sussex.ac.uk
Memoli, Gianluca & J. Graham, Thomas & T. Kybett, Joshua & Pouryazdan, Arash. (2019). From light to sound: prisms and auto-zoom lenses. 1-2.
Zdjęcia: University of Sussex
KOMENTARZE