Badacze z AGH pracują nad tym, by ruch postaci w przestrzeni można było nie tylko zobaczyć na ekranie, ale i by można było go usłyszeć. - Twórcy gier zwykle stawiają na grafikę, a dźwięk jest tylko jej dopełnieniem. My chcemy, by również dźwięk i sposób, w jaki on się rozchodzi, były dla gracza źródłem informacji - mówi kierownik projektu RAYAV, Bartosz Ziółko z AGH. Wyjaśnia, że w grach komputerowych dźwięk zwykle w niewielkim stopniu zależy od otoczenia. Twórcy gier na dźwięk nakładają najwyżej proste efekty, które mają świadczyć o tym, np. czy dana postać jest w pokoiku czy w hali. - W naszym przypadku dźwięk będzie modyfikowany w zależności od dokładnego rozmiaru hali, od tego, w którym miejscu jest źródło dźwięku i gdzie jest słuchacz - wyjaśnia. - To projekt naukowy, ale nastawiony na wdrożenie - mówi Bartosz Ziółko. - Chodzi o to, by zautomatyzować część związanej z dźwiękiem pracy przy produkcji gier komputerowych. Teraz projektant dźwięku musi bardzo wiele efektów modyfikujących dźwięki ustawiać ręcznie na planszy gry i ustalać moment ich uruchomienia. Nasze rozwiązanie wprowadzi system obliczeniowy, który będzie modyfikował dźwięk w zależności od tego, jak daleko się jest od jego źródła, czy jak rozchodzi się dźwięk w pomieszczeniu. To byłoby obliczane na bieżąco, w trakcie gry. Chodzi o bardziej realistyczne oddanie przestrzeni - mówi. Taki system sprawiłby, że raz nagrany głos mógłby być odtworzony w dowolnym pomieszczeniu w grze i za każdym razem będzie się rozchodził w sposób odpowiedni dla danego otoczenia. - To, co słyszymy, to nie tylko bezpośredni dźwięk, ale również jego odbicie od ścian, podłoża czy sufitu. A także odbicia odbić, z których każde dociera do słuchacza z innym opóźnieniem - opowiada Bartosz Ziółko. Dodaje, że w szczerym polu odbić nie ma, ale im mniejsze pomieszczenie, tym więcej jest odbić, które tworzą pogłos. Ekspert wyjaśnia, że podobną technikę wykorzystuje się w filmach. - Ale w filmach od razu wiadomo, co się będzie działo, a w grze gracz może pójść, w którą stronę chce. Nie możemy więc z góry wyliczyć, co się będzie działo. Nasz system doda efekt dopiero, kiedy gracz podejmie decyzję, co zrobić - mówi. Jak na razie działa system RAYAV, zobaczyć można na przygotowanym filmiku: Ziółko podkreśla, że technika może posłużyć nie tylko w tworzeniu nowego rodzaju zadań w grach, ale nawet całych gier. Zdradza, że na AGH w ramach pracy dyplomowej specjalnie pod system tworzona jest gra. Gracz używając systemu kinect będzie poruszał się po labiryncie. Drogę znajdzie nie dzięki informacjom wizualnym, ale zdobytym dzięki... pogłosowi. Bartosz Ziółko dodaje, że program można byłoby wykorzystać również w architekturze. Dzięki temu można byłoby np. zaprojektować wirtualną filharmonię i jeszcze zanim powstanie, posłuchać, jak będzie się w niej rozchodził dźwięk. Takie programy istnieją, ale zdaniem badacza mogą być usprawnione. Bartosz Ziółko przyznaje, że na razie obliczenia, które wykonuje ich system, zużywają zbyt dużo pamięci, by można go stosować na zwykłych komputerach. - Ale z każdym miesiącem nasz program przyspiesza - zaznacza badacz i tłumaczy, że do czerwca przyszłego roku, kiedy kończy się projekt, system powinien być gotowy do aplikacji w grach. Projekt badawczy RAYAV (Raytracer Audio i Video) realizowany jest przez AGH i firmę Teyon w programie INNOTECH Narodowego Centrum Badań i Rozwoju.