0

Videogame sound design

L’altro giorno mi sono detto: voglio capire come si fa praticamente a creare il suono per i videogame. Ma non nel senso estetico, proprio nel senso pratico. Che tecniche, quali software, quali nuovi termini tecnici, che formati, insomma se dovessi farlo tra una settimana come mi devo attrezzare? Che conoscenze devo acquisire prima di metterci mano? Così mi sono fatto un giro per forum e blog ed ho capito che ci sta tanto da capire.

Innanzi tutto il concetto di suono adattivo. Per chi come me è esclusivamente abituato a concepire il suono sulla base dell’ordine cronologico definito dal film, risulta molto affascinante la modalità con cui si crea il suono nei videogames Nel gaming, l’evento sonoro, non ha una struttura temporale data nella quale ad un certo punto accade, ma attende di essere richiamata dal giocatore. Il tempo diventa una variabile che dipende dalle mosse del giocatore. Interessante. Se a questa cosa sommate il fatto che ad essere variabile è anche lo spazio, nel senso che il giocatore si avvicina, si allontana dal suono, gli gira intorno o ne è circondato,  la cosa diventa una bomba! Se una cosa esiste nello spazio e nel tempo allora si tratta di qualcosa di concreto ed infatti l’evento sonoro diventa un’oggetto sonoro. Per creare questo oggetto sonoro dovrò tenere conto di una serie di caratteristiche che questo oggetto deve avere, caratteristiche legate al luogo ed alla situazione virtuale in cui è inserito. La prima cosa che mi viene da pensare e che la programmazione sarà fondamentale per dettare al suono condizioni del genere, ed infatti lo è. Per fortuna esistono i programmatori che svolgono egregiamente questa mansione… Quello che un sound designer deve acquisire è sicuramente spirito di collaborazione con queste figure e poi la conoscenza del funzionamento dei middleware, ovvero gli audio engine. Mi riferisco a strumenti come FMOD o WWISE, dei software che fungono da ponte tra l’editing tradizionale del suono e il motore grafico (o game engine), cioè l’ambiente interattivo in cui programmatori, animatori e grafici creano il videogame. I middleware danno la possibilità di costruire gli oggetti e di attribuirne le varie caratteristiche sonore. Una volta capite le potenzialità, fare gli oggetti sonori è molto più semplice a farsi che a dirsi, infondo un’oggetto sonoro è solo un campione audio corredato da una serie di script che danno istruzione al motore del gioco su come farlo suonare!

Prendo come esempio FMOD con il quale ho avuto esperienza (concettualmente le cose cambiano poco con gli altri software). Prima di entrare nel dettaglio del funzionamento di un audio engine bisogna capirne il funzionamento in relazione al game engine. Il sistema si compone di due pezzi fondamentali, FMOD designer e FMOD EX. Il primo è lo strumento con il quale si compongono gli oggetti sonori e si decidono i comportamenti che tali oggetti dovranno tenere una volta inseriti nel gioco, ad esempio quanto riverbero o come cambiano i valori del filtro mano a mano che ci si allontana dalla sorgente sonora, insomma l’interfaccia con cui il sound designer opera. FMOD EX , invece è un’API, cioè il corredo di script che i programmatori installano all’interno del game engine, una volta installato il game engine avrà a disposizione i DSP audio di FMOD e riconoscerà tutte le istruzioni contenute nei file esportati da FMOD designer. N.B. Alcuni game engine come cryengine hanno già di default Fmod come audio engine interno, mentre in altri va installato.

Una cosa con cui bisogna fare subito i conti è la quantità di memoria che si può occupare all’interno del pacchetto di file che compone un video game, naturalmente meno è, meglio è. Esistono una serie di soluzioni tecniche offerte dai middleware per far sì che con pochi campioni si possa creare una complessità sonora credibile. Pensate alla creazione di un semplice back ground sonoro di uccellini che cinguettano, nel video game potenzialmente potrebbero suonare 5 minuti come un’ora, la soluzione più semplice sarebbe quella di fare un loop, ma nell’ottica di una ottimizzazione dello spazio, il loop sarebbe troppo corto e l’ambiente sonoro sarebbe un’esperienza poco credibile. Per ovviare a questo limite si sfruttano, nei middleware, principi di sintesi granulare ed algoritmi di randomizzazione dei parametri dei DSP audio. Con questi strumenti si può creare una play list di dieci campioni, ogni campione un cinguettio singolo, la play list suona in ordine random e sovrapposta, ad ogni riproduzione viene alterato lievemente il pitch o il volume, il riverbero o il colore del suono. Tarando adeguatamente i valori dei parametri a disposizione, dieci singoli sample potrebbero generare ore di ambiente sonoro senza che sia mai ripetitivo. Lo stesso principio si può utilizzare per effetti sonori di passi o colpi di pistola. Oltre a ciò si possono sfruttare anche parametri legati allo spazio e al tempo e decidere, ad esempio, di fare dipendere la densità di uccellini che cantano a seconda che sia mattina o sera nel videogame, oppure che abbiano un colore più scuro o più chiaro a seconda che il giocatore si trovi in un’ambiente interno o esterno.

Un’altro esempio importante è come viene montata la musica. La musica dovrà avere una sorta di arrangiamento interattivo. Se ad esempio il momento diventa ad un tratto concitato la musica dovrà variare seguendo tale andamento emotivo senza tagli bruschi.

In una metodologia così precisa l’editing dell’audio si inserisce in maniera diversa rispetto ad un workflow cinematografico. Infatti, nel video classico il metodo di lavoro è quello di comporre il suono stratificando elementi sonori in tempo reale con il video, testando in maniera quasi dirette l’effetto finale. Nel video game la cosa è molto più indiretta, in genere si prepara prima l’effetto sonoro con il software di editing audio, dopo lo si passa al middleware, con il quale si creano le condizioni di riproduzione, e poi si esporta l’oggetto sonoro, un pacchetto di più file che viene caricato e testato nel gioco o nei sandbox appositi ambienti virtuali in cui si sperimenta il livello di interattività degli oggetti sonori. Una danza tra un software e l’altro insomma. Nel caso della musica, tutte le parti con diverse caratteristiche emotive dovranno essere esportate come elementi singoli, successivamente con FMOD si decideranno le condizioni perché venga richiamata una parte piuttosto che un’altra e messa al corretto tempo musicale.  Un lavoro certosino e metodico. Le case che sviluppano i middleware hanno allo studio sistemi per far si che il livello di lavorazione in tempo reale sia sempre più simile a quello di un workflow di tipo cinematografico, al momento FMOD adeguatamente settato da la possibilità di missare mentre si gioca.

Anche la registrazione e la preparazione delle librerie audio orientate al gaming devono avere alcune caratteristiche particolari. Se si prende ad esempio il caso della sonorizzazione di un gioco di auto, la registrazione del motore dovrà essere eseguita in maniera da avere una serie di campioni che una volta montati possano riprodurre tutte le esecuzioni di un’automobile reale. Lo sforzo quindi è quello di registrare il motore in partenza, accelerazione, vari loop a vari RPM e via dicendo.

Di seguito alcune fonti utili per chi volesse approfondire l’argomento:

  • FMODTV canale Youtube di FMOD con una serie di video tutorial.
  • AudioKineticWwise canale Youtube di Wwise.
  • Gameaudio Forum in cui si discutono i vari aspetti dell’audio nel video game.
  • Game sound un libro fondamentale.
  • Alcuni video su Twich TV in cui un sound designer registra le proprie sessioni di lavoro, un pò noiosi ma in cui si capisce bene il workflow.

 

 

 

Mirko Perri

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *