la musica elettronica e la sua storia_il musicista e la composizione elettronica_l'oggetto musicale

MEDIAZIONI TECNOLOGICHE. L'ESPERIENZA MUSICALE INCONTRA IL DIGITALE

Gli anni '80

Gli anni ’80 segnano un capitolo importante nella storia dell’informatica musicale. Durante questo periodo essa si viene inserendo a pieno titolo tra le esperienze musicali contemporanee, con un proprio bagaglio di peculiarità originali, destinate ad influenzare in modo significativo il pensiero musicale del nostro tempo.
Nel corso di questa decade, tramite lo sviluppo esponenziale della tecnologia, si giunge a dei risultati che erano stati, nei periodi precedenti, soltanto presupposti ma in fondo mai realizzati. I motivi di questo limite, anche se limite fisiologico dato lo stato embrionale dell’informatica musicale,sono di ordine in parte tecnico, in parte linguistico espressivo.

“Da un lato, infatti. I mezzi elettronici allora disponibili erano troppo poveri, troppo poco interattivi per essere effettivamente utilizzati sul piano musicale, quando dovevano passare anche dei mesi, a furia di tagli e montaggi manuali di nastro magnetico, prima di poter verificare compiutamente il risultato delle scelte compositive e sonore. Dall’altro lato mancava una solida e moderna cultura musicale, che sapesse sopportare il peso delle innovazioni strumentali, accogliendo i nuovi contributi in un proficuo quadro interdisciplinare”. [Tamburini A., “Il calcolatore e la musica”, pag. 18]


Mancavano quindi ancora le condizioni per assumere completamente le caratteristiche del mezzo elettronico.
Inoltre Franco Galante nel 1983 scriveva:

”Non a caso, la svalutazione della composizione musicale elettronica, anche in seno ai suoi migliori rappresentanti, agli inizi degli anni sessanta, è sicuramente da attribuirsi, tra l’altro, alla mancanza di un’efficace interfaccia uomo-macchina. Se tale difficoltà è stabilita all’interno della micro-composizione del suono, ancora di più lo è stata nella gestione del parametro spazio. [Galante F., “Spazio e spazializzazione nella musica elettronica”, In Quaderni di informatica musicale, n° 2 , sett. 1983]

Proprio lo spazio – il movimento del suono nello spazio - si pone come carattere nuovo e originale, nel suo possibile impiego da parte dell’informatica musicale, al punto da diventarne elemento costitutivo e riconoscibile. Come afferma Alvise Vidolin:

"Anche lo spazio acustico, in cui i suoni reali e trasformati vengono ad integrarsi e a fondersi nel suono, o meglio nella musica, assume una precisa funzione strutturale per la composizione e va studiato di volta in volta in relazione allo spazio architettonico, alle caratteristiche foniche delle pareti, alla distribuzione del pubblico nella sala, ecc. In particolare nello spazio si devono poter combinare la componente reale con quella illusoria, ossia si devono poter proiettare in una dimensione dinamica le fonti acustiche tradizionalmente statiche. Il nostro sistema percettivo riconosce la direzione, la distanza e la velocità di un suono in movimento analizzando, per confronto, le caratteristiche dell’onda di pressione sonora che lo raggiunge.” [Alvise Vidolin, “Interazioni con il mezzo elettronico” in Verso Prometeo, La Biennale/Ricordi, Venezia 1984, pag.48]

L’elemento spazio, che per molti anni è stato recepito e affrontato in maniera casuale ed inconsapevole, inizia ad essere sviluppato anche nel momento compositivo e le nuove tecnologie informatiche consentiranno di gestire in maniera diversa anche mezzi acquisiti da tempo, quali il microfono, il registratore, l’altoparlante consentendogli di caratterizzare il suono sulla base di fattori come vicino e lontano.
Il concetto di spazio si tramuta quindi da un dato fisico immutabile in un spazio artificiale, manipolabile con la conseguenza di aggiungere un altro parametro al lavoro del compositore.
Un altro punto importante delle ricerche di informatica musicale svolte in questi anni riguarda l’interesse verso dispositivi speciali per la produzione sonora in tempo reale. Quest’ultimo consiste precisamente nella possibilità di stabilire un legame istantaneo tra istruzione tecnica e risultato sonoro. Fino a questo momento si utilizzavano macchine che non erano in grado di svolgere i calcoli necessari in tempi ragionevolmente brevi, ma adesso, avendo a disposizione processori sempre più veloci, risulta possibile mettere a punto i vari parametri del suono durante l’ascolto.

“Questo controllo del materiale dipende dalla ricerca di un equilibrio tra intuito e calcolo”,

afferma Marie-Helizabeth Duchez

“il che per lungo tempo è rimasto fuori discussione a causa dell’assenza di relazioni intuitive tra sistema tecnico e sistema percettivo, tra processo informatico e processo musicale: tale assenza, vivamente sentita, creava gravi difficoltà dovute ad un insieme di operazioni, quali quelle realizzate su computer, che rimangono astratte in relazione alle caratteristiche percettive del suono. Nell’utilizzo delle apparecchiature tecnologiche, i compositori hanno in effetti rischiato la distruzione del requisito percettivo (…), cioè l’indebolimento, o anche l’annientamento, dell’intuizione, giacché i simboli interposti non parlano immediatamente all’immaginazione”.

Gli sforzi sul concetto di tempo di tempo reale mirano a colmare quest’assenza; il musicista ha, così, un controllo percettivo sull’equilibrio tra informazione programmata e informazione da aggiungere in tempo reale, portando delle modifiche interpretative ad un materiale altrimenti statico e prestabilito. Per giungere a questi attesi risultati in una prima fase si integrano dispositivi analogici con parti realizzate digitalmente, ma le limitazioni dei circuiti analogici non rendevano soddisfacenti queste soluzioni. I primi sviluppi della microelettronica rendono possibile la realizzazione di strumenti commerciali interamente digitali attorno alla fine degli anni ’70. Il Synclavier e il Fairlight sono due validi esempi di questi primi tentativi. [Taraballa L., “Informatica e Musica”, Jackson Libri, 1992]

La tecnica utilizzata, per lo più sintesi additiva, viene realizzata attraverso l’uso dei primi microprocessori di tipo generale, gli stessi che consentirono la prima diffusione dei calcolatori personali. Si trattava tuttavia di strumenti musicali molto limitati rispetto a quanto era possibile fare, con la rinuncia del tempo reale, attraverso calcolatori non specializzati.

I musicisti più esigenti intraprendono così il difficile cammino di sviluppare dei sistemi di calcolo specializzati alla sintesi musicale, da collegare ai normali calcolatori come periferiche per lo svolgimento dei calcoli più onerosi o anche come sistemi completamente autonomi.
Questo percorso tende ad esaurirsi verso la metà degli anni ’80 quando entrano in scena i circuiti specializzati per DSP. Un microprocessore per DSP è un circuito microelettronica capace di svolgere le operazioni tipiche dell’elaborazione numerica dei segnali in tempi estremamente ridotti, realizzato fisicamente su di un’unica lastrina di silicio, e quindi un unico circuito integrato, che esternamente appare come molti altri componenti abitualmente presenti nei dispositivi elettronici. La differenza è costituita dalla organizzazione interna dei circuiti, studiata appositamente per velocizzare al massimo le operazioni tipiche dell’elaborazione numerica dei segnali. [Piero Pierucci, Architetture Sonore, pag.188]

Per non dire della incolmabile distanza che separava la prima stagione elettronica dal pubblico, il quale era assolutamente estraneo ad esperienze percettive di suoni non strumentali. Negli anni ’80, grazie all’evoluzione della tecnologia e al notevole abbassamento dei prezzi, gli strumenti elettronici iniziano a diffondersi al di fuori degli ambienti piccoli e chiusi, quali erano gli studi di elettronica degli anni ’50 e ’60. Tra la folta schiera di musicisti-compositori, i quali magari fino a quel momento avevano utilizzato solamente gli strumenti tradizionali, iniziano a circolare i primi sintetizzatori, i primi computer – a dire il vero ancora limitati – dedicati alla musica.
Quest’ultimi hanno l’importante e delicato ruolo di battistrada per quella che sarà la travolgente invasione della musica da parte dell’elettronica negli anni ’90, ma non solo; la diffusione dell’elaboratore elettronico per la musica mette in moto il processo di avvicinamento tra ambito colto ed extracolto.
Il primo ricalca l’ambito dei centri di fonologia e delle università caratterizzato da una continua ricerca e sperimentazione, il secondo comprende la musica di largo consumo come la musica commerciale leggera o pop, le colonne sonore dei film o gli studi di registrazione. L’uso degli strumenti elettronici computerizzati è diffuso tanto nell’ambito colto quanto in quello extracolto ma l’approdo al computer come strumento per fare suoni è stato molto diverso per i due ambiti; abbiamo visto come in area colta l’elaboratore elettronico sia venuto a proporsi come il nuovo ritrovato di una ricerca che aveva radici assai profonde. L’area extracolta, da parte sua, non ha fatto altro che mutuare questo nuovo mezzo, spinto dalle potenzialità e ancor di più dalla liberta di applicazione che esso offriva, senza però farsi carico del complesso background di vere e proprie istanze musicali da cui era scaturito.
Infatti è la ricerca svolta in ambito colto a fare da punto di riferimento. Si veda l’esempio del sintetizzatore, nato negli anni ’50 dallo studio di Colonia, è approdato trent’anni dopo alla musica di largo consumo, come basti pensare all’opera di ricerca, prima citate, di Chowning sulla sintesi in modulazione di frequenza, la quale è adottata negli anni ’80 da grosse case di produzione di strumenti elettronici computerizzati.

Comunque, la cosa che importa è che questi sono gli anni in cui si registra l’avvicinamento dei due ambiti, ambiti che si erano distanziati enormemente soprattutto a partire dall’inizio del XX secolo. In tal senso si constata come il computer rappresenti un media, un efficace veicolo per un travaso di conoscenza di esperienze tra le due aree; a questo proposito Tamburini afferma che:

“ (…) l’identità di mezzi e materiali sonori impiegati può consentire ad un vasto pubblico di entrare a contatto con la computer music colta, senza risentire troppo di quel grosso stacco – in termini di codice sonoro – che rappresenta invece tuttora un ostacolo grave per ascoltatori formati soltanto da esperienze di musica tradizionale” [Tamburini A., “Il calcolatore e la musica”, pag. 21]

Anche se, parlando del rapporto tra il colto e l’extracolto aggiunge:

“Un rapporto con nuove possibilità di confronto che, a mio avviso, può risultare tanto più proficuo quanto più alcune necessarie distinzioni vengono mantenute, contrariamente a quello spirito di contaminazione reciproca, al quale è sottesa l’idea di una fine divisione fra i due generi musicali, che è venuta fin troppo di moda in questi anni.
Questo non tanto alla luce di una visione dogmatica e sacrale dell’arte, ma proprio ribadendo quelle che sono sempre state e saranno funzioni socialmente e culturalmente diverse: l’ambito extracolto, rivolto per sua natura al mercato e al consumo di massa; quello colto, invece, che proprio in quanto slegato dai condizionamenti del mercato e dell’industria, deve restare rivolto alle esperienze più avanzate di una libera espressione artistica”. [Tamburini A., “Il calcolatore e la musica”, pag. 22]

Il giusto dubbio di Tamburini su un’auspicata immutata distinzione tra i due generi non sarà altro che la previsione di un futuro suo prossimo.

Nessun commento: