la musica elettronica e la sua storia_il musicista e la composizione elettronica_l'oggetto musicale

MEDIAZIONI TECNOLOGICHE. L'ESPERIENZA MUSICALE INCONTRA IL DIGITALE

Anni '50 - '70 : dall'origine della Musica Elettronica all' Informatica Musicale

In quegli anni, la scoperta dell’elettromagnetismo [L'elettromagnetismo nasce perché si scopre l’analogia tra un fenomeno acustico e un fenomeno elettrico, permettendo quindi di simulare un sistema meccanico con un circuito elettrico] è stata una fonte inesauribile d’idee da cui attingere; sfruttando il suo meccanismo è stato possibile costruire nuovi strumenti, con un nuovo suono, una nuova impostazione. Non solo, è stato possibile costruire i primi registratori in grado di fissare su nastro e, in seguito, riprodurre il suono diffondendolo in luoghi sempre più lontani.
Gli strumenti elettronici sono capaci di generare suoni completamente diversi da quelli tradizionali ma forse la loro più grande novità consiste nel fatto che è possibile controllarne la modulazione di molti parametri.
Quando si parla di parametri di un suono si riferisce alle sue proprietà, esse sono:
Timbro
Altezza
Intensità

Il timbro è la caratteristica del suono che permette all’orecchio di distinguere la natura della sorgente che l’ha emesso, a prescindere dalla frequenza e dalla sua intensità. Ciò che lo determina sono le componenti addizionali (armoniche) dell’onda che vibrano a frequenza multipla della frequenza principale. L’orecchio, in questo modo, è in grado di distinguere facilmente una stessa nota (ad esempio un La) prodotta da un diapason, da un violino o da un pianoforte.
L’altezza di un suono è la proprietà che ci consente di distinguere un suono basso (o grave) da uno acuto (la differenza che si può udire per esempio tra un muggito di una mucca e il cinguettio degli uccelli). La frequenza delle onde sonore è la misura dell’altezza di un suono. Il range di udibilità dell’orecchio umano è compreso tra i 20 e i 20.000 hertz, questo vuol dire che noi non sentiamo tutto ma solo suoni che rientrano in quest’intervallo. Le onde sonore che si propagano a frequenze inferiori ai 20 hz vengono dette infrasuoni, quelle a frequenze maggiori di 20.000 hz vengono dette ultrasuoni.
L’intensità di un suono consiste nella forza con la quale il suono colpisce il nostro orecchio e si misura in decibel (dB). Alla soglia di udibilità è attribuito il valore 0 dB, l’intensità di un mormorio risulta circa 10 dB e il fruscio del vento tra le foglie si aggira intorno ai 20 dB. La scala delle intensità dei suoni e logaritmica, perciò ogni incremento di 10 dB corrisponde ad un aumento in intensità un fattore 10. Il fruscio del vento tra le foglie è 10 volte più intenso dei mormorii.

Questi tre parametri fondamentali di un suono negli strumenti elettronici, al contrario degli strumenti tradizionali, non sono dati immutabili, anzi sono definiti dallo stesso compositore e, il più delle volte, soggetti a continue modificazioni e modulazioni.

Il sistema musicale d’occidente, pur nell’avvicendarsi delle varie esperienze compositive, ha utilizzato per secoli solo una minima parte del pressoché inesauribile potenziale sonoro a disposizione dell’uomo. Esperienze anche molto diverse tra loro hanno usato nel corso del tempo un codice linguistico-musicale basato sugli stessi elementi fonici primari. L’armonia dell’antico sistema musicale greco, i modi gregoriani, la musica rinascimentale, la dodecafonia rappresentano stadi di un processo evolutivo tutto sommato lineare. In esse il campo delle altezze acustiche, nonostante fosse in natura sterminato, era ristretto enormemente; si privilegiavano le sette o le dodici note fondamentali che si alternavano inesauribilmente in varie combinazioni affinché

“potesse costituirsi una serie di relazioni precise ed istituzionalizzate per sedimentazione storica tra i vari elementi della grammatica e sintassi musicale” [gentilucci armando “introduzione alla musica elettronica” pg 16]

E’ infatti un alta dose di convenzionalità ed opportunismo ad ergere gli intervalli melodici, cioè le differenze di altezza acustica tra suono e suono, a unica divisione dello spettro sonoro:

”Gli intervalli melodici creavano nella successione diacronica-orizzontale e successivamente sincronica-verticale un preciso racconto che si estendeva nel tempo secondo precisi legamenti logici, facilmente memorizzabili”. [gentilucci armando “introduzione alla musica elettronica” pg 17]

Non a caso i greci, pur possedendo anche un sistema musicale basato sui microintervalli (genere enarmonico) privilegiarono decisamente il diatonico, di più facile esecuzione vocale e meglio plasmabile. A partire da questa antica civiltà e dal suo sistema musicale, la quasi totalità dell’esperienza musicale occidentale poggia su di una stessa piattaforma teorica: le dodici note sono sempre le stesse. Dodici note che, individuando frequenze ben determinate, vengono nettamente privilegiate rispetto ai suoni a frequenza non definita, relegati, anche un po’ spregiativamente tra i rumori. Gentilucci ce ne da una conferma:

“(…) la grammatica musicale, fino alla metà circa del nostro secolo, ha preso in considerazione soltanto dodici suoni (…), operando una vastissima selezione su due fonti, uno per così dire interno all’immenso campo delle frequenze vibratorie possibili in un corpo acustico determinato, l’altro esterno. Quest’ultimo riguarda ovviamente il rumore o suono indeterminato, vale a dire quell’evento acustico composito per la simultanea presenza di piramidi di armonici differenziate, del quale si afferra unicamente la caratterizzazione timbrica che quindi veniva assunto con ruolo più o meno secondario, subalterno, prevalentemente ritmico. Perciò, se la musica della tradizione occidentale ha privilegiato la trama melodica e la struttura armonica, il timbro puro è rimasto a lungo relativamente in ombra. Il disegno, insomma, ha sempre prevalso sul colore, sul materiale visivo in quanto tale, se si tien ferma l’assai efficace analogia con la pittura.”

Naturalmente il passato fa menzione di compositori che si sono cimentati in avventure sonore atipiche rispetto alla linea di tendenza appena descritta. Oltre ad esperienze di compositori famosi quali Mozart, Haydn e, perché no, anche Beethoven, occorre citare Berlioz. Siamo nel primo quarto dell’Ottocento quando il compositore francese mostra chiaramente di pensare e di comporre per agglomerati timbrici, prima ancora che in termini melodici ed armonici. Accanto a Berlioz si possono sicuramente citare le esperienze della scuola romantica tedesca e del poema sinfonico, le quali imboccano una strada, o almeno la indicano, che successivamente verrà battuta da Debussy (1862-1918). In alcune sue opere salta subito all’occhio, o meglio, all’orecchio come il timbro assolve radicalmente funzioni strutturali, tralasciando o subordinando altri parametri ad esso.
Queste prime esperienze tracciano un percorso che più tardi, attorno alla metà del XX secolo verrà seguito da compositori come Varese, Shaeffer, Cage, Pousseur, Xenakis, Stockhausen ed altri. Edgar Varese fu uno dei primi musicisti a capire le reali potenzialità di ampliamento del panorama sonoro che si stava prospettando. Egli, a questo proposito, mette a fuoco le potenzialità offerte dai mezzi tecnici attraverso i quali

“è possibile rendere percepibile all’ascoltatore, mediante determinati accorgimenti acustici, la differenziazione tra masse, piani e fasci sonori”

e profetizza che

“il ruolo del colore, o timbro, diventerà completamente diverso da quello che è adesso: accidentale, aneddotico sensuale o pittorico; diventerà un elemento caratterizzante, come su una carta geografica i colori che separano aree diverse”.

Intuizioni straordinariamente vicine a quello che sarà lo sviluppo della musica elettronica di molti anni dopo; anzi, vere e proprie anticipazioni. [Piero Pierucci, Architetture Sonore, pag. 241]
Nel 1948 inizia l’attività di Pierre Shaeffer presso lo studio della RTF di Parigi, la principale emittente radiofonica francese; in quel periodo infatti è prassi comune che la sperimentazione sulle nuove forme musicali viene ospitata all’interno degli studi di produzione radiofonica. Le idee musicali di Shaeffer si basano sull’organizzazione di materiali musicali registrati inizialmente su disco, successivamente su nastro. I suoni per lui più stimolanti sono i rumori. Il suo tentativo creativo va nella direzione di trattare musicalmente l’organizzazione dei rumori in scale – come se fossero vere e proprie note – attraverso le manipolazioni di altezza che erano possibili con l’uso di giradischi a velocità variabile.
Questa è la cosiddetta musica concreta la quale si basa sull’uso di materiali sonori concretamente esistenti e non sui suoni gentili ma astratti prodotti dagli strumenti tradizionali.
Nel 1953 a Colonia, in Germania, prende il via stabilmente l’attività di ricerca nel campo della musica elettronica negli studi radiofonici della NWDR (Nordwest-Deutscher Rundfunk). Il primo collaboratore fisso è Karlheinz Stockhausen che inizia un lungo lavoro di analisi del suono. Ogni suono può essere scomposto in una serie di suoni sinusoidali elementari opportunamente combinati.
Quasi contemporaneamente a queste esperienze europee, nel 1951, oltreoceano, a New York, si svolge l’attività di un gruppo di musicisti dediti allo sviluppo di nuova musica attraverso l’uso del registratore a nastro magnetico come strumento di indagine e di composizione. L’aspetto tecnico più importante di quest’esperienza è la messa a punto della tecnica del montaggio, consistente nelle operazioni di taglio e ricucitura del nastro magnetico – operazione che ai giorni nostri riveste un ruolo importantissimo -.
Tali musicisti, insomma, avendo a disposizione strumenti elettronici (i primi sintetizzatori analogici) e il nastro magnetico (che dava la possibilità di fissare su un supporto qualsiasi tipo di suono) hanno dato vita a composizioni di elevato spessore culturale che segnano una svolta nella storia della musica occidentale. Le opere stravolgono la grammatica musicale classica, basata sui dodici suoni riportabili su varie ottave ed organizzate secondo criteri più o meno armonici o melodici. La tecnologia di quegli anni offriva la possibilità di comporre i suoni prima del convenzionale comporre coi suoni. Prima di allora i suoni erano predefiniti, ancorati com’erano alle loro fonti generatrici, gli strumenti tradizionali acustici. Con l’avvento dell’elettroacustica e i primi strumenti elettronici l’atto del comporre investiva anche la microstruttura, i singoli suoni, oltre alla macrostruttura, l’intera opera musicale. Si hanno quindi due distinti domini di modellizzazione, sviluppati dalla musicologa francese Marie-Elisabeth Duchez: uno riguardante il materiale sonoro, l’altro riguardante la struttura che articola il materiale sonoro nel tempo. Si hanno cioè:

modelli del materiale: tecniche di sintesi ed elaborazione del suono, con relative rappresentazioni acustiche/psicoacustiche che influenzano la concettualizzazione del suono da parte del musicista;

modelli della struttura musicale: tecniche di sintesi ed elaborazione dell’articolazione del flusso musicale, ovvero metodi di organizzazione del materiale e regole di relazione tra eventi sonori o gruppi di eventi sonori.

I primi riflettono le conoscenze in gioco all’atto del comporre-il-suono (microstrutture). I secondi incorporano le conoscenze in gioco all’atto del comporre-coi-suoni (macrostrutture). [Agostino Di Scipio, Teoria e Prassi della Musica nell’era dell’informatica, pg 18]

Al microlivello si trattano argomenti più legati alla fisica del suono, alla tecnologia elettronica digitale e alla tecnica di elaborazione di segnali audio campionati – operando così su problemi espliciti e generalmente ben definiti, comuni a più stili musicali e a diverse concezioni compositive -.
Al macrolivello, invece, l’obiettivo principale, rappresentato dall’opera musicale completa, non è facilmente scomponibile in un insieme organico di problemi semplici.

Nessun commento: