la musica elettronica e la sua storia_il musicista e la composizione elettronica_l'oggetto musicale

MEDIAZIONI TECNOLOGICHE. L'ESPERIENZA MUSICALE INCONTRA IL DIGITALE

Importanza della conoscenza per il compositore

I nuovi mezzi tecnici applicati alla musica richiedono delle conoscenze e delle competenze che non riguardavano il musicista tradizionale.
Se con gli strumenti tradizionali il compositore poteva rimanere all’oscuro della struttura tecnica e del funzionamento del suo strumento, le nuove tecnologie applicate alla musica costringono il compositore a nutrirsi di conoscenze tecniche oltre a quelle musicali.
Si ripresenta in tal modo, la già citata contrapposizione tra musica e scienza-tecnologia.
Mantenuta per secoli, non senza qualche dubbio, questa contrapposizione rischia di crollare di fronte all’attenzione generale di addetti ai lavori e non.

Il computer sembra svelare l’inconsistenza di questa dicotomia, richiedendo ai compositori suoi utilizzatori notevole competenza tecnica, oltre a quella musicale. Fino a qualche tempo fa questa sorta di dicotomia era facilmente riscontrabile anche nell’ascolto delle opere musicali realizzate con l’elaboratore elettronico. Validi musicisti, con una solida preparazione alle spalle, scontavano però le proprie carenze in termini di conoscenze tecnico-scientifiche; non riuscivano, cioè, a sviluppare effettivamente le possibilità compositive del mezzo elettronico, realizzando spesso opere che avrebbero potuto essere prodotte con altri mezzi, nelle quali non si avvertiva alcuna necessità musicale del computer. D’altro canto, ottimi ricercatori, capaci di padroneggiare il mezzo, realizzavano lavori carenti sul piano eminentemente musicale ed espressivo. [Tamburini A., Il calcolatore e la musica : informatica musicale, compositore e pubblico, F. Muzzio, Padova, 1988]

Oggi questa dicotomia forse risulta essere meno marcata; si nota come molti giovani si accostano al computer con la disinvoltura tipica di chi è nato e cresciuto con l’informatica, dando per scontati alcuni meccanismi che ad un occhio non abituato potrebbero apparire incomprensibili.
Ribaltando però il punto di vista, il fatto di trovare oggi, più facilmente che ieri, in un compositore sia la competenza musicale sia quella tecnica potrebbe essere dovuto al differente grado di preparazione musicale richiesto oggi al musicista. Durante quest’ultimo decennio il numero dei compositori è notevolmente incrementato, e questo grazie all’uso delle nuove tecnologie. Ma questo ringraziare le nuove tecnologie può anche voler dire: la soglia che deve essere oltrepassata per essere riconosciuto compositore si è notevolmente abbassata grazie alle nuove tecnologie, ed è così che il titolo di “compositore” appartiene a sempre più persone.
Comunque, al di là di queste considerazioni, la cosa che è importante rilevare è che per il compositore odierno il modello di autonomia e di compiutezza ottimale consiste non tanto in una cultura musicale di tipo tradizionale quanto in una vasta conoscenza di tipo tecnico-scientifico.
Se è vero infatti che il computer offre a tutti i suoi utilizzatori un nuovo livello di libertà creativa, è vero anche che l’effettivo esercizio di questa libertà è accessibile solo dopo aver acquisito nuove conoscenze.
La conoscenza assume quindi un ruolo fondamentale nella nuova musica e cresce il valore dell’informazione. Molti sono i luoghi e i soggetti che fanno circolare l’informazione ma sicuramente uno, più di tutti, contribuisce al suo diffondersi: è un luogo virtuale, è un luogo di comunicazione, è internet.

Piccoli e grandi sistemi musicali

Una delle prime novità che saltano all’occhio nell’analizzare il ruolo del “nuovo” musicista consiste nella diversa dimensione dell’ambiente nel quale egli si trova ad operare.
Negli ultimi anni i cosiddetti piccoli sistemi, sorti all’interno di piccoli centri, studi e laboratori, soprattutto privati, hanno compiuto un grosso salto di qualità affiancandosi ai grandi sistemi musicali.
I piccoli sistemi si fondano sull’utilizzo, il perfezionamento e il potenziamento di sempre più sofisticati sintetizzatori digitali, campionatori e sequencer i quali oramai hanno conquistato una grossa fetta di mercato, dato il continuo aumento del bacino di utenza.
Grazie a queste macchine, ma soprattutto, grazie al personal computer e ai suoi software musicali, il musicista può oggi lavorare a casa in una sorta di “laboratorio domestico” senza dover ricorrere necessariamente a centri specializzati.
Il compositore non è quindi più parte di un processo che si snoda attraverso grandi centri di produzione ma, data la possibilità di svolgere il lavoro perfino all’interno delle mura di casa sua, è in grado di assistere il lavoro e di esercitarne il controllo personalmente in ogni minima parte, dalla creazione del suono fino alla sua organizzazione formale in sequenza.
D’altronde, uno degli aspetti più interessanti del computer è proprio quello della libertà che offre in termini di costi, spazi, possibilità di vedere realizzata la musica che si scrive o si pensa.
Il processo di autonomizzazione dei compositori, che prevede un impulso dato agli studi personali, privati, a casa propria, è in continuo sviluppo e segnerà sempre più le dinamiche proprie della musica futura.

Il ruolo del musicista

Si è visto come la musica elettronica, musica cioè composta attraverso l’uso delle tecnologie digitali, sia un campo di idee relativamente giovane del quale solamente da poco tempo si è avuto modo di definirne connotati linguistici e formali.
Di conseguenza, l’approccio che ogni singolo musicista viene ad avere col mezzo elettronico può essere molto diversificato. Dal musicista che, formatosi in un ambiente di musica tradizionale, vede nel computer un ampliamento o un’estensione delle possibilità offerte dagli strumenti tradizionali, fino al musicista (o non musicista) che, nato e cresciuto nell’ambiente digitale ha una visione completamente diversa riguardo alla composizione e alla produzione musicale.
Nel primo caso si tratta di assumere un linguaggio in fondo già codificato per la musica tradizionale e di adattarlo al computer: come se si volesse realizzare un’idea vecchia con mezzi nuovi.
Nel secondo caso potremmo avere a che fare con concezioni che rifiutano qualsiasi legame con il passato dando luogo a funzioni, processi e a procedimenti completamente nuovi.

Nuove forme compositive

Per quanto riguarda le procedure compositive, un’opera tradizionale, una canzone, innanzitutto è pensata linearmente, con un inizio e una fine. Costruendo diacronicamente prima, e solo dopo sincronicamente, una partitura si giunge alla definizione di una struttura formale composta da varie sezioni.
Seguiamo una descrizione dettagliata della struttura canzone data da Agostini:

“Una canzone è una breve composizione musicale cantata, con un testo verbale di carattere poetico. Possiede una struttura formale codificata che solitamente, in base alle segmentazioni presenti nel testo poetico, è composta da sezioni come strofe, ritornelli, verses, choruses e bridges la cui connessione è regolata da alcune elementari norme. Una canzone è quindi una forma musicale chiusa, autonoma: possiede un inizio e un finale ben chiari, spesso annunciati rispettivamente da un’introduzione e una coda, e si sviluppa seguendo forme codificate (per esempio, strofa/ritornello, forma strofica, verse/chorus/bridge). Inoltre kla parte principale di una canzone è la melodia. Una canzone è infatti costituita da una linea melodica ben cantabile e orecchiabile in primo piano che risalta su un accompagnamento. Quest’ultimo è a sua volta costituito dall’insieme di una base ritmica e una struttura armonica a volte da linee di basso particolarmente pronunciate. Nelle sezioni in cui non compare la voce troviamo linee melodiche strumentali.” [Roberto Agostini, “Techno ed esperienza ambientale”, in Techno-Trance, a cura di Gianfranco Salvatore, Castelvecchi, Roma, 1998]

Nella nuova musica, che indicherò genericamente con il termine techno non abbiamo traccia alcuna delle caratteristiche che Agostini ha attribuito alla tradizionale canzone, come egli stesso afferma.
In essa – riferendosi alla musica techno – non vengono applicate le consuete tecniche di composizione, di variazione e di sviluppo melodico-armonico o contrappuntistici, e quindi non si vengono neppure a creare successioni accordali che formino ampie architetture armoniche, né linee melodiche dall’andamento articolato. [Roberto Agostini, “Techno ed esperienza ambientale”, in Techno-Trance, a cura di Gianfranco Salvatore, Castelvecchi, Roma, 1998]
Avendo sempre come punto di riferimento i software musicali, si nota come la struttura stessa di queste applicazioni per computer porti alla stratificazione di più tracce che eludono il dualismo tradizionale melodia-accompagnamento.
Il multitraccia offre la possibilità di disporre di un’infinità di tracce nelle quali poter caricare i file wave e porta all’abbattimento della tradizionale partizione della composizione in melodia e accompagnamento in favore di una stratificazione di elementi sonori.
La techno è stratificata in quanto è costituita da dall’insieme simultaneo di vari strati sonori che a loro volta sono costituiti da una o più tracce sonore. La techno è infatti una musica che nasce dalla sovrapposizione di tracce ognuna delle quali costituita da unità che si ripetono in sequenza, da sonorità tenute o suoni isolati. Ogni traccia viene immessa o tolta dal continuum attraverso operazioni di missaggio. Ora, nella musica techno le tracce tendono ad organizzarsi alla percezione in strati sonori che possono essere formati da un’unica traccia o dall’insieme di più tracce. Tali strati tendono a configurarsi in insiemi verticali regolati dalla logica della libera giustapposizione più che dalla rigida gerarchia che regola il modello melodia-accompagnamento. [Roberto Agostini, “Techno ed esperienza ambientale”, in Techno-Trance, a cura di Gianfranco Salvatore, Castelvecchi, Roma, 1998]
Questo è ciò che si può definire composizione sincronica in opposizione al modello di composizione diacronica.
Nel primo si fa attenzione più alla sonorità che viene fuori dall’accostamento simultaneo di più tracce (ognuna già con una propria sonorità), mentre nel secondo l’attenzione è rivolto in larga parte allo sviluppo diacronico di una singola traccia.
Con l’opzione “play loop” è possibile ascoltare all’infinito una porzione di testo musicale selezionata ed eventualmente caricare nelle tracce sottostanti altri file wave. Con la possibilità di aggiungere in tempo reale altri file si può testare la sonorità complessiva e, se non piace, eventualmente sostituire la traccia indesiderata.
L’opzione “play loop” ci porta direttamente alla considerazione di un’altra caratteristica fondamentale della musica composta per mezzo di software: la ciclicità del flusso sonoro.
Difficilmente nella musica techno incontriamo una caratterizzazione di un inizio e di una fine, le strutture musicali tendono a tornare costantemente su loro stesse, non concludono mai.
Soffermiamoci ancora ad analizzare la natura delle nuove tecnologie applicate alla musica al fine di ricercare una causa di questa seconda caratteristica peculiare della nuova musica.
Due sono i principali mezzi di produzione musicale che concorrono a definire in tal modo le nuove composizioni: la batteria elettronica e l’uso massiccio di loop.
La programmazione inizia di solito col creare un pattern di batteria: si seleziona uno dei quattro strumenti percussivi disponibili e si comincia a cliccare sui sedici pulsanti colorati che corrispondono ad altrettanti sedicesimi di una battuta di 4/4 fino a scrivere la figura desiderata, quindi si passa a un altro strumento e così via. Il flusso sonoro scorre dal tasto 1 fino ad arrivare al tasto 16, e poi torna indietro al tasto 1, continuamente, senza fine; suonando ogni volta che incontra i singoli colpi che noi abbiamo segnato.
E’ chiaro che questo modello di programmazione condiziona pesantemente il modo di lavorare bloccandolo in ripetizioni continue ma d’altronde la musica techno, cui il programma è inequivocabilmente dedicato, si basa soprattutto sulla serialità e sulla ripetizione di pochi schemi fondamentali.
Esportando il risultato in formato wave, è possibile caricarlo in una traccia del nostro multitraccia e eventualmente affiancarlo ad un (o più) loop della miriade di loop disponibili.
Dall’intersezione di questi due (o più) elementi, entrambi ripetitivi, non può non risultare un andamento ciclico, circolare, del flusso sonoro che annulla le tensioni armoniche e melodiche. Esse infatti, come ho suddetto, non rivestono più un ruolo fondamentale in una musica nella quale i tratti principali sono costituiti da ritmo e sound.
Da queste considerazioni ne deriva che il musicista non necessita di una competenza specifica nel suonare (nell’accezione tradizionale di questo termine) uno strumento.
Egli infatti non ha bisogno di imparare e di esercitarsi il maggior tempo possibile nella pratica manuale per acquisire una tecnica sopraffina sul suo strumento.
Magari dovrà impossessarsi di preziose conoscenze per “far suonare” al meglio i nuovi strumenti digitali di cui dispone ma certamente non dovrà praticare esercizi, avvolte notevolmente noiosi, che il suonare uno strumento tradizionale comunemente necessita.
Forse si è spostato il punto nella catena di produzione musicale che viene normalmente indicato come composizione.
Se prima la composizione era individuata nel momento in cui il musicista, ispirato dalle più varie entità materiali ed immateriali, si trovava di fronte al proprio strumento e inventava linee melodiche più o meno estasianti, adesso viene individuata nel momento successivo, ovverosia nell’ambito dello studio di registrazione (casalingo o meno);

A questo proposito va infatti detto che lo sviluppo della techno coincide con il fatto che (…) risulta ormai totalmente acquisito e socialmente condiviso che il lavoro svolto in studio non è affatto un lavoro volto ad ottenere la riproduzione di una musica data (eseguita o scritta) attraverso un mezzo elettronico, ma un vero e proprio lavoro di composizione, o meglio di produzione elettronica di musica. [Roberto Agostini, “Techno ed esperienza ambientale”, in Techno-Trance, a cura di Gianfranco Salvatore, Castelvecchi, Roma, 1998]

Altra grande novità nell’uso del computer in musica consiste nella possibilità di simulazione che esso ha introdotto nel processo compositivo.
Il modo tradizionale di comporre prevede che il compositore immagini i suoni dei brani che sta componendo o che tutt’al più li possa riprodurre con uno strumento tradizionale (in genere lo strumento di composizione classico è il pianoforte). Oggi, grazie al computer, il compositore può simulare ed ascoltare immediatamente diverse varianti, e spesso memorizzarle, modificando radicalmente il suo rapporto con il processo compositivo. Quest’ultima possibilità sottolinea di conseguenza la più volte citata attenzione che il compositore dedica al timbro.
Ma attenzione, non tanto, come spesso si sostiene, per le teoriche possibilità illimitate di creazione di timbri che il computer consente, quanto per le possibilità infinite di simulare, con riascolto immediato, i suoni o le combinazioni di suoni che il compositore progetta.
Strettamente legato a ciò esiste la possibilità quindi di memorizzare con relativa facilità soluzioni scartate, o più soluzioni di uno stesso progetto, che possono essere recuperate in momenti diversi.
Il compositore può simulare quindi diverse realizzazioni di un suo progetto compositivo in un processo continuo di feedback tra progetto e sue attuazioni.

La nuova musica

Prima di iniziare ad esaminare più nello specifico i suoni e le pratiche della nuova musica bisogna definire l’area di significato del termine nuova, per non dare adito a fraintendimenti.
Per indicare tutto quello che intendo comprendere nella definizione di nuova musica partirò con il definire ciò che nuova musica non è.
Nuova musica si contrappone a musica tradizionale. Per quest’ultima intendo tutta quella musica basata su tradizionali procedure compositive, che viene suonata da musicisti che hanno una competenza, più o meno specifica, nel suonare uno strumento, e che questo strumento non sia composto da tecnologie elettroniche. Nella musica popolare moderna, che paradossalmente definiremo tradizionale a causa del confronto qui costruito con la nuova musica, la forma più diffusa è costituita dalla canzone e proprio a questa farò riferimento.
Procediamo nell’esaminare ognuno dei tre elementi individuati: procedure compositive, competenza nel suonare uno strumento, natura dello strumento.

Cambiamenti

Nella seconda metà degli anni ottanta, l’impulso principale verso nuove sonorità e verso nuove musiche proviene dalla musica da ballo urbana e dalla musica popolare afroamericana, senza considerare il contributo dato dal lavoro di una figura professionale che stava sviluppando grande raffinatezza nell’uso delle nuove tecnologie applicate alla musica: il dj.
Quest’ultimo, infatti, stava sviluppando una grande competenza nell’utilizzo delle moderne tecnologie quali campionatori, sequencer, batterie elettroniche e computer. È proprio nell’ambito della “musica da ballo” che le nuove tecnologie trovano una porta aperta per entrare a pieno diritto nell’insieme degli strumenti atti a produrre musica.
Ma questo perché siamo ancora agli inizi.
In seguito, a partire dagli inizi degli anni novanta, molti musicisti iniziano ad interessarsi all’uso delle moderne tecnologie dando vita a movimenti e percorsi artistici che non sono sovrapponibili all’ambito dance.

Quando, alla fine degli anni Ottanta, cominciano a lavorare musicisti come Aphex Twin-Richard James e si sviluppano la techno di Detroit, la House di Chicago e l’acid house inglese, siamo già nel pieno della musica techno (…) – e siamo anche nel pieno di una riconfigurazione globale del campo della musica popolare contemporanea, della sua estetica e dei suoi suoni: una riconfigurazione che costringe i musicisti più orientati verso l’attualità a prendere atto dello sviluppo di una nuova sensibilità musicale a livello internazionale, che spinge gli “addetti ai lavori” a riconvertirsi (o riciclarsi) e che, infine,disorienta i teorici, con il loro bagaglio di conoscenze consolidate. [Roberto Agostini, “Techno ed esperienza ambientale”, in Techno-Trance, a cura di Gianfranco Salvatore, Castelvecchi, Roma, 1998]

Questi sono gli anni durante i quali i nuovi strumenti cominciano ad essere adeguatamente interiorizzati dai musicisti, e i brani prodotti con strumenti elettronici digitali non vengono più accusati di essere “meccanici”. Insomma il nuovo sound entra a pieno nell’immaginario collettivo del musicista moderno.
Proviamo a dare uno sguardo più in profondità ai cambiamenti che l’uso delle nuove tecnologie producono sia nell’ambito dell’estetica musicale, sia nella considerazione del ruolo e delle pratiche del nuovo soggetto produttore di musica.

Nuova estetica musicale

La musica, medium attraverso il quale da sempre l’uomo comunica sentimenti e stati d’animo, risulta notevolmente influenzata dall’uso delle nuove tecnologie, medium a loro volta che permettono la produzione, divulgazione e ricezione sonora.
Sotto questo punto di vista le nuove tecnologie per la produzione musicale diventano una sorta di meta-medium dal quale derivano nuove proporzioni nel nostro agire socio-culturale, e, in fin dei conti, nella nostra esperienza musicale.
Che le nuove tecnologie abbiano, forse definitivamente, trasformato alcuni modi tradizionali di comporre, produrre, riprodurre, divulgare e ascoltare musica non è una novità di questi anni. Come ho già avuto modo di esporre nei capitoli precedenti, le prime influenze sull’estetica musicale derivate dall’uso delle nuove tecnologie risalgono agli anni seguenti il dopoguerra durante i quali alcuni compositori come Varese, Shaeffer, Cage, Pousseur, Xenakis, Stockhausen – solo per citarne alcuni –, intraviste le reali potenzialità di ampliamento del panorama sonoro che si stava prospettando, si cimentarono nell’uso dei nuovi strumenti.
Dagli anni ’80 in poi, le risorse offerte sia dalla sintesi elettronica che dal campionamento digitale del suono hanno esaltato la sensibilità timbrica, mentre l’uso dei sequencer, con la loro possibilità di produrre facilmente sequenze percussive in tempo non reale [in genere le linee ritmiche create da un sequencer sono create prima della loro immissione in una song, consentendo quindi un accurata e puntuale programmazione.] ha enormemente contribuito alla prassi poliritmica.
Timbro e ritmo dunque; due fattori che, combinati, disegnano in modo abbastanza preciso la tendenza della musica odierna.
Ma timbro e ritmo erano anche le caratteristiche della nuova musica dei primi anni durante i quali si faceva uso – un uso che era però ristretto a pochi – delle tecnologie elettroniche e, ancor prima, di quello che viene denominato come il “Novecento musicale colto”.
Conseguentemente a queste considerazioni, si potrebbe considerare la musica di questi anni come una naturale conseguenza della musica pionieristica del dopoguerra; nessuna rivoluzione, nessuna frattura, ciò che abbiamo di fronte possiede un carattere di continuità storica.
A ben guardare, quindi, il capovolgimento del tradizionale buon senso musicale, che fa storcere il muso a molti e fa eccitarne altrettanti, non è una rivoluzione che nasce dal nulla, non è una sorta di magma indefinito che nasce dalle ceneri della vecchio, ma è una fungo.
Come tale abbiamo la possibilità di vederne solo la parte in superficie.
Una mattina a metà tra gli anni ’80 e i ’90 ci siamo svegliati e abbiamo trovato nel nostro giardino musicale un bel gruppo di funghi che non ricordavamo di aver visto il giorno precedente. Funghi succulenti, mai visti, curiosi, strani. Di nuove sonorità sono dotati questi funghi, immediatamente attirano le nostre orecchie e insieme tutto il nostro corpo, dato il ritmo che, attraverso le numerose tracce sonore perfettamente amalgamate nel gambo-sequencer, giunge sin sopra al cappello.
Essi attirano subito la nostra attenzione inducendo in noi una irrefrenabile curiosità data la velocità con la quale essi sono venuti fuori dal vuoto e piatto terreno della sera prima.
Ma a ben vedere, scavando a fondo nella terra si scopre una fitta rete di radici che hanno generato i funghi in superficie.
Ci sorge un dubbio. Chi sarà stato a piantarli? La risposta si trova nel passato, dove non può essere altrimenti; coraggiosi musicisti-agricoltori d’avanguardia hanno seminato tanti anni fa la speranza di un rinnovamento musicale che andasse a scalfire la tradizionale tendenza musicale costituita da uno sviluppo melodico e da densità armoniche [questa era la tendenza imperante per tutto l’Ottocento]. Pazienti esploratori, hanno piantato e aspettato, fino a quando le condizioni climatiche ottimali hanno permesso la nascita delle nuove piante.
Da quella mattina molti si sono cibati di quei funghi trovando nuovi stimoli e instradandosi in nuove prospettive che a seconda dei casi, si sono rivelate talvolta vere e fruttuose, talvolta fasulle.
Di fronte a questi funghi, nel nostro giardino musicale, non tutti si sono trovati a loro agio e non tutti hanno scelto di utilizzarli come pasto quotidiano.
Alcuni li hanno considerati come parassiti. Piante che vivono sulle spalle di altre piante, musiche che si cibano di altre musiche e che senza di queste non potrebbero vivere, piante che, a seconda delle piante alle quale sono vicine e attaccate, ne succhiano la linfa vitale decretandone la fine. Snobbandone la loro – non importa se presunta o reale, non sta a me giudicare – natura, se ne sono allontanati segregandoli in un pezzo di terra distaccato dal tradizionale giardino musicale.
C’è chi addirittura li ha catalogati come piante velenose, nocive per l’uomo, ed ha individuato nella loro struttura, fatta di procedure compositive nuove, un impoverimento delle possibilità musicali dell’essere umano.
Non importa chi ha ragione o torto, il fatto è che sempre più persone si sono buttate a capofitto in una nuova esperienza musicale che, attraverso le possibilità offerte dalla tecnologia e dall’elettronica, potrebbe portare a nuove e inesplorate prospettive trasformando il fin-qui-inudito in udibile.

Gli editor

Gli editor sono forse le applicazioni nelle quali meglio si può rintracciare l’innovazione introdotta dai computer nel processo di produzione musicale. Infatti oltre alla possibilità di registrare e riprodurre soundfile più estesi, una delle caratteristiche più importanti di un registratore su hard disk è la velocità e la facilità con la quale esso può attuare un ampio editing su un soundfile, se comparate con il tempo che sarebbe necessario per attuare una funzione simile su un registratore analogico.
Se nel mondo analogico le operazioni di "taglia, copia e incolla" erano limitate da un lato dalla maestria con cui si tagliava il nastro a colpi di lametta da barba e dall'altro dal rumore di fondo che aumentava a ogni riversamento, il digitale ha fatto dell'editing uno dei suoi cavalli di battaglia.
Come ho già avuto modo di spiegare, sullo schermo abbiamo di fronte un nastro virtuale, un simbolo che rappresenta il corrispettivo analogico. Su quest’ultimo era necessario andare ad operare letteralmente con forbici, se si desiderava tagliarne una parte.
Nel mondo digitale l’operazione è notevolmente semplificata: è sufficiente evidenziare la parte sulla quale si è deciso di intervenire e successivamente “cliccare” sul tool che ci interessa, nel nostro esempio le forbici.
Un segnale audio digitale è sostanzialmente una sequenza di numeri binari che in un computer sono espressi in forma di bit. La manipolazione dell’audio digitale da parte dell’elaboratore è pressoché identica al modo con il quale esso elabora immagini grafiche, testo o altro materiale. Il paragrafo seguente esporrà brevemente i vari strumenti dell’editing e le loro funzioni.

Funzioni generiche di un’applicazione di editing digitale.
IL numero di funzioni di elaborazione e il grado di complessità e di flessibilità variano spesso da applicazione ad applicazione.

Le operazioni di editing comuni a quasi tutti i programmi per l’elaborazione digitale sono:
• Cut: permette di cancellare una sezione di audio digitale, precedentemente selezionata con il mouse. Tramite questa funzione l’applicazione mette in memoria la regione illuminata e cancella i dati selezionati dalla loro posizione corrente.
• Copy: permette di copiare una sezione di audio digitale. L’applicazione mette in memoria la regione illuminata ma non altera la forma d’onda in alcun modo.
• Paste: permette di inserire i dati contenuti in memoria in una sezione definita dall’utente.
• Clear: ha la stessa funzione di cut ma l’applicazione non mantiene il materiale in memoria.
• Trim: permette di cancellare tutto l’audio digitale eccetto quello selezionato con il mouse.
Le funzioni di cut, copy e paste sono perfettamente analoghe a quelle usate nei programmi di scrittura o nei programmi di grafica.
• Sfumatura (fade) e sfumatura incrociata (crossfade): in fade in e il fade out rispetto a una regione sono funzioni che calcolano l’ampiezza relativa del file audio lungo la sua durata. Il fade aumenta (fade in) o diminuisce (fade out) proporzionalmente il volume di una regione da meno infinito al massimo livello possibile o viceversa. Il crossfade è spesso usato per avere un passaggio meno drastico tra due segmenti audio, che possono essere diversi per sonorità o ampiezza, in un ben definito punto di editing.
• Equalizzazione: è una funzione che determina il livello delle differenti frequenze di un suono. Essa varia di forma e grado all’interno di flessibilità a seconda dell’applicazione. L’equalizzazione digitale controllata tramite software permette all’utilizzatore di equalizzare una singola regione o traccia, oppure l’intera song con automazione e ripetibilità complete.
• Variazione di intonazione: permette di variare, in aumento o in diminuzione, l’intonazione relativa ad una regione ben precisa, o di un intero file audio, di un dato rapporto percentuale o di un intervallo musicale.
Oltre alla velocità e alla semplicità di esecuzione delle operazioni un vantaggio dell’uso del computer in questa fase della produzione musicale è costituito dall’enorme e precisa visuale che lo schermo di un personal computer offre.

Editing grafico su display
In sistemi di questo tipo diventa fondamentale poter contare su una rappresentazione grafica della forma d'onda che consenta di visualizzare, oltre che sentire, i punti di taglio e inserimento: sotto questo aspetto, le macchine hardware stand alone sono ancora indietro rispetto alla flessibilità di visualizzazione dei sistemi basati su personal computer
Il computer, oltre a permettere di ascoltare in tempo reale il suono, dispone graficamente le informazioni del file audio. Se si osserva la rappresentazione grafica di quest’ultimo, si può rimanere sorpresi dalla velocità e facilità nel trovare e definire i suoi segmenti.
Uno dei modi più funzionali e più usati per disporre un file audio sullo schermo di un computer , tanto da esser diventato quasi uno “standard di rappresentazione grafica”, è di ordinare le forme d’onda come una serie di linee verticali, che rappresentano l’ampiezza globale della forma d’onda in quell’istante di tempo.
Questo tipo di rappresentazione è del tipo WYSWYG (What You See is What You Get, vale a dire ciò che vedi è effettivamente ciò che hai), perché dispone la forma d’onda come una sequenza continua di dati, con direzione sinistra/destra.
A seconda del sistema usato, della lunghezza del file, e del grado di zoom, può apparire sullo schermo l’intera forma d’onda o solo una sua parte, e la parte restante continua al di fuori dello schermo.
A questo punto si può più facilmente comprendere il perché della superiorità dell’editing digitale su quello analogico. L’editing grafico su computer è molto diverso dal tradizionale approccio con lametta per editare [italianizzazione del termine inglese “to edit”] il nastro analogico, esso dà informazioni molto più precise sia sulla composizione dell’oggetto da manipolare sia maggiori informazioni grafiche e audio sul preciso e possibile punto di editing.

“Quando si lavora in un ambiente di editing grafico, un segmento ben definito di soundfile è spesso inteso come regione. Di solito si può definire una regione posizionando il cursore all’interno della forme d’onda e poi premere il mouse, e, tenendolo premuto, spostare il cursore alla destra o alla sinistra del punto iniziale. Di solito la regione selezionata è illuminata in maniera particolare per una più facile identificazione. Dopo che si è definita la regione, la si può editare, contrassegnare, darle un nome o processarla diversamente.”
[Runstein, R. E., Huber, D. M., (1999), “Manuale della registrazione sonora”, Hoepli, Milano, pag 225]

Usando l’editing grafico, le forme d’onda che sono state tagliate , mescolate, invertite e assemblate, sono riprodotte visualmente sullo schermo. Se dunque si prevede di fare ampio uso dell'editing, bisognerebbe scartare quelle macchine in cui la musica è rappresentata come una successione di rettangolini e orientarsi obbligatoriamente su quelle dotate di display "cinematografico" e rappresentazione della waveform (forma d’onda).
Oltretutto un sistema di editing digitale permette di ritornare alla versione originale del file, se non si è soddisfatti del risultato finale.

Editing distruttivo e non distruttivo.
Esistono due modi diversi per affrontare l’elaborazione digitale di un segnale: l’editing distruttivo e non distruttivo.
L’editing di tipo distruttivo determina, ogni qualvolta si opera sul segnale, delle modifiche irreversibili. Ad esempio, se un loop di batteria registrato su hard disk si applica un qualsiasi effetto, il software di editing andrà a modificare direttamente e permanentemente il file sull’hard disk. In questo caso non sarà permesso annullare l’operazione appena compiuta.
I vantaggi nell’utilizzazione di questa tecnica sono molto pochi se non nulli ed infatti essa non è usata quasi da nessuna applicazione.
I software di editing più diffusi ed usati, per così dire i leader del mercato, praticano la tecnica dell’editing non distruttivo.
Quest’ultimo infatti permette di modificare un segnale e di non alterare la sorgente originale del segnale stesso. Ciò è possibile grazie al fatto che, quando si apre un campione, il computer crea una copia (immagine) del file stesso ed opera direttamente su di essa, senza modificare il file originale.
Questa inestimabile funzione della tecnologia di registrazione audio digitale permette di attuare un numero infinito di edit, di variazioni, di versioni del programma, e così via, e di salvarle su disco senza alterare il suono o l’esecuzione originale.
Il processo di editing non distruttivo è compiuto mediante l’accesso a precisi segmenti di soundfile registrato, e la loro riorganizzazione secondo un elenco di editlist (indice dell’editing), definito dall’utilizzatore. In effetti, quando si usa un mouse per scegliere (evidenziare) una specifica regione, si ordina al programma di definire un blocco di memoria che comincia in un punto (indirizzo) di memoria ben preciso sull’hard disk , e che continua fino a che l’indirizzo finale è stato trovato. Una volta definite, queste regioni sono inserite nell’elenco in maniera tale che si possa accedere ad esse e riprodurle in qualunque ordine, senza agire sul file originariamente registrato.
[Runstein, R. E., Huber, D. M., (1999), “Manuale della registrazione sonora”, Hoepli, Milano, pag 225]
Naturalmente questa possibilità è molto gradita al musicista che è in grado di provare e riprovare ogni possibilità di editing sul suo materiale senza dover operare in maniera definitiva ed irreversibile.
E forse è anche da questa possibilità che la tecnologia di registrazione audio digitale permette che scaturisce la pratica diffusa di creare differenti versioni dei propri brani.

Musica globale

È impressionante la facilità con la quale è possibile in un sequencer importare, montare e sincronizzare i segmenti di audio; basta selezionare la traccia nella quale si è deciso di importare il file wave – per esempio una linea di basso – e premere il comando “import wave” (o simili). Se ne potrebbe importare un secondo : si seleziona una seconda traccia e con lo stesso procedimento appena descritto si importa una sequenza di batteria. Una volta sincronizzati i due file (e guarda caso nel sequencer è sempre prevista la funzione di sincronizzazione) risulterà una sequenza musicale formata da basso e batteria che potremmo usare come base ritmica per una nostra composizione.
Allo stesso modo del basso e della batteria è possibile importare qualsiasi suono che circola nel mondo. Così ci si trova spesso di fronte a composizioni “collage”, a montaggi sonori aperti ad ogni accostamento possibile. È questa forse la caratteristica dominante della musica dei nostri tempi. Musica piena di contaminazioni, slegata dalle catene dei generi musicali, dalle etichette – da intendere “definizioni” -.

È ormai consueto ascoltare accostamenti fra strumenti di tradizioni e culture differenti.
La musica mondiale continua ad attingere a queste isole impercettibili ma molto vive, alle antiche tradizioni locali, come pure ad una creatività poetica e musicale inesauribile e ampiamente distribuita. Nuovi generi, nuovi stili, nuovi suoni appaiono costantemente, ricreando le differenze di potenziale che animano lo spazio musicale planetario.
[Lévy, P., “Cybercultura, Gli usi sociali delle nuove tecnologie”, Feltrinelli, Milano, (1997 Editions Jacob), Fabbri 1999]

Attualmente stiamo assistendo a un fenomeno che riguarda in particolare tutta la musica leggera strumentale: house, techno, dance, ambient e ogni altro genere di musica per discoteca, aeroporti, ascensori, sale d'attesa, ristoranti e così via.
Gli autori (creatori o assemblatori) sono perennemente in cerca di elementi caratterizzanti le loro opere perché si distinguano nel mare di musica che quotidianamente si riversa sul mercato. E pare abbiano individuato un procedimento piuttosto efficace: assemblare elementi nostrani con elementi provenienti da altre culture.
In altre parole, proporre all'ascoltatore elementi noti nei quale si riconosce unitamente a elementi inconsueti capaci di destare il suo interesse. Questo procedimento di assemblaggio, che sembra dare ottimi risultati sul piano commerciale, è facilmente realizzabile utilizzando le moderne apparecchiature elettroniche come i sequencer e servendosi delle numerose raccolte di CD contenenti materiali sonori provenienti da ogni angolo della terra: campioni di strumenti popolari, voci, strutture melodiche, pattern ritmici, il tutto proposto in formato standard: il wave appunto.
Ogni sorta di musica viene campionata, sottratta alla situazione d’origine, mixata, modificata e infine offerta ad un nuovo ascolto.
È una musica “decostruita”, riprendendo una definizione di Chambers, una musica nella quale tendono a vivere i rapporti musica/rumore, cultura/natura, tradizione/innovazione immersi in un continuum dentro cui si può attingere liberamente e creativamente. Ciò porta ad un nuovo modo di porsi di fronte alla musica che procura una rivoluzione nei valori e nei generi musicali. Ciò che prima era nettamente definito, nella sua identità e nei suoi rapporti di differenza ora risulta frantumato e va incontro a ridefinizioni sempre diverse, a nuove strutturazioni contingenti, inattese eppure penetranti, capaci di trovare un loro spazio di esistenza, di valore immediato.
Grazie alle nuove tecnologie si sta vivendo una rivoluzione culturale,

“tutti i generi, nessuno escluso sono gettati nel supermarket dei valori, e lì, screditato ogni pregiudizio, sono sottoposti a qualsiasi uso, aperti agli incontri più svariati”
[Colazzo C., Colazzo S., “Musica e civiltà del computer”, L'editore, Trento, 1993, pag. 26]

I sequencer

Il sequencer è senza dubbio l’applicazione principale dei sistemi di Hard Disk Recording proprio perché esso parte – o meglio, i suoi programmatori - dall’idea di simulare le azioni di un normale registratore a nastro. Nell’ambito della produzione musicale questa è certamente la più ovvia delle prestazioni richieste ad un mezzo informatico, ma il software ci permette di fare molto di più di un normale registratore, persino del più sofisticato esistente sul mercato, grazie al fatto che non esistono limitazioni di tipo meccanico-materiale.

“Uno dei pregi fondamentali di questo genere di simulazione è appunto quella di concepire operazioni impossibili nella realtà quotidiana ma non limitate alla sola “realtà virtuale”. I risultati delle elaborazioni sono veri e perfettamente “tangibili” (“udibili” nel campo musicale).”
[Borgioni M., “I computer per la musica”, Armando Editore, Roma, 1999 ]

Insomma il sequencer software può essere considerato una specie di registratore multitraccia, munito di tutte le funzioni base del più agguerrito “tape” meccanico, ma molto più progredito.
Elenchiamone le funzioni più comuni.
Operazioni di trasporto nastro come: registrazione, riproduzione, avanti veloce, riavvolgimento rapido, ricerca di punti precisi della nostra registrazione e relativa memorizzazione, velocità variabile dell’esecuzione e relative impostazioni del metronomo, riproduzione ciclica di una particolare sezione, sovrascrittura e sovraincisione di una nuova registrazione, ecc.
Visualizzazione ed elaborazione del nastro multi-traccia virtuale come: controllo visivi del materiale registrato, spostamenti, duplicazioni, fusioni, modifiche, ecc.
Gestione dell’input proveniente da fonti esterne.
Gestione dell’output verso l’esterno.
Elemento fondamentale del sequencer è costituito dalle tracce. Naturalmente anch’esse sono virtuali e simboleggiano il vecchio nastro analogico sul quale venivano registrate le esecuzioni dei vari strumenti musicali che componevano una canzone. A differenza del nastro analogico, che può contenere un numero finito di tracce, il sequencer software è dotato di un numero infinito di tracce virtuali e su ognuna di esse può essere registrato separatamente un suono.
Il lavoro di registrazione è notevolmente semplificato; grazie alle tecniche di registrazione in ordine verticale - ipotizzando una difficile parte per pianoforte è possibile registrare prima la mano destra in una traccia e poi la mano sinistra in un’altra - ed orizzontale – si possono suonare separatamente le diverse sezioni di una stessa traccia e poi unirle – o alle tecniche di punch in e punch out [ il punch in equivale a dire: stabiliamo un punto “X” ad una certa distanza temporale da “A”. Facciamo partire (play) da “A”il sistema ed ascoltiamo il contenuto delle tracce. Il sistema, una volta giunto al punto “X”, comincerà a registrare (record) così noi, iniziando a suonare, ci agganceremo in maniera del tutto naturale alle battute precedenti. Il punch out al contrario equivale a dire a: stabiliamo un punto “Y” a una certa distanza da ”X”. Il sistema,che stava prima registrando i suoni, arrivando al punto “Y” interromperà l’incisione senza fermarsi.] si risolvono molti problemi di esecuzione che opprimevano fino a non molto tempo fa il musicista.
Oltre a poter registrare suoni appositamente creati da una fonte esterna – per esempio un qualsiasi strumento, analogico o digitale che sia – il sequencer permette di importare suoni , segmenti di audio, intere canzoni in formato wave (.wav) – il formato standard dell’audio su pc -.
Questa possibilità è oggigiorno molto sfruttata – data l’utenza media di non musicisti – tanto che molti “nuovi compositori” non si preoccupano di suonare e conseguentemente registrare su hard disk la loro performance ma preferiscono adoperare segmenti di audio “preconfezionati”; riff di chitarra, linee di basso, sequenze di batteria, suoni ed effetti sonori di ogni tipo si prestano ad essere montati assieme.
Il “nuovo compositore” non si deve nemmeno preoccupare di campionare, estrapolare il segmento di audio che gli interessa, da un brano esistente. Ci sono altri soggetti che si occupano di questo per lui. Oramai non è difficile trovare file audio contenenti riff di chitarra, linee di basso, arpeggi di pianoforte, effetti sonori, assoli di qualsiasi strumento pronti per l’uso ; essi sono creati apposta per una futura utilizzazione da parte di terzi, per essere montati in composizioni che non erano previste al momento della loro creazione.

Hard Disk Recording

L’HDR è una recente innovazione tecnologica che trasforma l’hard disk del computer in una specie di nastro, virtualmente simile a quello di un normale registratore multitraccia. In questo secondo caso il segnale sonoro viene registrato su una delle tracce fisiche costituite solitamente da un nastro, mentre nel caso della registrazione su hard disk, il segnale viene registrato su una delle tracce simboliche visualizzate sul monitor del computer. Le due tecniche di registrazione, come si può facilmente intuire, sono tra loro molto differenti. I registratori multitraccia analogici sono infatti mezzi lineari, questo vuol dire che la registrazione viene fatta in una sequenza che si muove dall’inizio alla fine; per registrare o riprodurre i segnali sonori esso muove fisicamente il nastro attraverso le testine.
La registrazione digitale su disco rigido è molto differente: invece di essere un mezzo lineare che agisce in modo fisici sul suono, è un mezzo ad accesso casuale (non-lineare) che opera in maniera simbolica. Accedere casualmente ai dati significa poter andare in qualsiasi punto della registrazione senza dover riavvolgere o avanzare il nastro. Questo non avrebbe senso perché il suono non è registrato su un pezzo fisico di nastro ma è immagazzinato in formato digitale.
Questo sistema inoltre permette, una volta quindi trasformato il segnale acustico in dati digitali, di effettuare via software tutte quelle operazioni normalmente svolte da apparecchiature hardware.
I vantaggi sono pertanto notevoli. Ascoltiamo Borgioni mentre fa una descrizione delle macchine hardware:

“Le macchine (hardware) hanno bisogno di costosi componenti elettronici, consumano energia e possono rompersi, sono poco flessibili poiché aggiornarle di solito significa la loro completa sostituzione. Per finire, ogni singola macchina produce rumore di fondo e deformazione del suono originale, che per quanto piccolo, grazie ai vari “collega qui e collega la”, alla lunga fa decadere la qualità del prodotto finale.” [Borgioni M., “I computer per la musica”, Armando Editore, Roma, 1999 ]

Tutti questi problemi e limitazioni non hanno ragione di esistere per i sistemi software.
Innanzitutto il prezzo di questi ultimi è notevolmente inferiore arrivando in media a meno di un terzo dei costi delle macchine hardware, ma forse la maggior qualità di questi componenti è che sono facilmente aggiornabili. Molte aziende, per non dire tutte, di produzione e distribuzione software hanno al loro interno un a divisione che si occupa dell’aggiornamento degli utenti su un particolare software.
Per non parlare poi della miglior qualità che la registrazione e il trattamento di un suono digitale può offrire.
Il sistema di HDR inoltre permette di manipolare soundfiles di lunghezza maggiore a quelli manipolabili da sistemi analogici. La registrazione su hard disk è spesso limitata soltanto dalla capacità dell’hard disk stesso.
Con questi vantaggi, l’HDR ha permesso a numerosi musicisti produzioni audio di qualità, con investimenti iniziali relativamente modesti e con attuali prospettive ancora migliori, grazie ai computer sempre più veloci e ai prezzi dei loro componenti (ram e Hard Disk) ai minimi storici.
Un sistema di HDR è tipicamente composto da un computer, una scheda audio per poter acquisire il segnale e del software necessario. Schematicamente il sistema consta di due fasi principali:

• Registrazione del segnale.
All’interno del computer si possono trasferire contemporaneamente fino a 8 tracce audio: il segnale entra attraverso la scheda e poi passa all’hard disk, per rimanervi memorizzato anche a computer spento. In tale situazione le funzioni svolte dalle periferiche sono:
scheda audio: acquisire il segnale analogico e trasformarlo in digitale, tramite i convertitori AD;
hard disk: memorizzare il segnale audio in formato digitale sotto forma di file di dimensioni considerevoli (circa 10 Mb al minuto per una registrazione stereo, con frequenza di campionamento a 44,1 kHz e risoluzione 16 bit)

• Riproduzione, mixaggio ed elaborazione del segnale.
In riproduzione avviene il passaggio inverso, le tesine dell’hard disk leggono l’audio digitale memorizzato che attraversa la scheda audio giunge ai diffusori per l’ascolto. In tale situazione le funzioni svolte dalle periferiche sono:

hard disk: leggere i file
scheda audio: trasformare il segnale digitale in analogico tramite i convertitori DA di cui è equipaggiata.

Il successo dell’HDR dipende principalmente da questa seconda fase, nella quale i programmi di sequencer audio multitraccia permettono di elaborare in ambiente digitale il segnale registrato, simulando in tutto e per tutto una sessione di lavoro in uno studio di registrazione.

Il suono globale che ci circonda

Data la stretta relazione tra macchina e suoni; è necessario dare uno sguardo anche al mondo dei suoni che gravita intorno a questi nuovi strumenti. I suoni sono per una campionatore quello che i programmi sono per un computer, un necessario riempimento della macchina, altrimenti vuota.
Ultimamente, anche nella pratica di far musica col pc, i suoni rivestono un’importanza fondamentale ed è di uso comune l’impiego di loop e campioni preregistrati.
Dagli anni ’80, con la rivoluzione digitale, fino ad arrivare al panorama musicale odierno, il suono è sempre più slegato dallo strumento, hardware o software che sia. Come abbiamo potuto osservare dalla descrizione del funzionamento dei sintetizzatori e dei campionatori, avendo a disposizione una sola macchina hardware è possibile inserire all’interno di queste macchine un’immensità di suoni diversi.
I suoni quindi occupano un proprio spazio nell’analisi della musica digitale; da una parte ci sono le macchine, gli strumenti hardware o software per la produzione musicale, e dall’altra c’è il materiale, i suoni; entrambi gli elementi concorrono nella definizione di possibilità, nel suggerire pratiche e nella creazione di un linguaggio e di uno stile.
Essi inoltre sono quasi sempre ormai sono costruiti da terze parti e non dal compositore. Abbiamo visto che, tramite le tecniche analogiche a controllo digitale o con le tecniche digitali integrali, si possono ottenere suoni a volontà, ma non esiste sintetizzatore in commercio che non abbia suoni preprogrammati (presets).

Otto, sedici, trentadue, sessantaquattro timbri straordinariamente simili – anche nel nome – a prescindere dalla macchina e dalla tecnica di sintesi. Diversa è ancora la qualità la risposta in frequenza, il rumore di fondo, la finezza con cui sono controllati i fenomeni transitori, ma comune è il tentativo di creare un ordine nell’universo infinito dei timbri possibili.
[Fabbri, F., (1996), “Il suono in cui viviamo. Inventare, produrre e diffondere musica”, pag. 99]

Quest’ordine viene creato non da chi acquista e usa lo strumento , ma da chi lo mette sul mercato.
Un racconto di Fabbri ci informa sulle procedure seguite dai costruttori nel progettare una nuova tastiera.

Le caratteristiche dello strumento, definite da un primo abbozzo tecnico, vengono valutate assegnando un punteggio, in base al quale si decide se lo strumento potrà sostenere la concorrenza. Una componente fondamentale di questo punteggio è data dal numero e dalla qualità dei timbri preprogrammati. Esiste dunque nell’industria un criterio di valore quantitativo sul suono; la presenza di un certo timbro comporta un certo punteggio, la qualità della riproduzione del suono di una sezione di violini (per fare un esempio) può valere più o meno punti. A differenza della ricerca pura, l’industria non ha problemi a usare criteri di valore e ad applicare la matematica all’arte in modo poco decoroso.
[Fabbri, F., (1996), “Il suono in cui viviamo. Inventare, produrre e diffondere musica”, pag. 100]

Quello che avviene per il sintetizzatore lo ritroviamo, con i dovuti aggiustamenti di forma, nella pratica di produzione di musica col pc. La possibilità di gestire audio digitale su PC hanno favorito la diffusione di library (librerie) di campioni e pattern ritmici, sia in formato audio sia dati.
Il supporto preferito è costituito dal CD. Se sfogliamo qualche rivista del settore, ci accorgiamo che lo spazio, redazionale e pubblicitario, dedicato ai CD di campioni è considerevole. All’interno di essi è possibile trovare pattern ritmici di batteria e campioni di percussioni, fill e singoli campioni realizzati da batteristi famosi, riff di chitarra, linee di basso, suoni ed effetti sonori di ogni tipo, insomma, materiale sonoro pronto per l’uso. Qualunque compositore che ricerchi un prodotto “chiavi in mano” e non sia appassionato, o non abbia il tempo per programmare personalmente loop, tonalità, key range, crossfade e altre amenità, può affidarsi a queste librerie.
Il mercato dei suoni è conseguentemente in continua espansione. In Paesi come Stati Uniti, Inghilterra, Francia e Germania, l’acquisto di sample e di loop, è una pratica diffusa tanto che il settore delle library di campioni ha una buona consistenza in termini economici. Anche se le dimensioni globali di quei mercati sono più ampie di quello italiano, anche in quest’ultimo qualcosa si sta muovendo. Le library di campioni iniziano a circolare dentro un utenza di massa anche se il prezzo finale continua a essere elevato per il ridotto potere d’acquisto dei musicisti di casa nostra. In queste condizioni ha buon gioco la pirateria che, nel nostro Paese, influenza fortemente la crescita di un mercato già di per sé potenzialmente ridotto.
L’uso dei campioni comporta un forte e preciso connotato della musica di oggi. Essa viene percepita e fruita considerando, oltre a quello che viene compreso con il termine composizione, soprattutto ciò che identifico come “strutture sonore”, come sound. Una struttura sonora non è vincolata alla definizione limitata di ciascun suono individuale e può estendersi all’impressione globale di suoni molteplici, essa è più complessa, e di solito più estesa di un singolo suono. Nell’utilizzazione dello studio elettronico e del computer, con l’ausilio dei loop, dei campioni, delle piccole porzioni preconfezionate di spazio sonoro, sono le circostanze tecniche a condizionare il sound complessivo di una composizione. Quest’ultima sarà più o meno differente da un’altra generata tramite i medesimi strumenti e con i medesimi suoni ma ne condividerà il sound.
Per concludere vorrei riportare un racconto di Flichy che esplica in maniera esauriente il cambiamento di rotta, avvenuto a seguito della rivoluzione digitale, delle pratiche musicali legate ai suoni attraverso l’uso delle tecnologie.

Vorrei ricordare i miei primi anni allo studio di musica elettronica alla radio di Colonia. Avevo incontrato Stockhausen e conosciuto le tecniche di produzione del suono. Assistevo Stockhausen nel suo lavoro. Una volta mi mostrò un armadio a muro con dozzine di piccoli comparti, evidentemente costruito apposta per lo studio. Dentro i comparti vi erano bustine di plastica che contenevano pezzi di nastro magnetico, con un suono diverso registrato su ogni pezzo di nastro; i segmenti erano incollati ad anello ed arrotolati, in maniera da rendere agevole il montarli su un registratore.
Stockhausen sottolineava che in una composizione elettronica ogni suono aveva una collocazione propria e che non sarebbe mai potuto essere utilizzato in un altro lavoro. La ragione, diceva, era che la composizione del suono è strettamente collegata alla composizione della forma; un suono poteva realizzare la propria funzione esclusivamente nel punto di un brano per il quale esso era stato concepito. Al fine di evitare un uso improprio, Stockhausen riteneva che i suoni dovessero essere distrutti dopo la produzione del brano.
[Flichy, P., (1995), “Genesi e forma: origine e sviluppo dell'estetica musicale elettronica”, pag. 99]

Il suono campionato genera una nuova sensibilità estetica. Il suono elettronico costituisce un timbro che è oramai entrato a far parte, non solo attraverso le sperimentazioni dell’avanguardia ma attraverso la sua diffusione di massa (canzoni di musica, colonne sonore, jingles pubblicitari) del “paesaggio sonoro” del nostro tempo. Il suono campionato riproduce il suono di strumenti definiti “naturali”, ma proprio in quanto lo riproduce, crea una sorta di metalinguaggio sonoro i cui referenti sono i suoni tradizionali, manipolabili e manipolati dal compositore.

Nuova composizione collettiva

L’uso del campionatore è diventato ormai una tecnica usuale nella produzione musicale odierna che investe trasversalmente diversi generi musicali.
I campioni usati variano da singole note registrate da uno strumento tradizionale (un buon pianoforte per esempio) a intere frasi musicali generate dagli strumenti più disparati (esemplari a riguardo sono i famosissimi loop di batteria).
fino ad intere porzioni di musica riprese da brani esistenti. Proprio quest’ultimo caso ha fatto nascere, negli ultimi anni, questioni sulla legittimità di considerare originale un brano composto da spezzoni di altri brani. In molte composizioni odierne, gravitanti soprattutto nell’orbita della musica commerciale, vengono campionati frammenti di musica appartenenti a brani rock, funk, soul degli anni ’60 e ’70.
E’ possibile rintracciare varie funzioni comunicative in questa pratica.
Una è costituita dal fatto che i brani odierni contenenti questi campioni, sfruttando la familiarità già acquisita da parte del pubblico, non si propongono come pezzi nuovi che hanno bisogno di un periodo di “assimilazione acustica”, ma come pezzi che gia fanno parte degli ascoltatori.
Un’altra funzione è quella della citazione, così come in un brano letterario troviamo citazioni di altri brani, così…
Un'altra ancora potrebbe essere quella di legittimare il proprio brano col richiamo, attraverso il campione, ad un altro brano che già gode di un certo prestigio.
Insomma molte sono le funzioni e i perché ipotizzabili a proposito dell’uso di tale pratica ma l’aspetto che più interessa in questa sede è il modo in cui questa tecnica, legata indissolubilmente ad una particolare tecnologia, abbia influenzato i meccanismi di produzione musicale.
Una nuova relazione e interconnessione si instaura tra i musicisti grazie alla possibilità di digitalizzare e trattare praticamente qualunque brano e al conseguente flusso continuo di materiale sonoro circolante tra di essi. Si crea così una sorta di musicista collettivo:

La musica techno e, in generale, la musica la cui materia prima è digitale illustrano bene la singolare figura dell’universale senza totalità. L’universale risulta dalla compatibilità o interoperabilità tecnica e dalla facilità di circolazione dei suoni nel cyberspazio.

e ancora

ogni attore del collettivo di creazione preleva del materiale sonoro dal flusso in circolazione in una vasta rete tecnosociale. Questo materiale viene mixato, arrangiato, trasformato e poi messo nuovamente , sotto forma di brano originale, nel flusso di musica digitale in perenne circolazione. Così, ogni musicista o gruppo di musicisti svolge la funzione di operatore su un flusso in perenne trasformazione all’interno di una rete ciclica di co-operatori.
[Lévy, P., “Cybercultura, Gli usi sociali delle nuove tecnologie”, Feltrinelli, Milano, (1997 Editions Jacob), Fabbri 1999]

Insomma, sarà forse giunta l’ora di scordarsi delle tradizionali forme di composizione e registrazione di un brano, considerate come le principali modalità di “chiusura” della musica ? Quello che si può affermare con una certa sicurezza è che queste pratiche, per quanto non ancora sparite, iniziano a mostrare segni di incongruenza con i nuovi tempi, segni che si manifestano nei, ormai continui, problemi di ordine giuridico-legale riguardanti il copyright.

Il campionatore

Dall’analisi dei componenti di un sintetizzatore si evince quanto sia complesso creare artificialmente un “bel timbro”, dato che si ha a che fare con dispositivi che implicano una profonda conoscenza teorica e tecnica.
Abbiamo visto come durante gli anni ottanta le pratiche dell’informatica musicale si siano spostate dal micromondo dei centri e laboratori specializzati al più ampio mondo della musica di larga consumo incontrando così utilizzatori non necessariamente dotati di un background di conoscenze tecniche tale da affrontare i sottili e complicati procedimenti per la creazione di un suono. Non tutti gli utenti sono interessati a “spendere” per fabbricarsi il proprio timbro, viste anche le difficoltà per produrlo. Il musicista spesso ha solamente bisogno di un’economica gamma di suoni, “belli e corposi”, magari personalizzabili con lievi modifiche e varie mescolanze.
Fu normale a questo punto, se non scontato, trovare nei sintetizzatori suoni predefiniti, disponibili subito all’utente a un richiamo immediato attraverso la pressione di un tasto.
Stiamo parlando dei preset, suoni predefiniti, creati dai costruttori del synth e pronti all’uso.
Così si iniziò ad identificare il suono generato da un particolare synth con il sintetizzatore stesso.
Ma se noi stessi potessimo decidere quale suono – o rumore - assegnare ad ogni singolo tasto del nostro synth? Avremmo a che fare con un campionatore, cioè con uno strumento simile al sintetizzatore ma privo di suoni.
Il campionatore è un dispositivo in grado di registrare, trasporre musicalmente processare e riprodurre segmenti di audio digitalizzati; è in pratica un registratore digitale di suoni reali (i campioni) i quali vengono eseguiti in maniera musicalmente utile (associazione dei campioni ai dati MIDI, in sostanza alle note di una tastiera). [ M. Borgioni, “I computer per la musica”, Armando Editore, Roma, 1999]
Seguiamo un tipico processo di campionamento a fini musicali. Come abbiamo visto a proposito del processo di digitalizzazione, con il termine “campionamento” si indica una delle operazioni fondamentali del processo, mentre in questo caso si intende , più particolarmente la tecnica di registrazione di suoni da una qualsiasi fonte esterna seguita dalla loro elaborazione e riproduzione.
Il suono emesso da una qualsiasi sorgente viene catturato da un microfono e tradotto tramite un convertitore AD, in una serie di byte. Una volta trasformato in dati , il suono diventa oggetto dei più fantasiosi calcoli matematici decisi dall’utente e messi in atto dal computer: essi possono essere tagliati, se ne può mutare la frequenza, l’intonazione, la velocità. Lo scopo fondamentale di quest’apparecchio è quindi quello di acquisire i suoni e associarli ad esempio ad una tastiera MIDI e ad eventuali controlli esterni (modulazione, volume, ecc.). La reale potenza di un campionatore deriva dal fatto che questi campioni possono essere trasposti musicalmente in tempo reale, sia in accrescimento che in diminuzione, e su un gran numero di ottave. In parole povere, questa trasposizione musicale si verifica quando si riproducono i file campionati , registrati a varie frequenze di campionamento, che corrispondono ad intervalli musicali ben precisi; una volta che il campione è stato “ripulito”, cioè è stata tagliata la parte che ci interessava e pulita da qualsiasi rumore o fruscio – e in questo l’uso del computer è ormai indispensabile – viene associato alle note MIDI.
Ammettiamo che il campione venga associato alla nota Do della terza ottava, esso potrà essere trasposto in alto e in basso, rispetto alla nota Do3 originaria, lungo tutti i tasti della tastiera. Ad ogni trasposizione però lo strumento introduce una lieve deformazione che, secondo il campione, poco alla volta ne muta completamente il colore timbrico, sino a renderlo inaccettabile. Un ottima soluzione è quella di creare tanti campioni – da un suono grave ad uno acuto – ciascuno corrispondente ad un certo numero di note, sino a coprire l’intera gamma. È questo il cosiddetto multicampionamento, cioè più campioni per uno stesso timbro. Durante quest’operazione è necessario registrare i campioni mantenendo una certa omogeneità tra le diverse fonti sonore altrimenti, nel passaggio dall’una all’altra, l’orecchio noterà un’evidente disuguaglianza.

Virtual Synth

I sintetizzatori virtuali consistono in dei programmi per computer che permettono di simulare il comportamento di un sintetizzatore hardware. Emula quindi, in tempo reale o differito, ciò che avviene all’interno di un sintetizzatore normale.
Il programma deve permettere al musicista di poter controllare i vari parametri che sono all’interno di quest’ultimo e che corrispondono agli elementi analizzati a proposito dei synth analogici.
Esistono molti vantaggi nell’utilizzare un sintetizzatore virtuale: i primo potrebbe essere il fatto che il numero di oscillatori che si utilizzabili è virtualmente infinito (programma permettendo), mentre in un sintetizzatore hardware (anche se a generazione digitale) è invece un numero ben preciso. In secondo luogo è possibile utilizzare tutta la potenza di calcolo di un computer per sintetizzare un suono anche molto complicato. Per ultimo, ma non per questo di minore importanza, è possibile registrare il suono prodotto, che non dimentichiamo,è digitale, direttamente in formato digitale senza dover passare per un convertitore AD.
Questo è l’ultimo stadio dello sviluppo dei sintetizzatori e consiste nella virtualizzazione della macchina hardware, cioè nella “smaterializzazione” della fisicità di quest’ultima, consistente nella creazione di un programma per il computer che riproduce esattamente un modello analogico. Questo è un esempio della tendenza più generale di questi ultimi anni di racchiudere all’interno del personal computer – nella veste di software, di programmi – tutti gli elementi che nei periodi precedenti contribuivano al processo di produzione musicale. Il computer, il personal computer, è diventato un elemento onnivoro, ingloba tutto grazie alla sua malleabilità e duttilità. Esso, a differenza delle macchine specializzate nel compiere una determinata operazione, come quelle appena analizzate che producono ed elaborano suoni, una macchina che può essere utilizzata per molti scopi diversi. E’ una macchina general purpose e, a differenza delle macchine special purpose, non contiene dei componenti espressamente dedicati alla gestione del suono. Questa, secondo un’opinione comune, potrebbe essere uno svantaggio, dato che una macchina che è stata progettata per una specifico scopo si comporterà in maniera migliore di una non appositamente dedicata a quello stesso scopo. Nel caso in questione quest’ipotesi è tutta da verificare.
Non essendo una macchina specializzata, il personal computer, può essere, e in effetti è, oggetto delle più fantasiose manipolazioni da parte di progettisti e programmatori i quali possono “modificarlo” in modo da renderlo strumento di una particolare operazione. Un computer è una macchina programmabile e che può fare infinite cose, a seconda del programma che gli viene fornito. In fin dei conti esso è una scatola vuota da riempire con i vari programmi, in modo tale da renderla utile e funzionale ad uno scopo.
Si pensi ai word processor, programmi applicativi elaboratori di testi di cui un esempio è il notissimo Word; essi permettono di trasformare il computer in una macchina per scrivere e di batter così sui tasti della tastiera come se fosse effettivamente una macchina da scrivere. Quest’ultima, a differenza del personal computer, è una macchina dedicata ad un’unica operazione, appunto la scrittura, ma forse a qualcuno viene ancora in mente di considerarla più funzionale del computer? Senza ombra di dubbio, la scrittura con macchine elettroniche ha largamente e quasi completamente soppiantato quella con la macchina da scrivere. Superate le difficoltà iniziali di dimestichezza e di apprendimento, sono troppo grandi i vantaggi che essa offre per poterne fare a meno. [Carlini F., “Lo stile del Web”, Einaudi, Torino, 1999]
Il cambiamento del mezzo – dalla macchina da scrivere al computer – comporta naturalmente delle influenze sullo stile di scrittura che Carlini dà una mano ad individuare.

“Nella scrittura al computer risalta soprattutto la facilità delle correzioni che non lasciano traccia e la facilità con cui è possibile tagliare e incollare (cut and paste) interi brani in posizioni diverse.” [Carlini F., “Lo stile del Web”, Einaudi, Torino, 1999, pag. 35]

Egli fa notare, inoltre, come l’influenza non è mai diretta ma tende ad alterare in modo costante le reazioni sensoriali o le forme di percezione.

“l’influenza sembra avvenire piuttosto modificando la percezione del testo , che ora appare più morbido e fluido rispetto a quello prodotto con la macchina da scrivere” [Carlini F., “Lo stile del Web”, Einaudi, Torino, 1999, pag. 35]

Data la possibilità di continue correzioni e aggiustamenti che vanno dalla microstruttura dela parola fino alla macrostruttura di un intero periodo o porzione di testo, la scrittura al computer corrisponde ad una minora pianificazione mentale del testo:

”Non avendo paura di sbagliare si può lasciare correre il pensiero e le dita con più libertà”

Quasi non volendo, sono stati delineati dei tratti che combaciano perfettamente con l’analisi del produrre musica attraverso l’uso del personal computer.

Il sintetizzatore analogico e digitale

I sintetizzatori analogici, costruiti cioè con componenti analogici, generano un segnale sonoro tempo continuo. Il suono prodotto da questi strumenti è così affascinante che ancora oggi, sebbene esistano macchine molto più sofisticate e potenti, sono utilizzati in molti generi musicali. Il principio generale di funzionamento dei sintetizzatori analogici consiste nell’utilizzo di moduli musicali elettronici controllati in tensione (che è una grandezza continua). Nel caso dei sintetizzatori analogici modulari i moduli utilizzati potevano esser scelti dal musicista stesso, che quindi creava il percorso che il segnale doveva effettuare all’interno della macchina. Un sistema modulare è un sistema aperto costituito da più moduli, ognuno dei quali ha un compito ben preciso – generare, elaborare, amplificare filtrare il suono -. Il collegamento tra i vari moduli viene detto patch (per questo motivo i preset di un sintetizzatore moderno vengono chiamati anche patch).
Nei sintetizzatori normalizzati la scelta del percorso del segnale all’interno della macchina è stata fatta dalla casa produttrice, cioè il produttore del sintetizzatore ha individuato i collegamenti che possono essere più utilizzati da un musicista e permette a quest’ultimo di scegliere tra i diversi percorsi prestabili quello che più desidera ruotando delle manopole o cambiando lo stato di interruttori.
È importante notare che il passaggio dai sintetizzatori analogici modulari a quelli normalizzati non è stato netto.Molti produttori hanno progettato delle macchine che pur essendo normalizzate permettevano qualche tipo di modularità. A questa categoria appartengono una serie di sintetizzatori di dimensioni contenute per i quali il compromesso tra normalizzazione e modularità è stata l’arma vincente.
A questo punto diamo un breve sguardo ai componenti di un sintetizzatore e notiamo come in questo strumento tecnico sono racchiuse tutte le conoscenze e , perché no, le aspettative degli attori dei primi anni dello sviluppo della musica elettronica.
Il componete principale di generazione del suono di un sintetizzatore analogico è il VCO (Voltage Controlled Oscillator, oscillatore controllato in tensione). Un oscillatore è un dispositivo elettronico capace di generare una corrente o tensione di frequenza stabilita. La tensione è una grandezza continua e le sue variazioni all’interno di un sintetizzatore analogico rappresentano le variazioni di pressione acustica del suono. I VCO sono in grado di generare varie forme d’onda: sinusoidale, triangolare, a dente di sega, quadra, noise (rumore).
Ciò che ha reso unici alcuni sintetizzatori del passato sono non è stato tanto la sezione generativa del suono quanto quella di filtraggio. Il VCF (Voltage Controlled Filter, filtro controllato in tensione) permette di modificare un suono attenuando od esaltando le frequenze che sono prossime ad una frequenza di riferimento. Senza scendere nel particolare esistono filtri di vario tipo: i filtri passa basso, passa alto, passa banda e a reiezione di banda.
Poi abbiamo i VCA (Voltage Controlled Amplifier, amplificatore controllato in tensione) che sono utilizzati per amplificare il segnale sonoro e sono, generalmente, pilotati da un generatore di inviluppo. Da un punto di vista musicale un generatore di inviluppo consiste in un dispositivo che serve per generare il tempo di attacco, di decadimento, di sostegno e di rilascio di un suono. L’inviluppo di un suono determina le variazioni di ampiezza di ampiezza del suono stesso nel tempo.
Il passaggio dal sintetizzatore analogico al digitale non è stato così repentino come si potrebbe immaginare, ma piuttosto graduale. Durante questa fase di passaggio si è delineata una classe di sintetizzatori che ha saputo fondere assieme i vantaggi della tecnologia analogica e quelli della tecnologia digitale. Si tratta cioè di macchine in cui la generazione sonora è analogica ma il controllo della varie sezioni è digitale.

Quando si parla di sintetizzatore digitale si intende generalmente un sintetizzatore in cui sia la sintesi che il controllo avvengono in maniera completamente digitale e non ibrida. In pratica le caratteristiche del suono come frequenza, ampiezza, timbro - parametri che rientrano nel campo dell’analogico – sono controllati digitalmente.
I vantaggi introdotti da un sintetizzatore digitale sono molti: il primo di tutti è sicuramente la funzione preset, cioè la possibilità di registrare in memoria un suono senza doverlo tutte le volte riprogrammare. Un altro vantaggio è la maggior facilità nella programmazione dei timbri, questa infatti non avviene più tramite cavi o manopole ma agendo su dei pulsanti polifunzionali. Inoltre si può trovare un immediato riscontro di qualsiasi operazione in un display a cristalli liquidi. Infine il costo delle risorse dei sintetizzatori digitali (oscillatori, chip, memorie) è notevolmente inferiore a quello degli analogici, permettendo così di diffondere questo strumento in maniera sempre più capillare.
L’architettura di questo tipo di sintetizzatori non si discosta molto da quelli analogici, infatti anche in questa categoria si possono distinguere dei moduli, ognuno dei quali è specializzato in un determinato compito. La sostanziale differenza è che i vari moduli non sono più controllati in tensione ma digitalmente. Ogni modulo riscontrato a proposito del sintetizzatore analogico ha rispettivamente un suo “cugino digitale”. I VCO sono sostituiti dai DCO, i VCA dai DCA,e i VCF dai DCF dove la “D” sta naturalmente per digitale. La differenza che intercorre tra i due tipi di dispositivi è però sostanziale ricalcando la differenza di caratteristiche tecniche generali tra digitale e analogico. I moduli digitali infatti sono controllati non da un parametro costante come la tensione, ma da valori discreti; inoltre anche l’output generato (la forma d’onda, il suono) non ha un valore costante ma discreto. Questo comporta che il range di valori in cui può essere impostato un parametro di un modulo è finito, ad esempio può variare da 0 a n, rendendo così possibile n+1 posizioni (0 compreso). Se da una parte questo comporta una grande precisione dei valori, dall’altra rende meno “vero” lo strumento, facendolo suonare con una perfezione innaturale.

Evoluzione del sintetizzatore

Il sintetizzatore nasce negli anni ’60, ed è stato inventato con il solo scopo di riunire in un’unica macchina i dispositivi di uno studio di produzione di musica elettronica del tempo. In generale si può affermare che l’architettura di un sintetizzatore consiste nella connessione di diversi moduli, ognuno dei quali è specializzato nel produrre, elaborare o amplificare il suono. Nel corso degli anni esso si è evoluto ma il concetto di fondo è rimasto sempre lo stesso: generare e manipolare il suono.
È possibile operare una distinzione tra i sintetizzatori dividendoli in tre gruppi che scandiscono cronologicamente altrettante fasi storiche: i sintetizzatori analogici, digitali e virtuali.
Quando si parla dei primi ci si riferisce ad un periodo storico ben preciso, tra la metà degli anni sessanta e quella degli anni settanta (vengono detti vintage o retrò).
Successivamente la tecnologia digitale ha permesso di costruire dei sintetizzatori digitali, cioè con solo circuiti discreti - non analogici -, evolvendo così non solo il modo di costruire i sintetizzatori, ma anche quello di utilizzarli. Quando si parla di sintetizzatore digitale ci si riferisce sostanzialmente a prodotti che vanno dai primi anni ottanta fino ai giorni nostri.
Oggi comunque sta nascendo una nuove generazione di sintetizzatori: i sintetizzatori virtuali. Questi sono dei software per computer che simulano in tempo reale o differito il funzionamento di un sintetizzatori su un normale computer. Raggiungere questo traguardo è stato possibile grazie alla crescita esponenziale della tecnologia che ha permesso di costruire computer sempre più potenti ad un prezzo sempre più basso.

Nuove pratiche musicali

I grandi progressi compiuti negli ultimi anni dalla tecnologia interattiva e multimediale stanno modificando profondamente la natura della musica elettronica e della sua fruizione. Il crescente diffondersi della tecnologia dell'informazione e delle reti di computer permette a compositori e musicisti di scambiarsi programmi e perfino di registrare suoni. Al suo esordio, come abbiamo visto dall’analisi storica dei precedenti capitoli, la musica elettronica era considerata un genere a sé, diverso nella tecnologia e nelle finalità estetiche dalla musica acustica convenzionale. Oggi la musica elettronica è semplicemente un settore della musica come un altro, e molte opere combinano sonorità elettroniche con quelle di strumenti tradizionali. Analogamente, numerosi compositori lavorano in collaborazione con altri media, come i video, i film o la danza. In un futuro molto prossimo, con la piena integrazione della tecnologia elettronica e informatica nel mondo dei compositori, l'espressione “musica elettronica” probabilmente scomparirà del tutto.
Con l’avvento dell’uso di massa del computer si è persa la componente di ricerca e di sperimentazione a vantaggio però di una rivoluzione nelle pratiche del fare musica. Se si riflette l’influenza è ancora più sottile. Gli effetti della tecnologia non si verificano infatti a livello delle opinioni, come accadeva nei primi anni di vita della musica elettronica, ma alterano costantemente e sottilmente le reazioni sensoriali o le forme di percezione.
Nelle prime pratiche della musica elettronica, un’opera, una composizione, persino un singolo suono era affiancato quasi sempre da un’ideologia, da una teoria che legittimava la composizione stessa; esisteva una piena consapevolezza del proprio operato.
Oggi forse non è più cosi, sarà perché la schiera degli utilizzatori delle tecnologie musicali d’avanguardia è cresciuta a dismisura, perdendo quindi quel carattere d’avanguardia e di intellettualità che l’aveva caratterizzata per lungo tempo, ma anche perché forse la tecnologia ha finalmente raggiunto la sua maturità. Il computer, infatti, più diventa maturo come tecnologia meno si vede come oggetto isolato. Diventa un’infrastruttura che non attira l’attenzione su di sé. Ciò che è centrale in questi anni non è tanto il computer come oggetto a sé stante quanto le nuove pratiche che tramite il computer sorgono e che in esso si sviluppano.
Questo non toglie nulla alle conquiste realizzate nel passato, che comunque rivivono in molte esperienze musicali moderne, ma questo punto di vista è necessario ed indispensabile per affrontare e risolvere i nuovi problemi che vengono inevitabilmente generati da questa nuova tappa del cammino della società moderna.
Il ruolo del computer al servizio degli strumenti musicali è profondamente mutato nel corso di questo ultimi anni e nuove tecniche si sono imposte all’attenzione di tutti i musicisti, professionali e non.
Ciò in larga parte è dovuto all’evoluzione, in alcuni casi vera e propria trasformazione, delle varie tecnologie per la produzione musicale.

Funzionamento di un’interfaccia software

Abbiamo visto come l’interfaccia si colloca nell’interazione uomo-macchina ma poco abbiamo detto su cosa sia e come funziona effettivamente un’interfaccia.
Innanzitutto occorre subito distinguere tra i vari tipi di interfaccia che ricalcano un percorso storico della loro evoluzione.
Il primo passo nella direzione di interfacce software è rappresentato dalle cosiddette interfacce a caratteri, nelle quali la comunicazione col computer avviene digitando caratteri alfanumerici sulla tastiera e ricevendo e ricevendo in risposta caratteri alfanumerici sul monitor. Un esempio di questo tipo di interfaccia è rappresentato dal funzionamento del sistema operativo DOS
la comunicazione col computer avviene in maniera lineare, digitando i nostri comandi in risposta ad un segnale di “attendo istruzioni” (prompt) da parte del computer.
[Ciotti, F., Roncaglia, G., “Il Mondo Digitale, Introduzione ai nuovi media”, Laterza, (2000)]
Il DOS rappresenta quindi a tutti gli effetti un interfaccia, una mediazione tra l’uomo e la macchina, il suo linguaggio una sorta di compromesso tra l’ostico linguaggio macchina del computer, nel quale le istruzioni sono rappresentate da “0” e “1”, e il nostro linguaggio naturale. Linguaggio di intermediazione utile quindi, ma piuttosto rigido, per nulla intuitivo e richiedente una fase di apprendimento. Inconvenienti che vengono eliminati dall’adozione delle interfacce grafiche.
Le interfacce grafiche si basano in genere sulla metafora del desktop, o tavolo da lavoro e si differenziano in modo sostanziale dalle interfacce a carattere precedentemente menzionate: anziché come una sorta di quaderno sul quale scrivere, linearmente, i comandi da impartire al computer e sul quale leggere le sue risposte, lo schermo viene utilizzato come uno spazio pienamente bidimensionale, sul quale, proprio come avverrebbe su una scrivania, possono essere posati i nostri strumenti di lavoro.

Il metodo è quindi quello di rappresentare graficamente le risorse del computer e del programma, in pratica tutto quello che un computer, tramite le sue applicazioni, è in grado di fare, per mezzo di metafore.
Così un programma ci appare come una finestra, un’area di lavoro, nella quale sono presenti pulsanti, immagini, testo, oggetti vari. Ognuno di essi assume una funzione simbolica. Sono immagini, icone che rimandano il più delle volte a funzioni, a comandi insiti nel software dei quali i più famosi, ormai a qualsiasi utilizzatore di computer, sono le icone standard di “apri”, “chiudi”, “copia” e “incolla”, “afferra”, “sposta”, “cancella”.

“E’ un linguaggio dei gesti piuttosto intuitivo che corrisponde alla saggia idea che anche nello spazio virtuale sia più facile muoversi pensando per oggetti e per relazione tra oggetti”
[Carlini, F., "Lo stile del Web. parole e immagini nella comunicazione di rete" Giulio Einaudi Editore, Torino, 1999]

Carlini parlando di interfacce, lo fa riguardo alle pagine web, ma la sua analisi calza a pennello anche in ambiente software.
Egli fa notare che da un lato c’è il mondo della rappresentazione grafica, i cui oggetti hanno degli attributi percettivi (forma,colore, contenuto pittorico), ma non funzionali, e dall’altro c’è il mondo del software, dove gli oggetti non hanno attributi percettivi ma soltanto funzionali.
Di conseguenza afferma che le interfacce devono mettere in collegamento i due tipi di attributi.

“il prodotto di questa operazione è un oggetto di interfaccia costituito dalla fusione di proprietà visive e di proprietà funzionali: una mappatura e corrispondenza tra i due mondi”
[Carlini, F., "Lo stile del Web. Parole e immagini nella comunicazione di rete" Giulio Einaudi Editore, Torino, 1999]

Se, riferendoci all’esempio di un software sequencer MIDI o audio, abbiamo bisogno di tagliare una parte di composizione, la cosa più normale sarebbe quella di utilizzare un’icona che rappresenti le forbici. Esse sono un oggetto ben noto della vita di tutti i giorni e in questo modo l’icona rimanda, richiama una cosa fisica. Questa però si trova in un nuovo contesto che non è affatto il mondo concreto, reale, ma in un contesto virtuale, costituito dallo schermo del computer.
Il procedimento mentale che viene innescato è, in questo caso, di tipo metaforico, del tipo “come se”; si procede a tagliare una un elemento sul display del computer come se effettivamente si tagliasse qualcosa.
Naturalmente non sempre si ha la possibilità di ricorrere a metafore così immediate e così sta alla capacità del progettista trovare procedimenti più complicati per arrivare però allo stesso effetto.

Dietro alle caratteristiche apparentemente tecniche di un’interfaccia si nascondono conseguenze di grande rilievo che meritano attenzione.
Innanzitutto va sottolineato che le interfacce grafiche hanno rappresentato un cambiamento molto significativo nell’evoluzione delle interfacce informatiche nonché nell’evoluzione generale del computer. Le ormai primitive interfacce a caratteri instaurano una comunicazione di tipo linguistico-verbale tra l’uomo e la macchina. Ciò che viene usato in questo tipo di comunicazione è un codice, alquanto ristretto nelle possibilità espressive, tramite il quale impartiamo degli ordini alla macchina. Usiamo delle parole appartenenti a questo codice creando una comunicazione lineare e sequenziale. In questo modo il rapporto con il computer risulta di tipo procedurale: pensiamo cioè al computer come ad una macchina capace di eseguire, una dopo l’altra, una serie di procedure capaci di svolgere compiti basati sulla manipolazione di caratteri, numerici o testuali che siano, ma niente di più.
Difficilmente, tramite un’interfaccia a caratteri, viene da pensare al computer come ad uno strumento da utilizzare per il disegno, la fotografia, la musica. Questi ultimi casi richiedono un macchina capace di visualizzare l’oggetto da manipolare, gli strumenti adatti alla manipolazione e di rappresentarne graficamente tutte, o quasi, le funzioni.
Inoltre va considerato che le interfacce informatiche non sono una sorta di “dato tecnologico”, precostituito e immutabile, ma sono frutto di convenzioni con una forte componente sociale e culturale.

(…) certo, la funzionalità di un’interfaccia dipende in parte dai dati costituiti dalla nostra conformazione fisica e sensoriale. Dalla tipologia della macchina con la quale vogliamo interagire, dagli scopi di tale interazione; ma anche le convenzioni, le priorità, le abitudini, proprie della cultura della quale facciamo parte hanno un loro ruolo tutt’altro che trascurabile.
[Ciotti, F., Roncaglia, G., “Il Mondo Digitale, Introduzione ai nuovi media”, Laterza, (2000)]

Come risultato di ciò si nota come il mutare delle interfacce nel corso degli anni non è solo il risultato dell’evoluzione tecnologica, ma piuttosto del complesso rapporto di reciproca interdipendenza che lega evoluzione tecnologica e modelli culturali.

La Human-Computer Interaction

Gli studi sulle interfacce, che vengono racchiuse sotto il filone della Human-Computer Interaction (HCI), comprendono problemi quali il controllo umano sui sistemi automatici, la discrepanza tra i procedimenti dei sistemi esperti e il funzionamento del ragionamento umano quotidiano, le differenti strategie decisionali delle persone e dei sistemi.
Il problema delle interfacce è esistito da sempre, sin dall’apparizione dei primi elaboratori quando per dialogare con essi era necessario utilizzare interfacce per molti versi complesse e poco intuitive, ma si è sviluppato nel corso degli anni ottanta quando, come abbiamo visto, si assiste all’irruzione sulla scena di un nuovo tipo di figure: gli utilizzatori non informatici. Essi, vergini di qualsiasi esperienza di computer ma fermamente decisi ad usare il loro personal per scopi che di solito non avevano niente a che fare con le discipline informatiche, ponevano non pochi problemi alla capacità di adattamento e di immaginazione ai progettisti software. Il problema era tanto più difficile da risolvere se consideriamo che la comunità di persone che si occupavano di computer era non solo abbastanza ristretta ma anche molto arroccata in un linguaggio, in delle pratiche e in degli interessi che le rendeva sensibilmente indifferente alla gente comune. Riusciva quindi particolarmente difficile, se non impossibile, a questi tecnologi appassionati del loro campo di lavoro capire come si potesse insegnare loro ad usare il computer.
Le prime risposte a questa questione furono disastrosamente inadeguate: manuali di centinaia di pagine. La risposta in sostanza era: “diventa un esperto anche tu e non avrai problemi”. Il fatto era che alla cosiddetta “gente comune” non interessava divenire esperti di informatica ma continuare a svolgere la propria occupazione, magari usando i nuovi strumenti digitali.
Da ciò si evince come la questione sulla qualità dell’interazione uomo-computer nasce con l’uscita delle applicazioni informatiche dai laboratori di ricerca e il loro ingresso negli ambienti di vita e di lavoro quotidiano della gente comune.
In un primo momento il problema venne affrontato dai progettisti con alla base il pregiudizio che i nuovi utilizzatori fossero troppo limitati per il computer

“… l’uomo non era considerato all’altezza del computer. Si insisteva sulle limitazioni umane e si sottolineava, nelle macchine e nei programmi , la necessità di costruirli a prova di idiota. Ciò era non solo ingiustamente denigratorio rispetto alle capacità umane, ma anche controproducente ai fini di una buona progettazione ”
[Mantovani, G., "L'interazione uomo-computer", il Mulino, Bologna, 1995]

In effetti, come osserva Bannon

“se partiamo da una teoria dell’utilizzatore che suppone l’idiozia di massa , il risultato più probabile sarà un artefatto adatto a degli idioti”
[Bannon, L. J. “Issues in design”, in Mantovani, G., "L'interazione uomo-computer", il Mulino, Bologna, 1995]

Questo primo approccio si risolveva in una semplificazione nell’uso e nelle procedura di accesso, per venire incontro alle limitazioni umane, ma qualcuno fa notare l’inconsistenza e la fallacia di questo indirizzo

“ (…) la semplificazione si rivelava un’arma a doppio taglio, poiché comportava restrizioni piuttosto severe nelle prestazioni del sistema, che diventava paradossalmente sempre meno usabile quanto più l’utilizzatore acquisiva abilità nel suo compito e quindi chiedeva sempre di più al computer”
[Mantovani, G., "L'interazione uomo-computer", il Mulino, Bologna, 1995]

Seguendo le intuizioni di studiosi che avevano visto per tempo la debolezza di questo approccio, in un secondo momento, sulla base di un’iniziale valorizzazione dell’utilizzatore, si iniziò a vedere l’usabilità non come una caratteristica del computer ma come una qualità della relazione uomo-computer. Infatti una migliore interfaccia uomo-macchina può derivare solo da uno studio del contesto d’uso del software.
Si inizia a comprendere che i nuovi utilizzatori fanno richieste caratterizzanti un approccio più strumentale. Ogni figura professionale, e il musicista non fa eccezione, ricorrono al computer nella misura in cui esso può aiutare a svolgere il proprio compito

“Non intendono fare della conoscenza del computer il proprio obiettivo professionale, e pertanto sono disponibili solo entro certi limiti ad adattarsi alla cultura informatica. Dovrà essere la cultura informatica e i suoi strumenti a fare una buona parte del cammino per raggiungere queste fasce di utilizzatori, che useranno il computer solo se esso sarà utile ed usabile”
[Mantovani, G., "L'interazione uomo-computer", il Mulino, Bologna, 1995]

Ci sarà insomma da proporre interfacce di comunicazione uomo-macchina ancora migliori e più naturali, costringendo sempre il computer a venire incontro al modo di pensare umano, piuttosto che il contrario.
La qualità della HCI è la condizione per tenere la persona nel circuito di controllo del sistema, cioè per consentirgli di usare bene lo strumento informatico. Indispensabile è a questo punto capire il ruolo del computer oggi nelle situazioni nelle quali viene utilizzato. Esso non è una cosa fine a stessa ma una “cosa per” fare altre cose, viene usato per degli scopi specifici, per determinate finalità che in un certo senso portano inscritte in se stessi. Il progetto del software, della sua interfaccia deve partire dall’uso a cui è destinato, se vuole essere un buon progetto. Carrol afferma che:

”Dal punto di vista dell’usabilità, un nuovo sistema deve essere visto come una trasformazione dei compiti e delle pratiche in vigore. Se vogliamo progettare per l’usabilità, dobbiamo prendere sul serio il fatto che stiamo riprogettando delle attività umane per renderle più facili da svolgere o più efficaci nel conseguire i loro scopi”.
[Carrol, J.M., “Scenario-based design: envisioning work in technology and system design”, New York, Wiley, 1994 citato in Mantovani, G., "L'interazione uomo-computer", il Mulino, Bologna, 1995].

Interfaccia uomo-macchina

È bene tener presente che di interfacce non si parla necessariamente e solo in un contesto informatico; nel senso più generale del termine, qualunque strumento che ci aiuti a interagire col mondo intorno a noi in modi il più possibile adatti alla nostra conformazione fisica e sensoriale, svolgendo una funzione di mediazione, può essere considerato un’interfaccia.
In questa sede definiremo l’interfaccia quella serie di dispositivi che ci permettono di interagire con una macchina o un programma, in maniera il più possibile semplice ed intuitiva.
Esistono due tipi di interfaccia: da un lato abbiamo le interfacce hardware (ad esempio la tastiera, lo schermo di un computer o un mouse), che rappresentano la superficie fisica di contatto fra i nostri sensi e la macchina; dall’altro, le cosiddette interfacce software e cioè il modo in cui ci si presenta un programma, consentendoci di utilizzare al meglio le sue funzionalità.
In tutti e due i casi è presente la funzione di mediazione tra noi e la macchina ma nel nostro caso il termine interfaccia sarà esclusivamente fatto corrispondere alle sole interfacce software, riprendendo, anche se non in tutta la sua radicalità, un’affermazione di Steven Johnson:

nel suo senso più semplice – scrive in un recente libro Johnson – il termine si riferisce ai programmi che danno una forma all’interazione fra l’utente e il computer. L’interfaccia funzione come una sorta di traduttore, capace di mediare fra le sue parti, e di farle comunicare
[Johnson, S., “Interface Culture, How New Tecnology Transforms the Way we Create and Communicate”, HarperEdge, New York- San Francisco, (1997)]

Quindi, anche se parliamo dell’interazione uomo-computer, non esiste nessun faccia a faccia diretto tra l’uomo e la macchina. L’individuo infatti non si confronta mai con la macchina “con la M maiuscola”, ovvero sia con quel groviglio di circuiti e schede digitali che fisicamente la compongono.
L’utente avrà a che fare con una tastiera, con un mouse e, tramite lo schermo, comunicherà con il software necessario per svolgere alcuni compiti. Quest’ultimo e soprattutto il modo in cui si rivolge all’utente sono di estrema importanza per garantire un giusto uso dello strumento digitale.

L’esplosione digitale

Dopo l’excursus storico che, attraverso i vari decenni seguenti il dopoguerra, ci ha fornito una panoramica storica nella quale rintracciare l’inizio e l’evoluzione del filone della computer music, si giunge finalmente ad analizzare la tendenza attuale del rapporto tra musica e tecnologia.
Gli anni ’90 sono stati gli anni durante i quali questo fenomeno è esploso e si è affermato all’attenzione di quasi tutti i musicisti, facendo registrare in tutti gli ambiti musicali una tendenza verso l’uso di strumenti elettronici digitali.
Dopo gli anni ’80 nei quali, come abbiamo visto, si è sviluppato l’uso e il relativo mercato delle apparecchiature digitali dedicate alla musica, gli anni ’90 segnano un capitolo importante nello sviluppo del ruolo del personal computer all’interno dell’ambito di produzione musicale. Infatti, mentre negli anni precedenti il personal computer occupava una posizione marginale, relegato tutt’al più al ruolo di compositore automatico attraverso programmi che consentivano di generare partiture con un grado variabile di “intromissione” da parte del compositore, durante quest’ultimo decennio il computer è entrato in misura massiccia in ogni anello della catena di produzione musicale. Il motivo per il quale ciò solo adesso è possibile è fondamentalmente sempre lo stesso: solo in questi anni, ed esattamente solo dalla seconda metà di quest’ultima decade, gli elaboratori personali hanno raggiunto una potenza di calcolo tale da rendere possibili operazioni in tempo reale (requisito fondamentale) che solo fino a tempo fa erano considerate impensabili. Ma forse non solo per questo. Non è da meno una considerazione a livello più generale riguardante l’abitudine e la confidenza che ormai abbiamo raggiunto nei rapporti con i personal computer. Sono sotto gli occhi di tutti le profonde trasformazioni legate alla rivoluzione informatica. Dopo una fase di incubazione in ambiti scientifici e di ricerca, la rivoluzione elettronica ha fatto la sua comparsa nel mondo del lavoro. In questi ultimi anni le macchine informatiche sono entrate nell’organizzazione personale del lavoro, nella comunicazione sociale, nel gioco e nel tempo libero. Anche se nato negli anni ’80, adesso più che mai si spiega l’aggettivo “personal” indicante lo stretto, familiare rapporto con il computer. Esso è presente quasi in ogni casa, negli uffici, in ogni ambiente lavorativo che ne richiede l’uso ogni dipendente ne ha a disposizione uno. Anche se codeste affermazioni possono lasciare intravedere scenari “negropontiani” di un’immensa oasi felice digitale, lungi da me l’intenzione di descrivere il fenomeno in questione così ingenuamente o se non altro molto poco obiettivamente. Non tutti usano il computer, esistono persone (musicisti e non) che ancora non hanno avuto un benché minimo contatto con esso, non intendono stabilirlo e magari effettivamente non lo stabiliranno fino al fine dei loro giorni ma, se consideriamo la portata delle innovazioni introdotte dalle tecnologie informatiche, le precedenti osservazioni non sembrano eccessive.
C’è chi, come Winograd e Flores [Winograd, T. e Flores, S. “Understanding computer and cognition, a new foundation for design”, Norwood, Ablex] conducono un parallelo tra le innovazioni introdotte dalle tecnologie informatiche e quelle indotte dall’invenzione e la diffusione della stampa. La stampa non fu solo una tecnologia efficace per la produzione materiale dei testi e la circolazione delle informazioni in esse contenuti , ma modificò anche in forme sempre più penetranti il modo di pensare, la comunicazione e perfino le lotte per il potere politico. Si svilupparono opere e figure sociali inedite, nacquero gli editori, il mercato librario. Alla stregua di ciò l’introduzione delle tecnologie informatiche comporta dei cambiamenti negli assetti sociali, esse sono insomma capaci di provocare modificazioni rilevanti e pervasive,cambiano le routine personali e sociali, rendendo possibili nuovi modi di pensare e di agire.
Chi usa il computer, lo usa ormai come uno strumento che fa parte di lui, del suo lavoro, della sua vita. Quante persone oramai scrivono, disegnano, suonano, si divertono col computer. Per loro esso ha assunto un ruolo di strumento ormai indispensabile e non solo per la facilità con la quale dà soluzioni a piccoli o grandi problemi ma anche perché la loro mente, i loro schemi percettivi sono plasmati da una categoria di operazioni e procedure alla quale è impossibile sottrarsi; il loro modo di pensare e di decidere sarà sempre più influenzato dall’uso degli artefatti digitali. Non dobbiamo adottare un’ottica semplicistica che consiste nella giustificazione dell’uso delle macchine e dei programmi quasi esclusivamente in termini di economie di tempo e di denaro, certo questo è importante, ma bisogna prendere in considerazione l’esistenza di aspetti qualitativi dell’interazione uomo-computer.
Nel processo di produzione musicale, l’elaboratore elettronico ha acquistato sempre più importanza sino ad essere considerato da molti, se non da tutti gli addetti ai lavori, uno strumento indispensabile del quale, d’ora in poi difficilmente se ne potrà fare a meno. Esso non è più considerato uno strumento opzionale, un qualcosa in più che solo alcuni possono permettersi e pochi riescono ad usare, ma strumento indispensabile in tutto il lavoro di produzione musicale. Il cambiamento dell’uso di questa tecnologia è dovuto al cambiamento del funzionamento della tecnologia stessa o, usando i termini di Flichy [Flichy1995], il quadro d’uso è mutato al mutare del quadro di funzionamento. Soffermiamoci un momento sull’analisi di questi termini. Flichy ipotizza la collocazione di ogni attività tecnologica in un quadro di riferimento. Egli afferma che:

“gli attori di un’operazione tecnologica mobilitano il quadro che permette loro di percepire e di comprendere i fenomeni che incontrano e di organizzare le proprie azioni (…) gli attori di un’operazione tecnologica si situano sempre in relazione ad un quadro di riferimento. (…) Si tratta di un quadro frontiera appartenente a tutti gli attori che collaborano ad un’attività tecnologica, alla comunità degli ideatori, degli ingegnerie dei tecnici, come ai fruitori”

Il quadro di riferimento può suddividersi in due quadri distinti ma reciprocamente articolati: il quadro di funzionamento e il quadro d’uso.
Prendiamo in considerazione un esempio che lo stesso Flichy ci propone.

“Collochiamoci nella situazione del visitatore di un museo della tecnica o più semplicemente di un mercato di ferri vecchi. (…) Se trova una macchina che non funziona per mancanza di una fonte di energia adatta, dirà che è inutilizzabile. Se, al contrario trova un oggetto rotto o fortemente deteriorato dirà che è fuori uso. Tuttavia, nei due casi, a essere in questione non è l’uso ma il funzionamento dell’artefatto tecnico. Lo slittamento linguistico tra funzionamento ed uso è dovuto proprio alla connessione tra queste due componenti dell’artefatto. Funzionamento ed uso rappresentano le due facce di una stessa realtà.”

Ipotizzando un parallelo con la semiologia, i due quadri sono legati in modo simile a come sono legati il significante e il significato. Il quadro di riferimento, che Flichy chiama anche quadro socio-tecnico, sarebbe così della stessa natura del segno.
Non esiste alcun determinismo e l’articolazione tra quadro di funzionamento e quadro d’uso non è retta da alcuna necessità. Tuttavia i rapporti tra funzionamento e uso si sono strutturati nel corso del tempo ed entrambi sono articolati in un quadro comune, quello del personal computer. Il legame fra i due quadri emerge nettamente quando uno dei due quadri evolve, mentre l’altro resta stabile. Quello cioè che accadde in un primo momento quando i cambiamenti nel quadro di funzionamento (passaggio dall’elettromeccanica all’elettronica digitale) non hanno comportato una modificazione del quadro d’uso. L’uso dei primi strumenti digitali ricalca, pur considerandone i consistenti vantaggi, l’uso degli strumenti analogici. In seguito, la potenza e la rapidità dell’elettronica digitale hanno aperto nuove possibilità di calcolo e, di conseguenza, il quadro d’uso si è modificato. Così il cambiamento di un quadro di riferimento si inscrive nella dinamica dell’evoluzione tecnologica. Si può quindi assistere a cambiamenti del quadro di funzionamento e a cambiamenti del quadro d’uso. I due movimenti, anche se come abbiamo visto posseggono dinamiche proprie interagiscono l’uno con l’altro. E questo è il caso del personal computer e la musica. Non bisogna scomodare grandi evoluzioni della tecnologia (dall’analogico al digitale) per comprendere come l’uso del computer nell’ambito di produzione musicale sia cambiato. In ambito PC, la particolare evoluzione del sistema operativo dall’MSDOS a WINDOWS ha comportato un’espansione delle possibilità dell’uso del personal computer in musica. Ma non solo. L’uso di simboli che rappresentano il corrispettivo analogico ha permesso di andare ad operare su quest’ultimo con tutti i vantaggi però che la tecnologia digitale offre. Tutto questo ci porta a considerare un altro importante aspetto dell’attività tecnica: l’interfaccia.