Come i sintetizzatori impararono a parlare tra di loro

40 anni fa le aziende di strumenti elettronici decisero di non farsi la guerra e di collaborare aprendo la strada alla produzione musicale moderna

di Stefano Vizio

Boosta dei Subsonica in concerto a Collegno nel 2021. (Alessandro Bosio/Pacific Press via ZUMA Press Wire)
Boosta dei Subsonica in concerto a Collegno nel 2021. (Alessandro Bosio/Pacific Press via ZUMA Press Wire)

All’inizio degli anni Ottanta le principali aziende mondiali che producevano sintetizzatori avevano un problema. Il mercato di questi strumenti, che da un paio di decenni avevano aperto enormi possibilità ai modi in cui si poteva suonare e comporre musica, si stava rapidamente espandendo, e ai modelli analogici si stavano affiancando i primi prototipi di modelli digitali, che nel giro di pochi anni avrebbero rivoluzionato la musica pop e messo le basi per la produzione musicale per come la conosciamo oggi.

Società come Roland, Yamaha, Korg, Moog e Sequential Circuits stavano tutte progettando le proprie macchine che avrebbero definito il suono degli anni Ottanta, ma erano tecnologie molto costose, che ciascuna azienda stava sviluppando autonomamente, sperando di indovinare le componenti e le caratteristiche tecniche giuste per primeggiare sui concorrenti. Questo, si accorsero presto alcuni degli ingegneri coinvolti nei progetti, poteva essere un grosso limite, prima di tutto per gli affari.

Sempre più musicisti infatti erano attratti da queste tastiere che permettevano di produrre suoni mai sentiti prima, oppure di riprodurre quelli di strumenti che spesso era difficile e costoso includere nelle produzioni pop, come intere sezioni di archi e di fiati. Ma in quel momento non c’era modo di suonare contemporaneamente sintetizzatori di marchi diversi. Un tastierista che avesse voluto usare un sintetizzatore dal vivo o in studio doveva sceglierne un modello, e affiancargli eventualmente gli altri dispositivi accessori prodotti dalla stessa azienda. Alcune società erano convinte che in questo modo avrebbero potuto fare più soldi, vendendo a un numero più limitato di persone molte apparecchiature compatibili. Ma altre capirono che ci sarebbero state opportunità commerciali molto superiori trovando un modo per permettere ai musicisti di combinare sintetizzatori diversi.

Fu su queste premesse che una quarantina di anni fa gli ingegneri delle più grandi aziende di sintetizzatori al mondo decisero di non farsi la guerra e di collaborare per sviluppare un sistema che permettesse a strumenti diversi di interagire. Una tecnologia attraverso la quale un musicista potesse usare le sue due mani sulla tastiera di un sintetizzatore Roland, per esempio, e far suonare contemporaneamente un Moog e un Sequential Circuits. Creando così dei suoni nuovi e originali.

Quel protocollo di comunicazione venne chiamato MIDI, e grazie alla sua praticità e alla sua semplicità diventò lo standard più comune nella produzione musicale digitale, usato ancora oggi in tutti gli studi di registrazione. Tanto era perfetto nella sua essenzialità, che in quarant’anni non è praticamente cambiato.

Per capire la portata di quell’innovazione bisogna avere chiare due o tre cose su cosa siano e su come funzionino i sintetizzatori. Essenzialmente, sono macchine in grado di produrre elettronicamente dei suoni, e fin dall’inizio furono associati a delle tastiere analoghe a quelle dei pianoforti, in quanto tecnicamente i supporti più semplici con cui comporre e suonare una serie di note. Non fu necessariamente sempre così, però: il Theremin fu uno dei primi sintetizzatori della storia, ma notoriamente si suonava avvicinando e allontanando la mano da un’asta in metallo, producendo suoni di frequenze diverse a seconda della distanza. Altri sintetizzatori furono pensati in modo sostanzialmente diverso da strumenti musicali: potevano occupare intere stanze, di solito nei dipartimenti di elettrotecnica delle università americane, ed erano più che altro strumenti di sperimentazione e ricerca scientifica.

La thereminista americana Lucie Bigelow Rosen dà una dimostrazione a Londra nel 1950. (J. Wilds/Keystone/Hulton Archive/Getty Images)

Il suono è l’effetto dello spostamento dell’aria causata dalla vibrazione di un corpo, che provoca un’onda acustica. Nella stragrande maggioranza dei casi, a meno che non sia eseguita dal vivo senza amplificazione, la musica che ascoltiamo è riprodotta da un altoparlante, che sia un auricolare bluetooth o un enorme subwoofer, in cui una membrana conica si muove avanti e indietro su impulso di un campo magnetico azionato da un segnale elettrico in precedenza amplificato. La grande novità dei sintetizzatori e degli strumenti elettronici in generale fu che per la prima volta per produrre quel segnale elettrico non si partiva da una sorgente acustica – una voce in un microfono, le corde di una chitarra elettrica in un pick up – ma direttamente da un impulso elettrico, che veniva prodotto utilizzando dei circuiti.

I primi macchinari assimilabili a sintetizzatori comparvero nei primi decenni del Novecento, ma fu a partire dagli anni Sessanta che presero forma gli strumenti che conosciamo oggi. Il più grande ingegnere ad animare questa fase fu il newyorkese Robert Moog, che nel 1964 inventò un synth che nelle sue evoluzioni esiste ancora oggi, e ancora oggi porta il suo nome. Il Moog era un dispositivo modulare, cioè componibile combinando su un telaio moduli diversi, che apparivano come scatole in legno ricoperte da un lato di potenziometri, interruttori e fori in cui inserire i cavi per collegarli tra loro. A comandare i vari moduli era una semplice tastiera con la quale si poteva scegliere la nota da suonare, una per volta (non era cioè un sintetizzatore polifonico, in grado di suonare accordi).

Un Moog modulare suonato nel 1971 da Mort Garson, in piedi, e Gene Hamblin. (AP Photo/David F. Smith)

Ciascun modulo svolgeva un compito diverso: avevano nomi che sono ancora oggi quelli comunemente utilizzati quando si parla di sintetizzatori, come oscillatori, filtri, generatori di inviluppo, e contribuivano tutti alla definizione del suono finale. Semplificando molto, il sistema progettato da Moog funzionava così: scegliendo una nota della tastiera si azionava un segnale elettrico di un determinato voltaggio, che passava inizialmente attraverso un oscillatore, il modulo più importante. Ancora oggi serve a definire la forma d’onda del segnale, che può essere sinusoidale, quadra, a dente di sega o triangolare (ma in realtà di infiniti tipi diversi) e che determina il timbro del suono. Dopo gli oscillatori, il segnale passava attraverso i vari moduli collegati, che aggiungevano altre caratteristiche ed effetti, ed era amplificato attraverso transistor al silicio, ottenendo così il suono finale.

Il Moog fu una rivoluzione. Nel giro di qualche anno fu adottato da sempre più musicisti, prima quelli più sperimentali e poi anche quelli più popolari. A farlo conoscere al mondo fu in particolare la tastierista Wendy Carlos, che nel 1968 pubblicò Switched-On Bach, un disco in cui suonò con un Moog diverse arie e l’intero Concerto Brandeburghese n.3 di Johann Sebastian Bach, che vendette centinaia di migliaia di copie in pochi mesi. Assieme a Carlos – che peraltro avrebbe fatto la transizione di genere qualche anno dopo, diventando una delle prime grandi musiciste dichiaratamente transgender di sempre – contribuirono alla popolarità del Moog gruppi progressive come Tangerine Dream, Yes e Emerson, Lake & Palmer, ma anche band pop e rock come i Beatles e i Rolling Stones.

Il Moog insomma inaugurò l’era dei sintetizzatori nella musica leggera. Fu il primo synth a essere messo in commercio e si impose come standard per quelli che seguirono assieme a un altro importantissimo modello prodotto contemporaneamente sulla costa opposta degli Stati Uniti dall’ingegnere californiano Don Buchla. Il suo synth si basava però su una concezione per certi versi opposta della sintesi musicale (tecnicamente si parla di sintesi sottrattiva per il Moog e additiva per il Buchla) che incoraggiava un livello di astrazione e sperimentazione ancora maggiore, anche per via dell’assenza di una tastiera come strumento di comando. Ma se il Buchla è tuttora uno strumento di culto per gli appassionati della musica elettronica, non ebbe mai l’impatto del Moog sulla musica popolare.

Il Moog aveva anche i suoi problemi. Gli oscillatori si surriscaldavano facilmente e questo disturbava il funzionamento dello strumento, che poteva produrre facilmente note stonate. Questa imprevedibilità poteva rivelarsi addirittura un vantaggio per i musicisti attratti da suoni più fantascientifici e sbilenchi, ma di fatto rendeva il Moog uno strumento inaffidabile per le esibizioni dal vivo, e che quindi veniva usato principalmente in studio di registrazione.

Fu poi nel 1970 che nacque un vero mercato dei sintetizzatori, quando fu messo in commercio il Minimoog, il primo synth portatile e venduto a un prezzo relativamente accessibile della storia. L’anno precedente erano state fondate le americane ARP e Oberheim e l’inglese EMS, che commercializzarono i primi prodotti che fecero concorrenza alla Moog, a cui si aggiunsero nel giro di qualche anno la statunitense Sequential Circuits e le giapponesi Korg e Roland. Contemporaneamente entrarono nel mercato anche aziende enormi come Yamaha.

I sintetizzatori diventavano di anno in anno più efficienti, più piccoli e più funzionali. Il Prophet-5 della Sequential Circuits, uscito nel 1978, fu ad esempio il primo synth polifonico, e altre innovazioni fondamentali riguardarono la possibilità di programmare i sintetizzatori perché riproducessero da soli una composizione musicale precedentemente impostata dal musicista. Nacquero così i primi sequencer, dispositivi programmabili e che potevano conservare in memoria alcuni preset, cioè in sostanza spartiti di note che poi potevano essere riprodotti automaticamente con determinate combinazioni di suoni, richiamabili premendo semplicemente un tasto (prima era necessario annotarsi a mano ogni singola combinazione di tasti e potenziometri per poter impostare di nuovo un suono che si era usato in precedenza).

Finora tutti questi dispositivi erano analogici, cioè il loro funzionamento si basava interamente sul segnale elettrico. Ma tra la fine degli anni Settanta e l’inizio degli anni Ottanta anche il mercato dei sintetizzatori fu interessato dalla rivoluzione del segnale digitale, che avrebbe cambiato tutto nella musica. Il primo vero synth interamente digitale fu lo Yamaha DX7, commercializzato nel 1983: sapeva imitare archi, fiati e altri strumenti in modi che allora sembravano estremamente realistici, e inaugurò di fatto il nuovo suono tipicamente plasticoso e futuristico del pop degli anni Ottanta.

In questo contesto di enormi cambiamenti, le varie aziende sul mercato degli strumenti elettronici si muovevano in ordine sparso. Tra quelle che introdussero le innovazioni più significative e invidiate ci fu Roland, fondata a Osaka nel 1972 da Ikutaro Kakehashi, che montò sui propri synth analogici Juno-60 e Jupiter-8 alcune componenti digitali in grado di rendere più precisi e affidabili gli oscillatori, e delle porte di ingresso che permettevano di collegare le proprie prime, storiche drum machine, strumenti elettronici in grado di comporre e suonare pattern ritmici. Fu proprio sulla base di questi connettori della Roland che si sarebbe sviluppato lo standard MIDI.

Kakehashi era un genio dell’elettronica, e aveva grandi progetti per la sua azienda, che non esisteva da nemmeno dieci anni ma si stava già imponendo come una delle più importanti produttrici di strumenti elettronici al mondo, grazie a prodotti economici e semplici rivolti al grande pubblico più che ai professionisti. Kakehashi era convinto che permettendo ai musicisti di poter combinare tra loro prodotti di aziende diverse le vendite di strumenti elettronici sarebbero aumentate molto di più rispetto a quanto sarebbe successo se ogni azienda avesse continuato a sviluppare tecnologie proprietarie, che vincolavano gli acquirenti a un solo marchio. Come ha spiegato il sito MusicRadar, a parte i professionisti più pagati, la maggior parte dei musicisti aveva paura a investire nel prodotto sbagliato, specialmente in anni in cui le innovazioni erano così frequenti e ogni mese uscivano nuovi modelli con funzionalità impensabili fino a poco prima.

– Leggi anche: Storia della 808

Grazie alla posizione di spicco e alla credibilità guadagnata in quegli anni, Kakehashi prese l’iniziativa di coinvolgere le altre società rivali in alcune discussioni sulle possibilità di creare un protocollo standard che potesse essere implementato su tutti gli strumenti, in modo da permettere che interagissero tra di loro. In questo modo, pensava Kakehashi, i musicisti avrebbero potuto comprare senza troppe esitazioni sintetizzatori, sequencer, batterie elettroniche e altri dispositivi elettronici, sicuri che avrebbero potuto continuare a combinarli tra di loro anche col passare del tempo, senza che le evoluzioni di alcuni modelli potessero renderne obsoleti altri.

I tastieristi infatti stavano iniziando ad apprezzare sempre di più le possibilità dei synth polifonici e a suonare insieme modelli di marchi diversi per produrre suoni sempre più complessi e originali. Ma per farlo dovevano impilare più sintetizzatori su grossi sostegni, suonandone al massimo due per volta, uno con la mano destra e uno con la mano sinistra. Se ci fosse stato un modo di collegarli tra di loro, avrebbero potuto usare una singola tastiera per comandare più sintetizzatori contemporaneamente. Le potenzialità di questo nuovo modo di suonare, con l’integrazione e il progressivo miglioramento di strumenti programmabili in grado di eseguire parti in autonomia, erano di fatto infinite.

Rick Wakeman degli Yes con un bel po’ di organi e sintetizzatori nel 1984. (Butler/Daily Express/Hulton Archive/Getty Images)

Kakehashi contattò Tom Oberheim, fondatore dell’omonima azienda e tra i più rispettati ingegneri che si occupavano di strumenti elettronici, che a sua volta coinvolse Dave Smith, l’altro grande pioniere del settore, che aveva fondato la Sequential Circuits. Erano anni di grandissimo entusiasmo in un campo che di fatto stava nascendo dal nulla, e che mescolava sensibilità artistica e competenze tecnologiche come mai era successo prima nella storia della musica. Kakehashi, Oberheim e Smith si convinsero che l’imminente guerra degli standard tecnologici andava evitata, e che l’intera industria avrebbe giovato dallo sviluppo di un protocollo condiviso. Non restava quindi che coinvolgere anche gli altri produttori.

Non era semplice, perché ciascuna azienda aveva dedicato gli ultimi anni a sviluppare dei propri sistemi per far interagire i propri strumenti. Quelli di Roland e di Oberheim erano peraltro i più raffinati, ma entrambi avevano ampi margini di miglioramento. Smith invece aveva già lavorato a un sistema per trasmettere le informazioni sulle composizioni programmate sul suo Prophet 10 a dispositivi di altri marchi. Una tecnologia aperta che sperava avrebbero adottato anche le aziende rivali, ma che si basava su un’intuizione sbagliata e che in sostanza trasmetteva dati troppo pesanti per essere gestiti con efficienza da macchine diverse. Smith si convinse che il nuovo sistema avrebbe dovuto essere molto più semplice.

Kakehashi convinse le altre grandi aziende giapponesi del settore, Yamaha, Korg e Kawai, a partecipare alle discussioni, e nell’ottobre del 1981 fu presentato un prototipo della tecnologia, che parve subito promettente ma che aveva ancora evidenti problemi legati alla stabilità del segnale e ad alcune funzionalità importanti che ancora dovevano essere perfezionate. Negli anni successivi, gli ingegneri delle varie aziende parteciparono a vari incontri e riunioni, spesso in corrispondenza dei NAMM Show, le più importanti fiere dei produttori di strumenti musicali al mondo, per discutere di come sviluppare un sistema che pian piano sempre più addetti ai lavori si convinsero fosse necessario. Dopo che fu valutato il nome di Universal Musical Interface (UMI, che si sarebbe pronunciato come you-me), per il nuovo sistema venne scelto quello di Musical Instrument Digital Interface, MIDI.

Tecnicamente, quello MIDI è un segnale digitale, cioè contiene una serie di informazioni in forma binaria (0 o 1). La grande intuizione dietro alla sua invenzione fu che il segnale MIDI non trasmette direttamente il suono, ma soltanto delle istruzioni su come quel suono debba essere riprodotto: quale nota, a quale volume, per quale durata, con quale timbro, con quali effetti e con quale intensità nei singoli effetti (ogni comando è espresso da un valore compreso tra 0 e 127), per un totale di fino a 16 canali diversi (corrispondenti ad altrettanti strumenti). È in sostanza un misto tra uno spartito e un libretto di istruzioni, e in quanto tale è un segnale molto essenziale e leggero, trasmesso attraverso cavi che si connettono ai dispositivi con connettori a cinque poli, con la messa a terra per evitare le interferenze.

– Leggi anche: Il suono della “batteria anni Ottanta”

Al NAMM del gennaio del 1982 una prima versione del protocollo fu presentata davanti a tutte le principali società, ma la reazione fu tiepida. Emersero dubbi e rivalità, e molte società si tirarono fuori, preferendo concentrarsi su tecnologie proprietarie che a loro avviso avrebbero potuto essere sviluppate in modo da consentire interazioni più sofisticate e potenti. Rimasero soltanto Roland, Yamaha e Sequential Circuits, ma la convinzione e la passione di Smith permisero che il progetto proseguisse nonostante lo scetticismo generale.

Jeff Rona, compositore e ingegnere della Roland che un po’ per caso fu messo a capo del progetto dalle varie aziende, ha spiegato comunque che all’inizio le aziende più coinvolte pensavano che ad aver sfruttato il MIDI sarebbero stati un pugno di musicisti famosissimi che usavano le attrezzature più costose e sofisticate. Non ci si facevano troppe illusioni su quanto la tecnologia avrebbe potuto diffondersi tra il grande pubblico. I lavori proseguirono comunque, anche perché non si trattava di un progetto particolarmente costoso, finché al NAAM invernale del gennaio del 1983 Roland e Sequential Circuits dimostrarono in una conferenza stampa un’interazione tra un Jupiter-6 e un Prophet 600, che era stato il primo synth a essere prodotto con una porta MIDI: una nota eseguita su un sintetizzatore venne suonata dall’altro, tra l’entusiasmo dei presenti.

Dae Smith di Sequential Circuits alla dimostrazione della prima interazione tra sintetizzatori attraverso il protocollo MIDI, al NAMM di Anaheim, California. (Dave Smith via MacProVideo)

Nei mesi successivi gli ingegneri del progetto MIDI continuarono a espandere le potenzialità di quel semplice segnale, ampliandone le funzionalità per includere la possibilità di comandare per esempio anche luci e video. Nel giro di poco tempo anche diverse aziende che si erano inizialmente ritirate rientrarono nel progetto, anche se alcune, come Synclavier, alla fine preferirono aspettare per vedere gli sviluppi della tecnologia. La collaborazione tra aziende rivali da quel momento in poi si rivelò proficua, rapida ed efficiente, anche perché Rona decise di gestire l’intero progetto autonomamente, senza collaborare con il governo statunitense che avrebbe voluto essere coinvolto in modo da applicare i propri protocolli di approvazione pensati per minimizzare il rischio di cause legali tra società diverse.

– Leggi anche: Il più grande disastro nella storia dell’industria discografica

Dopo il Jupiter-6 e il Prophet 600, nel maggio del 1983 la tecnologia MIDI fu inclusa anche nel rivoluzionario Yamaha DX7, il primo synth interamente digitale, anche se fu integrata in maniera un po’ raffazzonata e nei primi modelli non funzionò molto bene. Nel giro di un paio d’anni la tecnologia MIDI diventò lo standard sulla gran parte degli strumenti elettronici, accettato via via anche da chi all’inizio era stato reticente. Con una rapidità piuttosto rara, le grandi aziende adottarono una tecnologia innovativa, semplice e aperta che ampliò radicalmente le libertà dei musicisti. Ora infatti potevano scegliere il sequencer che più apprezzavano e usarlo per programmare e far suonare un sintetizzatore di un’azienda rivale, oppure potevano collegare una drum machine Roland a un synth Yamaha per farli suonare in modo sincronizzato, e ancora fare molte altre cose che vennero scoperte man mano.

Tra la fine degli anni Ottanta e l’inizio degli anni Novanta, con l’arrivo dei primi software di produzione musicale, il MIDI si rivelò il protocollo perfetto per collegare gli strumenti elettronici ai computer. Suonando qualcosa su un synth si potevano trasmettere al computer le informazioni – i tasti premuti, per quanto tempo, con quale velocità, quale timbro, con o senza la pressione del pedale – che a sua volta poteva registrarle ed eventualmente inviarle in seguito a un altro synth, in modo da programmarlo per suonare quella stessa composizione. Oppure la si poteva modificare in alcune sue parti direttamente sul computer, per poi farla riprodurre da altri strumenti ancora, o per inviarla ad altre persone. Col passare del tempo, sarebbero diventati gli stessi software a imitare i synth, ampliando all’infinito le possibilità di creare nuovi suoni.

Questo cambiava tutto per chi era interessato a produrre musica con gli strumenti elettronici, che si trattasse di un oscuro dj londinese o del produttore di Madonna. Le nuove possibilità tecnologiche, e la progressiva accessibilità dei prezzi delle strumentazioni, trasformarono il lavoro di chi faceva musica, sia negli studi delle major sia nelle camerette, dove cominciarono a essere allestite le prime postazioni domestiche per produrre musica elettronica.

Oggi il MIDI è ancora il protocollo alla base della produzione musicale digitale, ma allo stesso tempo può essere usato per moltissime altre cose, dagli impianti per karaoke ai mastodontici sistemi di controlli luci e led dei festival musicali, dalla produzione delle colonne sonore dei videogiochi al controllo di mixer da decine di canali degli studi di registrazione professionali. Grazie al MIDI, con una semplice tastiera da poche decine di euro e un software gratuito chiunque può realizzare una canzone che può potenzialmente arrivare in cima alle classifiche. Usando lo stesso linguaggio che usa Hans Zimmer per testare come suonano le sue opere orchestrali mentre le compone, senza bisogno di ingaggiare decine di musicisti per sentire come suonano le versioni provvisorie.

Il Guardian ha scritto che il MIDI «è importante per la musica moderna quanto lo è l’USB per l’informatica». Soltanto nel 2020, quasi quarant’anni dopo la prima versione, è stato introdotto il MIDI 2.0, che comunque conserva la maggior parte delle caratteristiche del protocollo originale. Nel 2013 a Kakehashi e Smith venne assegnato un Technical Grammy Award, un riconoscimento dell’industria discografica americana per l’innovazione tecnologica, per aver sviluppato il formato MIDI, che oggi è amministrato dalla MIDI Manufacturers Association.