La musica è davvero universale?

È una presenza costante nelle società umane ma i suoi usi, gli elementi costitutivi e le reazioni che suscita possono variare molto a seconda dei diversi contesti culturali

musica sottile linea rossa
Una scena del film del 1998 “La sottile linea rossa”

Capita spesso di sentire, parlando di musica, una frase fatta apparentemente incontestabile che la descrive come un linguaggio universale, una forma di comunicazione sempre possibile tra persone che non parlano una stessa lingua. È in effetti difficile negare che la musica sia un’esperienza umana largamente condivisa e molto radicata sul piano evolutivo e biologico. Meno ovvia è però l’idea che sia un linguaggio: per molti versi non lo è affatto, anzi. Come scrisse il neurologo e scrittore inglese Oliver Sacks nel libro Musicofilia, la musica «non ha concetti, non formula proposizioni» e «manca di immagini e di simboli, ossia della materia stessa del linguaggio».

Da un lato, quindi, la musica è un fenomeno presente in tutte le culture, che riguarda sia lo sviluppo biologico degli esseri umani, fin dall’infanzia, che la loro evoluzione. Ma dall’altro non instaura con la realtà alcuna relazione necessaria e invariabile: non è la rappresentazione di qualcosa nel modo in cui lo è il dipinto di un animale stilizzato nelle pitture rupestri. E l’idea che possa essere associata a determinate attività o esprimere e indurre determinate emozioni, indipendentemente dal contesto culturale in cui viene prodotta, è da tempo oggetto di numerose riflessioni e studi privi di risposte conclusive.

Cosa intendiamo dire quando diciamo che la musica è universale è una questione complicata e dibattuta, insomma, e a volte criticata come etnocentrica (che asseconda cioè una tendenza a giudicare altri gruppi etnici soltanto sulla base dei valori e dei costumi del proprio gruppo di appartenenza). «L’unico aspetto universale della musica sembra essere che la maggior parte delle persone la fa», scrisse nel 1971 l’etnomusicologo statunitense George List, aggiungendo che per il resto esistono soprattutto prove della non-universalità della musica.

Nel 2019, in uno studio intitolato Universality and Diversity in Human Song e pubblicato sulla rivista Science un ampio gruppo di psicologi, antropologi, etnomusicologi e altri scienziati cercò di descrivere gli aspetti universali e quelli variabili della musica. La domanda a cui cercò di dare risposta è se la musica sia soltanto un sottoprodotto della cultura, o se gli esseri umani possiedano una specie di grammatica musicale condivisa, che permetta a tutti di produrre e di comprendere la musica allo stesso modo.

Il gruppo basò lo studio sull’analisi di una gran mole di documenti etnografici, incluse molte registrazioni musicali, provenienti da 315 diverse società di tutto il mondo. E tenne conto delle valutazioni di quei documenti fatte da vari campioni di persone, esperte di musica e non. La musica esiste in tutte le società, osservarono innanzitutto gli autori dello studio sulla base delle proprie ricerche. È regolarmente associata a determinati tipi di comportamento comune e ha caratteristiche acustiche correlate agli obiettivi e alle risposte sia di chi la produce che di chi la ascolta.

– Leggi anche: La musica che ci fa fare le cose

In generale, secondo lo studio, esistono quattro tipi di canzone in tutte le società: canzoni d’amore, ninne nanne, canzoni curative e canzoni da danza. E questo perché in tutte le culture le persone si innamorano, generano prole, cercano di stare bene e danzano. In un esperimento condotto tramite un sito Internet, i ricercatori fecero ascoltare a circa 30 mila persone di paesi occidentali una serie di registrazioni di canzoni tratte da culture di varie zone del mondo come la Micronesia, l’Africa occidentale, l’Europa sudorientale e il Sud America meridionale.

Chiesero quindi alle persone di provare a indovinare, per ciascuna delle canzoni ascoltate, a quale dei quattro tipi appartenesse. E le risposte che ottennero furono grossomodo corrette, più di quanto lo fossero quelle generate casualmente: forse, ipotizzarono i ricercatori, perché le canzoni avevano tratti riconoscibili dagli ascoltatori e probabilmente comuni in tutte le società.

Potete provare a indovinare per i seguenti esempi di che tipo di canzone si tratta: canzone d’amore, ninna nanna, canzone curativa o canzone da danza?
(Le risposte sono alla fine dell’articolo, e altri esempi si trovano in questo articolo interattivo del New York Times)

1.

2.

3.

4.

5.

 

La maggior parte degli ascoltatori che partecipò allo studio uscito su Science individuò correttamente le ninne nanne e le canzoni associate alla danza. Ebbe invece difficoltà a riconoscere le canzoni dei guaritori e quelle d’amore, che rispetto agli altri due tipi hanno una maggiore varietà ritmica e melodica. Sia le ninne nanne che le canzoni per danzare «suonano in un certo modo in tutto il mondo perché hanno una specifica funzione», disse, uno degli autori dello studio, l’antropologo statunitense Luke Glowacki della Pennsylvania State University.

I ricercatori conclusero che la musica non è «una risposta biologica fissa con un’unica funzione adattiva», perché è prodotta in tutto il mondo in contesti che possono variare molto. Ciononostante sembra essere collegata a «facoltà psicologiche sottostanti» e a «specifiche facoltà percettive, cognitive e affettive» tra cui il linguaggio e il controllo dei movimenti, come dimostrato dal fatto che tutte le società utilizzano parole nella musica e tutte le società danzano. «Se la musica fosse interamente plasmata dalla cultura e non dalla psicologia umana, non ti aspetteresti di vedere emergere queste profonde somiglianze all’interno di culture estremamente diverse», disse Glowacki.

Lo studio fu ripreso da giornali e siti generalisti, e suscitò numerose critiche da parte di chi ne contestò le premesse stesse, a cominciare dal fatto che nel citato esperimento di ascolto i partecipanti provenissero tutti da paesi occidentali. Alcune persone, tra cui diversi musicologi, definirono etnocentrico ed eurocentrico l’approccio dei ricercatori, obiettando che ogni società fa esperienza della musica in modo diverso a seconda del proprio contesto culturale di riferimento.

– Leggi anche: La longeva tradizione della musica mariachi in Messico

Parlando con la rivista scientifica Nautilus, l’etnomusicologa e docente di educazione musicale alla University of Washington Patricia Shehan Campbell descrisse come largamente accettata l’idea della musica come attività umana universale, ma aggiunse che le analisi più approfondite e dettagliate indicano come, nelle diverse società, la musica presenti moltissima «varietà nei suoi elementi sonori, nei suoi usi sociali e in quelli individuali».

Campbell disse poi che nelle diverse culture del mondo è effettivamente possibile trovare riscontro dei quattro tipi di canzone individuati nello studio pubblicato su Science. Ma la definizione di quei tipi nello studio derivava dell’analisi di documenti etnografici e registrazioni esistenti, non da osservazioni e ricerche condotte di persona dagli autori dello studio. E questo finisce per limitare molto il valore di quelle categorie per i musicologi, perché le rende quantomeno discutibili «dal punto di vista di chi lavora in modo più umanistico che statistico».

Secondo diversi musicologi, utilizzare quei quattro tipi di canzone come sistema comune di misurazione nella ricerca rischiava di essere più una forma di limitazione del valore della musica che un’affermazione della sua universalità. Quella prospettiva sembrava ignorare che le canzoni derivano da condizioni sociali ed emotive varie e complesse, non soltanto dal bisogno di amarsi, danzare, curare le persone e crescere la prole. Inoltre i singoli elementi musicali utili a definire un tipo di canzone possono essere presenti anche in un altro tipo, così come una canzone curativa può in un diverso contesto funzionare come una canzone per la danza.

Un altro punto generalmente molto discusso del dibattito sull’universalità della musica riguarda le sensazioni di gradevolezza o sgradevolezza e le emozioni che la musica è in grado di suscitare. Una parte degli studiosi, tra cui molti scienziati cognitivi, ritiene che tali reazioni abbiano radici biologiche e siano pertanto indipendenti dalle tradizioni culturali e dall’esposizione abituale a certi suoni. Gli esperti di musica e gli etnomusicologi, sulla base dei risultati di vari studi ed esperimenti, tendono invece a ritenere determinante il contesto culturale nella definizione delle reazioni umane alla musica.

– Leggi anche: Il ritmo che si sente un po’ ovunque

Nella tradizione musicale occidentale è molto nota, per esempio, la differenza tra le reazioni alle tonalità maggiori e a quelle minori, una terminologia introdotta intorno al XVII secolo ma derivata da teorie e notazioni risalenti all’antica Grecia. Alla specifica successione ordinata di suoni del modo maggiore – sia che si tratti di scale, successioni di note individuali, sia di progressioni di accordi, sequenze di suoni composti da più note ciascuno – sono generalmente associate emozioni positive e sensazioni di felicità e gioia, mentre alla musica in tonalità minore sono associate emozioni negative e sensazioni di tristezza.

Questi effetti, oltre a essere da tempo oggetto di studi, sono spesso percepibili in modo abbastanza chiaro attraverso certe rielaborazioni diffuse online di alcune canzoni di musica leggera molto conosciute. Quelle composte in tonalità minore risultano più allegre cambiando la progressione degli accordi e utilizzando quelli corrispondenti nella tonalità maggiore. Vale anche il contrario: le canzoni che utilizzano progressioni di accordi in maggiore diventano molto più tristi, se trasposte nella tonalità minore.



Come avvenuto nel caso di studi che hanno negato un altro principio controverso – l’universalità delle sensazioni di piacevolezza delle combinazioni di note consonanti e di sgradevolezza di quelle dissonanti – anche le tonalità maggiori e minori sono state oggetto di studi che mettono in dubbio l’universalità delle reazioni che suscitano.

Un recente studio pubblicato sulla rivista PLOS ONE e condotto da un gruppo australiano di ricercatori del MARCS Institute for Brain, Behaviour and Development, un centro di ricerca della Western Sydney University, ha concluso che la percezione di progressioni di accordi e melodie maggiori o minori come musica allegra o musica triste potrebbe non essere universale: è più probabile che sia il risultato di condizionamenti culturali.

I ricercatori hanno lavorato con diverse comunità della foresta pluviale in Papua Nuova Guinea, tra gruppi che condividono tradizioni musicali comuni ma presentano differenti gradi di esposizione alla musica e alla cultura occidentali. Ai partecipanti all’esperimento è stato chiesto di ascoltare determinate melodie e progressioni di accordi in tonalità maggiore e minore, e di indicare poi quale musica li rendesse più felici o più tristi (un parametro definito dai ricercatori come «valenza emotiva»).

Le risposte mostrarono in modo evidente una maggiore felicità associata alle progressioni di accordi in maggiore in tutte le comunità tranne una: quella con la minore esposizione alla musica occidentale. E per quanto riguarda le melodie, soltanto una comunità associò maggiore felicità a quelle in tonalità maggiore.

«Ogni film o programma televisivo che guardiamo è enfatizzato da una colonna sonora che accompagna le scene emozionanti, e in genere le progressioni di accordi in maggiore sono utilizzate nelle scene felici e allegre mentre quelle in minore trasmettono di solito un senso di disagio e di tristezza», ha detto il ricercatore in musicologia cognitiva e computazionale Andrew Milne, tra gli autori dello studio, cercando di spiegare una possibile ragione delle associazioni prevalenti nella musica occidentale.

Dalla prospettiva di persone abituate ai suoni più diffusi nella musica occidentale, parallele sensazioni di estraneità e difficoltà nel comprendere la valenza emotiva di un certo tipo di progressioni di note possono essere provate quando si ascolta musica non basata sulla scala diatonica (la scala di sette suoni alla base della tradizione musicale occidentale e in cui le note si susseguono secondo una precisa successione di sette intervalli, cinque toni e due semitoni).

Sarebbe difficile, per esempio, mettere d’accordo un ampio gruppo di persone di paesi occidentali sulla valenza emotiva di una canzone come Ne güzel gözlerin var del popolare cantante turco İbrahim Tatlıses: se si tratti, a prescindere dal testo della canzone, di una musica inequivocabilmente triste o inequivocabilmente allegra.


Sensazioni simili a queste sono quelle suscitate, generalmente, dai suoni di sistemi musicali che utilizzano intervalli regolari diversi da quelli prevalenti nella musica occidentale (e quindi, spesso, strumenti diversi). La cosiddetta musica microtonale o policromatica, per esempio, utilizza intervalli più piccoli dei semitoni presenti nella consueta accordatura occidentale (fatta di dodici intervalli uguali per ottava). È come se comprendesse, per capirci, suoni che stanno a metà tra quelli prodotti da due tasti adiacenti di un pianoforte, o come se, nel caso della chitarra, utilizzasse suddivisioni aggiuntive rispetto alla tastiera standard, come quelle esistenti sulla tastiera di un sitar indiano (o di un qualsiasi violino, se è per questo, su cui però questi suoni non vengono generalmente riprodotti).

Il chitarrista classico statunitense John Schneider, per esempio, utilizza diverse chitarre con tastiere microtonali ed è noto per le sue apprezzate esecuzioni di musiche di famosi compositori microtonali come Harry Partch e Lou Harrison.


Il senso di estraneità di molte persone occidentali rispetto alla musica microtonale può essere considerato, a un livello pratico e intuitivo, un esempio della profonda influenza esercitata dalle abitudini e dal contesto culturale sulla percezione stessa della musica. Lo speciale pianoforte a quarti di tono (un microtono a metà tra due semitoni nella scala diatonica) utilizzato dal compositore francese di origini russe Ivan Wyschnegradsky potrebbe, alle orecchie della maggior parte delle persone, suonare semplicemente come un pianoforte stonato.


Questi elementi di microtonalità sono perlopiù presenti nella tradizione musicale occidentale come eccezioni rispetto a una norma. Nella musica influenzata dalla tradizione del blues, per esempio, la possibilità di «piegare» le note, aumentandole anche solo di mezzo semitono con apposite tecniche che variano da strumento a strumento, è diffusa e radicata al punto che quel tipo di suono è diventato assai familiare.

In altri casi, l’estraneità rispetto a questi suoni è stata invece utilizzata per ottenere effetti drammatici nel cinema di genere, fattore che potrebbe aver rafforzato nel tempo le associazioni ipotizzate da Milne tra certe emozioni e certa musica. I quarti di tono furono utilizzati, per esempio, dal compositore statunitense di colonne sonore Henry Mancini per le musiche del film thriller del 1967 Gli occhi della notte.


Spesso l’incapacità di distinguere la musica allegra da quella triste – in un senso che sia, se non universale, largamente condiviso – si presenta inoltre nel caso di diversi sottogeneri dell’alternative rock e della musica new wave: band come gli Smiths e i Cure, per esempio, giocarono fin dagli anni Settanta sull’ambiguità tra armonie maggiori, vivaci e danzerecce e testi malinconici. Altre esplorarono lo stesso cortocircuito emotivo sfruttando suoni microtonali e accordature atipiche, più facili da tirar fuori da strumenti elettronici come i sintetizzatori o da strumenti tradizionali suonati in modo non del tutto convenzionale.


Come concluso anche dagli autori dello studio pubblicato su PLOS ONE, la valenza emotiva di diversi tipi di musica è un linguaggio non universale ma culturalmente appreso, almeno in una certa misura. E questa conclusione rafforza l’ipotesi di una stretta relazione tra l’evoluzione della musica e quella del linguaggio. Dal punto di vista delle neuroscienze, come affermato dal neurologo statunitense Steven Novella, la musica e il linguaggio sono fenomeni collegati per un verso ma distinti per un altro.

I centri di elaborazione e comprensione degli aspetti semantici e grammaticali del linguaggio si trovano nell’emisfero dominante (quello sinistro, per la maggior parte delle persone), ricorda Novella. Ma la capacità di apprezzare la musica risiede nell’altro emisfero, quello responsabile della comprensione degli aspetti prosodici del discorso (inflessioni, intonazioni e altri aspetti fondamentali per dedurre emozioni e significati: se un certo tono è sarcastico, per esempio).

– Leggi anche: Ci sono suoni che fatichiamo a spiegare

Secondo studi citati da Novella, ci sono buone ragioni per credere che lo sviluppo di queste capacità prosodiche e musicali sia evolutivamente antecedente rispetto ad altri aspetti del linguaggio. Probabilmente i nostri antenati comunicavano con ululati e fischi, per rafforzare la mimica e le espressioni facciali, «anche prima che avessero qualcosa di simile a parole o linguaggio». Ed essere capaci di interpretare le emozioni di un altro membro del proprio gruppo era fondamentale per la sopravvivenza.

Magari erano eccitati perché avevano appena trovato un albero pieno di frutti, ipotizza Novella, o perché avevano appena individuato un predatore che li cacciava. In questo modo, le emozioni sono state «strettamente codificate» nell’altezza e nell’intensità del tono della voce, «il primo strumento musicale». Ed è probabile che soltanto in seguito siano state aggiunte le parole e gli altri elementi utili a migliorare la comunicazione.

Ma vale per la musica lo stesso discorso che vale per il linguaggio, conclude Novella, quando si dice che è sia qualcosa di culturale che universale. «La capacità di avere una lingua e alcuni elementi della grammatica sembrano essere universali, ma la manifestazione specifica della lingua è culturale e può variare enormemente». Allo stesso modo, «la musica è uno specifico tipo di linguaggio culturale condiviso, ma basato su predisposizioni universali e funzioni neurologiche».

***

1. Una canzone d’amore ruandese registrata nel 1952 (la traduzione di una parte del testo è: «Perché ti amo, quando tu non rispondi? Ti ho scritto lettere, e tu non rispondi»).

2. Una canzone d’amore scozzese registrata dall’etnomusicologo americano Alan Lomax durante un viaggio tra le popolazioni delle Isole Ebridi nel 1951.

3. Una canzone cantata da guaritori di una popolazione delle Ande centrali vicino a Otavalo, in Ecuador.

4. Una ninna nanna registrata nel 2012 dalla folclorista americana Hannah Wild tra i Nyangatom, una popolazione dell’Africa orientale.

5. La musica di una danza tribale registrata nel 1924 tra gli Hopi, una popolazione amerinda del Sud-ovest degli Stati Uniti.