Corso per Operatore Grafico Multimediale
AZ. 15
ELABORAZIONE DIGITALE DEL SUONO
Teoria del suono Dispensa realizzata da Fabio Mocciaro
Parte 1 - Teoria del suono: Cos'è il suono Una prima definizione che possiamo dare è che quello che noi percepiamo come suono è una variazione, rispetto ad un valore costante, nella pressione dell'aria. Quando questa variazione viene ripetuta ciclicamente un certo numero di volte in un intervallo di tempo, che definiremo meglio in seguito, percepiamo un suono. Affinché un suono si possa propagare ha bisogno di un mezzo che lo trasporti; l'aria è uno di questi in quanto le sue particelle, come vedremo, si trasmettono l'un l'altra la vibrazione generata dalla sorgente sonora e la propagano nello spazio. Questo significa che qualsiasi mezzo, solido, liquido o gassoso che sia, è in grado di trasportare il suono, influendo sulla sua velocità a seconda della sua densità. Come mezzo di riferimento per i nostri esempi considereremo l'aria essendo quello con cui avremo a che fare nei casi pratici.
Propagazione del suono Il suono si propaga nell'aria mediante collisioni multiple tra particelle. Consideriamo di avere un altoparlante e sia questo la nostra sorgente sonora. Il magnete si muove avanti e indietro seguendo l'ampiezza del segnale elettrico che viene applicato all'induttore su cui si appoggia. Così facendo sposta delle particelle d'aria comprimendole prima e dilatandole poi:
Compressione (C=compression) e dilatazione (R=rarefaction) di particelle nell'aria
Seguiamo la propagazione del suono a partire dalla sorgente sonora (l'altoparlante), per fissare le idee supporremo che prima avvenga una compressione verso destra, poi una dilatazione verso sinistra:
Movimento di un altoparlante L'altoparlante si muove e spinge le particelle d'aria che si trovano alla sua destra (fase a) operando una compressione. Queste, a loro volta vanno a spingere le particelle che sono a loro vicine e trasferiscono loro l'energia che hanno ricevuto l'altoparlante. In seguito l'altoparlante torna indietro ed esegue una compressione nel verso opposto ovvero una dilatazione verso sinistra (fase b) e nel fare ciò crea una depressione davanti a se che viene colmata dalle particelle d'aria che si trovano nelle immediate vicinanze. Queste particelle che si muovono creano a loro volta una depressione alla loro destra e così via. Questo procedimento fa sì che la particelle trasmettano l'energia oscillando e non muovendosi fisicamente nella direzione di propagazione del suono. Potrete facilmente convincervi di questo pensando ad un tappo di sughero in uno specchio d'acqua in cui tirate un sasso. Vedrete che il tappo oscilla su e giù man mano che l'onda generata dal sasso si propaga ma rimane immobile rispetto alla direzione di propagazione dell'onda. Se l'altoparlante è pilotato da un segnale sinusoidale, la pressione atmosferica nelle sue vicinanze avrà l'andamento descritto dalla figura seguente:
Andamento sinusoidale della pressione atmosferica
Proprietà del suono Nel paragrafo precedente si è visto come l'andamento della pressione atmosferica in corrispondenza di un altoparlante in azione possa essere visualizzato come una forma d'onda. Le forme d'onda possono arrivare ad essere molto complicate ma per fortuna tutte, e dico tutte, possono essere considerate come un'estensione di una forma d'onda molto semplice: la sinusoide, espressa nella sua forma più generica dalla seguente figura:
Grafico di una sinusoide La sinusoide ha una serie di proprietà: 1. 2. 3. 4. 5.
Frequenza (f) Periodo (T) Lunghezza d'onda (λ) Ampiezza (A) Velocità (v)
Frequenza E' letteralmente il numero di cicli che vengono compiuti dall'onda in un secondo dove un ciclo si intende composto da una semionda positiva e una semionda negativa. Viene misurata in Hz[1/sec], un'onda di frequenza pari a 1Hz compie un ciclo ogni secondo. La figura seguente mostra una sinusoide di frequenza pari a 5 Hz:
Sinusoide di frequenza 5 Hz
Periodo Ăˆ il tempo impiegato per compiere un ciclo completo. La figura seguente mostra la durata del periodo di una sinusoide:
Periodo di una sinusoide
Lunghezza d'onda Definita come la distanza tra due punti corrispondenti (per esempio due massimi successivi) lungo la forma d'onda. La figura seguente mostra la lunghezza d'onda di una sinusoide:
Lunghezza d'onda di una sinusoide
Ampiezza E' la misura dello scostamento massimo dalla posizione di equilibrio. Ampiezze maggiori corrispondono a volumi più alti. Esistono due tipi misura delle ampiezze. La prima è una misura di tipo assoluto ed è detta ampiezza di picco. Questa misura effettivamente il punto in cui l'onda ha ampiezza massima. La seconda è una misura sull'ampiezza come viene percepita dall'orecchio. Si parla in questo caso di ampiezza efficace (RMS, Root Mean Square. La figura seguente mostra l'ampiezza di una sinusoide:
Ampiezza di una sinusoide Velocità La velocità del suono nell'aria è di circa 344m/s. Più il mezzo è denso, più il suono si propaga velocemente e vedremo meglio nel seguito come questo fatto sia alla base del fenomeno della rifrazione. Un suono che si propaga all'interno di un mezzo ha una velocità di propagazione che dipende dalle caratteristiche del mezzo stesso. Ogni mezzo ha una sua tipica velocità del suono calcolata ad una temperatura costante di 23°C o 24°C. Questo serve come valore di riferimento in quanto al variare della temperatura, variano le caratteristiche del mezzo e dunque la velocità del suono al suo interno. Quando un mezzo viene riscaldato, alle sue particelle viene trasferita energia cinetica. Quando vengono in contatto con un fronte d'onda, le particelle del mezzo rispondono più prontamente alla sollecitazione e trasmettono dunque l'energia sonora ricevuta più velocemente. Ciò si traduce nella maggiore velocità del suono nel mezzo. Mediamente si riscontra un aumento (diminuzione) di velocità di 0.6 m/s per ogni incremento (decremento) di un grado C della temperatura del mezzo.
Combinazione di sinusoidi pure La sinusoide è la forma d'onda più semplice che possiamo immaginare, e come tale anche la meno interessante dal punto di vista dell'estetica del suono. Cerchiamo allora di complicare un po' le cose per renderle più interessanti. Si è detto di come qualsiasi forma d'onda sia riconducibile ad una combinazione (somma) di sinusoidi con opportuna ampiezza: questa è stata la straordinaria scoperta fatta dal matematico francese Jean Baptiste Fourier (1768 - 1830). Partiamo dal principio. Se prendiamo in esame due forme d’onda sinusoidali, come in figura seguente, vediamo che la somma delle due è una sinusoide di ampiezza doppia rispetto alle due precedenti. A livello di audio che succede? Sentiamo un suono alla stessa frequenza delle due onde componenti ma l'ampiezza doppia fa si che il volume sia più alto. Di quanto? Non del doppio, un po' meno, ma di questo parleremo più avanti. Questo se sommiamo due forme d’onda in fase sincrona (parte a in figura). Cosa succede se sommiamo due forme d'onda in controfase? La risposta è ovvia e la si può dedurre dalla figura seguente (parte b in figura).
Somma e differenza di sinusoidi
Rappresentazione tempo - frequenza Questa è forse la parte più importante per capire a fondo la natura di un suono. La trattazione matematica di questo argomento può diventare molto complessa, qui ci basterà accennare ai dettami fondamentali tralasciando i rigori imposti dalla divulgazione scientifica. I grafici che abbiamo visto finora erano del tipo Ampiezza-Tempo ossia descrivevano l'andamento dell'ampiezza al variare (allo scorrere) del tempo. Consideriamo ora un diverso approccio alla questione e vediamo come sia possibile rappresentare l'ampiezza in funzione della frequenza.
Una rappresentazione Tempo - Frequenza Una sinusoide è rappresentabile, in un diagramma Ampiezza-Frequenza, come un segmento di lunghezza pari all'ampiezza della sinusoide e posizionata sulla sua frequenza (questa frase farebbe inorridire qualsiasi fisico ma come già detto in questa sede non siamo interessati ai rigori scientifici quanto piuttosto alla comprensione generale dei fenomeni). Ora mettiamo insieme tutte queste cose. Immaginiamo un suono complesso cioè composto da tutte le sinusoidi da 20Hz a 20KHz ( questo è più o meno l'intervallo delle frequenze udibili dall'orecchio umano, quindi dal nostro punto di vista sono le uniche frequenze che ci interessano).
Andamento in tempo di un segnale sonoro complesso Il suo spettro di frequenza varierà continuamente nel tempo e se immaginiamo di 'fotografare' lo spettro in un determinato istante avremo su un diagramma Ampiezza-Frequenza il seguente tipo di grafico:
Spettro di frequenza di un segnale sonoro complesso Un suono non sta mai fermo ma varia continuamente nel tempo. Ciò significa che ogni sinusoide componente varia la sua ampiezza e dunque varia anche la forma del grafico dello spettro. Questo spiega cosa si vede quando si osserva un analizzatore di spettro con tutti quei LED che sembrano impazziti. Vi sta mostrando l'ampiezza delle sinusoidi. Questo spiega anche cosa fa un equalizzatore grafico, amplifica o attenua (aumenta o diminuisce) l'ampiezza delle sinusoidi. L'intervallo 20Hz-20KHz è un intervallo continuo quindi in un equalizzatore ogni cursore controlla una banda di frequenze, più aumentano i cursori più le bande sono strette, ogni cursore controlla l'ampiezza di una singola frequenza o meglio della sinusoide a quella frequenza.
Contenuto armonico di una forma d'onda Quanto detto finora è riferito alla sinusoide come tassello fondamentale per mezzo del quale costruire il resto della realtà sonora. Un aspetto che contribuisce non poco a caratterizzare un suono sono le sue armoniche. Per illustrare questo concetto conviene riferirsi ad un caso pratico anche per cominciare un po' ad uscire dalle trattazioni puramente teoriche e cominciare a vedere in pratica cosa significhino questi discorsi. Consideriamo allora cosa accade quando la quinta corda di una chitarra viene pizzicata da un chitarrista. Diremo tutti che il chitarrista sta eseguendo un La ma fisicamente, cosa succede? La corda si è messa ad oscillare ad una frequenza di 440Hz. Ma allora com'è che non suona come una semplice sinusoide di frequenza pari a quella ma suona con il suono di una chitarra? La risposta comprende una serie di ragioni che si chiariranno via via. Sicuramente il contenuto armonico della nota suonata dal chitarrista non è uguale a quello di una semplice sinusoide. Quando una nota viene suonata su uno strumento viene sicuramente generata la frequenza corrispondente alla nota che viene chiamata armonica fondamentale e insieme a questa vengono generate le armoniche cioè tutti i multipli interi di quella frequenza con ampiezza via via decrescente. Nel caso del La vengono generate le sinusoidi:
440 Hz Armonica Fondamentale (prima armonica) 880 Hz Seconda Armonica 1320 Hz Terza Armonica ... ... ...
n*440 Hz n-esima Armonica
Questo comportamento deriva dal fatto che la corda pizzicata dal chitarrista non oscilla solo alla frequenza fondamentale ma anche alle frequenze armoniche secondo la figura seguente:
Oscillazioni armoniche di una corda in vibrazione La prima armonica è detta anche fondamentale e caratterizza la nota che effettivamente percepiamo, notiamo che è quella che ha ampiezza maggiore. La seconda armonica è ad una frequenza doppia rispetto alla fondamentale, ciò significa che la corda sta vibrando come in figura sovrapponendo questa vibrazione a quella fondamentale. Dalla figura potete vedere come vengano generate le armoniche successive e notare come l'ampiezza di queste diminuisca all'aumentare della frequenza dell'armonica. In altre parole, se una corda di chitarra viene pizzicata, le armoniche che contribuiscono al suono in modo rilevante sono una decina. Le ampiezze delle armoniche successive rispetto all'ampiezza della fondamentale diventano trascurabili. Si può notare anche come al centro della corda si abbia una prevalenza di basse frequenze mentre ai lati prevalgano le alte. Questo è molto importante per esempio nel piazzamento dei microfoni: se dal rullante di una batteria volessimo un suono composto da alte frequenze punteremo il microfono verso il bordo mentre se volessimo un suono in cui prevalgano i bassi punteremo il microfono verso il centro.
Forme d'onda
Sinusoide pura È stata ampiamente descritta nei paragrafi precedenti. Viene percepita come un tono di frequenza pari alla frequenza della sinusoide. È facilmente generabile elettronicamente e viene spesso usata come strumento di test. Nei paragrafi precedenti sono stati già illustrati l'andamento e il suono prodotto nonché le diverse proprietà che la caratterizzano.
Altre forme d’onda:
Onda a dente di sega
Onda quadra
Onda triangolare
Inviluppo del suono Con questo termine si intende l'andamento dell'ampiezza di un suono dal momento in cui viene generato a quando si estingue. Per introdurre questo concetto conviene considerare un esempio pratico. Il più eloquente è quello di uno strumento a corda, per esempio una chitarra. Dunque quando il chitarrista esegue una nota, percepiamo un primo impatto sonoro, poi piano piano la nota si estingue. L'andamento dell'ampiezza della nota suonata viene chiamato inviluppo ADRS (acronimo delle parole: Attack, Decay, Sustain, Release. In italiano: Attacco, Decadimento, Sostenuto, Rilascio) e ha uno schema che può essere applicato a qualsiasi suono e strumento. Descriviamo le quattro fasi nel dettaglio
Attack: L'ampiezza raggiunge molto rapidamente il suo valore massimo Decay: Dopo l'attacco, parte dell'energia iniziale viene persa e l'ampiezza diminuisce. Sustain: L'ampiezza mantiene un livello quasi costante per un certo tempo. Release: L'ampiezza ricomincia a diminuire fino ad annullarsi.
Di seguito vediamo un esempio di inviluppo ADSR la forma d'onda di un suono viene circoscritta da una curva che descrive l'andamento dell'ampiezza e che in matematica prende il nome di inviluppo. Data la simmetria della forma d'onda, se ne considera, ai fini della valutazione dell'inviluppo, la sola parte positiva:
Inviluppo ADSR Nella figura viene anche evidenziato il fatto che la parte iniziale del suono ha un maggior contenuto di alte frequenze che sono poi le prime ad estinguersi. Generalmente nella fase di sustain il contenuto di alte frequenze si è attenuato mentre continuano ad essere presenti le basse frequenze. Si può individuare abbastanza facilmente l'inviluppo ADSR.
Inviluppo ADSR Come detto questo schema è applicabile alla maggior parte degli strumenti musicali e dei suoni in generale, ciò che varia è la durata della varie fasi. Per esempio, un rullante avrà tempi di Attack e Decay molto brevi. Un violino sarà contraddistinto da una fase Attack-Decay molto più lunga. Generalmente la fase Attack-Decay è la più importante per caratterizzare un suono tanto che nelle moderne tecniche di sintesi si preferisce generare la parte Attack-Decay con dei campioni reali dello strumento da riprodurre e generare la parte di Sustain e Release in modo sintetico. Questo ha un doppio obbiettivo. Da una parte fare sì che lo strumento sintetico somigli il più possibile a quello reale e dall'altra avere un controllo sulle caratteristiche dello stesso. Per esempio una simulazione di vibrato è ottenibile in modo molto semplice su un suono sintetico mentre risulta un'operazione abbastanza complicata da realizzare su un suono campionato.
Comportamento del suono
In questa sezione viene descritto il comportamento del suono quando interagisce con degli ostacoli. Generalmente il materiale di cui è composto l'ostacolo e le sue dimensioni condizionano la natura dell'interazione al pari del contenuto di frequenze del suono che si sta considerando. I comportamenti che verranno presi in esame valgono per le onde in generale anche se noi le contestualizzeremo all'ambito del suono. Analizzeremo nell'ordine:
Riflessione Diffrazione Rifrazione Assorbimento
Riflessione Prendiamo come riferimento la figura in cui viene mostrata un'onda (sonora) che incide su una superficie e viene riflessa. È importante avere ben presente che i fronti d'onda generati dalle compressioni e dalle dilatazioni sono perpendicolari alla direzione di propagazione dell'onda:
Riflessione Un'onda che incide su una superficie piana con un angolo di incidenza α (tra la normale alla superficie e la direzione di propagazione dell'onda) viene riflessa con un angolo di riflessione pari ad α. In figura vediamo il caso di una superficie piana e quello di una superficie concava in cui tutti i raggi riflessi convergono verso il fuoco della superficie curva (per saperne di più sul fuoco rimandiamo a qualsiasi testo di geometria, qui basterà dire che in una circonferenza o in una sfera se pensiamo in 3D il fuoco coincide con il centro). Le superfici concave vengono evitate in acustica in quanto tendono a concentrare il suono in un preciso punto creando distribuzioni sonore disomogenee. Vengono invece utilizzate per la costruzione di microfoni direzionali in quanto consentono di amplificare segnali anche molto deboli. Viceversa le superfici convesse hanno la proprietà di diffondere il suono e dunque sono ampiamente usate per migliorare l'acustica degli ambienti. Quando un'onda che si riflette su una superficie convessa, il prolungamento dell'onda riflessa passa per il fuoco della superficie.
Riflessioni all'interno di una stanza
Riflessioni all'interno di una stanza Quando un suono si propaga in una stanza, di cui abbiamo rappresentato una sezione vista dall'alto nella figura precedente, raggiunge l'ascoltatore in diversi modi. Il primo segnale che arriva all'ascoltatore è anche il più forte ed è quello diretto ossia quello che compie il percorso minore tra sorgente sonora e ascoltatore (linea nera in figura sopra).
Dopo il segnale diretto arrivano, con un breve sfasamento, i segnali che hanno subito una sola riflessione su una parete e dunque hanno ampiezza minore rispetto al segnale diretto a causa della perdita parziale di energia dovuta alla riflessione. Chiamiamo tali segnali prime riflessioni (linee rosse in figura). Dopo un ulteriore ritardo arrivano tutti i segnali che hanno subito più di una riflessione, di ampiezza ancora minore rispetto alle prime riflessioni. Questi vengono chiamati grappolo di riverberazione ('reverb cluster') a indicare che questi segnali non vanno considerati singolarmente ma piuttosto come un corpo unico. La parte inferiore della figura mostra la distribuzione di questi segnali nel tempo e le loro ampiezze. Rifrazione Con tale termine si indica il fenomeno secondo il quale un'onda che attraversa due mezzi di diversa densità cambia direzione nel passaggio dall'uno all'altro. Tale comportamento è facilmente spiegabile se teniamo presente ciò che abbiamo detto sulla velocità del suono in mezzi di diversa densità. Sappiamo che il suono viaggia più velocemente in mezzi più densi. Consideriamo un'onda che incide contro un muro come è schematizzato dalla seguente figura:
Rifrazione Il muro ha densità maggiore dell'aria dunque i fronti d'onda che cominciano a penetrare nel muro sono più veloci rispetto a quelli che ancora sono fuori. Dunque, all'entrata nel muro lo stesso fronte d'onda ha una parte più avanzata (quella interna al muro) e una più arretrata ( quella ancora esterna). Quando tutto il fronte d'onda è penetrato nel muro la direzione di propagazione ha cambiato angolo. All'uscita dal muro avviene lo stesso fenomeno all'inverso e l'onda torna alla sua direzione originaria. Di seguito vediamo come questo fenomeno diventi rilevante nel caso di concerti all'aperto dove le condizioni cambiano radicalmente dalla mattina alla sera modificando la propagazione del suono nell'ambiente.
Rifrazione all'aperto
Alla mattina si verifica che lo strato superiore (aria fredda) abbia maggiore densità rispetto allo strato inferiore (aria calda) e dunque che il suono tenda a deviare verso l'alto come mostrato nella prima delle due figure precedenti. Di sera la situazione si inverte e lo strato più denso (aria fredda) diventa quello inferiore. Ciò porta il suono a deviare verso il basso come evidenziato nella seconda delle due figure precedenti. Ciò va tenuto in conto durante la messa a punto di un concerto all'aperto (Suono live) in quanto la lunga fase di preparazione e test viene fatta molte ore prima dell'inizio del concerto stesso e dunque in situazioni ambientali che si modificano con il passare delle ore. Diffrazione Il modo più immediato ma efficace per descrivere questo fenomeno è dire che si verifica quando un suono aggira un ostacolo. Ciò dipende fortemente dalla frequenza in quanto suoni con una grande lunghezza d'onda (e dunque bassa frequenza) superano con facilità ostacoli con una dimensione minore della loro lunghezza d'onda. Questo è uno dei motivi per cui le prime frequenze che vengono attenuate sono quelle alte mentre quelle basse si propagano a distanze molto maggiori. Assorbimento Può essere descritto come la conversione di energia acustica in energia termica da parte di una superficie. In altre parole, quando un suono viene a contatto con un ostacolo, gli trasferisce energia che viene dissipata sotto forma di calore. In generale questi quattro fenomeni sono tutti presenti nel momento in cui un'onda sonora incontra un ostacolo. La figura seguente illustra una situazione tipica:
Riflessione, diffusione, rifrazione e assorbimento insieme
Parte 2 - Percezione del suono Questa sezione è divisa in tre parti. Nella prima viene descritto nel dettaglio il funzionamento dell'orecchio umano e il modo in cui trasforma un'onda sonora in un segnale elettrico che viene poi interpretato dal cervello. Nella seconda parte viene analizzata la modalità di percezione del suono da parte del cervello. In questo caso ha senso parlare di percezione in quanto questa non corrisponde alla realtà del suono ma ne è un'interpretazione soggettiva condizionata dal funzionamento dell'apparato uditivo. Ad ulteriore conferma di questo fatto la terza parte di questa sezione svelerà alcuni meccanismi che modificano la percezione dello stesso suono al variare di alcuni parametri come per esempio la posizione della sorgente sonora rispetto a quella dell'ascoltatore.
Percezione del suono: L'orecchio umano
L'orecchio umano agisce da trasduttore nel trasformare energia acustica, prima in energia meccanica e successivamente in energia elettrica. Una volta che l'energia è stata convertita dalla forma meccanica a quella elettrica dall'orecchio, gli impulsi elettrici arrivano al cervello attraverso delle terminazioni nervose. Qui vengono elaborati permettendo la percezione del suono e, dulcis in fundo, l'ascolto della musica. L'apparato uditivo è composto da tre sezioni: l'orecchio esterno, l'orecchio medio e l'orecchio interno.
Orecchio umano L'analisi del funzionamento di queste tre sezioni ci permetterà di capire il meccanismo di percezione del suono e saremo in grado di individuare quali parametri modificare sul suono che stiamo trattando per ottenere il risultato che vogliamo. A questo proposito consideriamo la situazione seguente. Supponiamo di eseguire un missaggio in cui è presente un flautino che ogni tanto fa capolino tra gli altri strumenti. Se vogliamo che sia una presenza eterea, avvolgente, indefinita, possiamo intervenire sul suono tagliandone le alte frequenze. Vedremo tra un momento che uno dei fattori più rilevanti per individuare la direzione di un suono è il suo contenuto di alte frequenze. Tradotto significa che riusciamo più facilmente ad individuare la direzione di un suono con un elevato contenuto di alte frequenze rispetto ad uno contenente solo basse frequenze.
Orecchio esterno Il primo organo che il suono incontra quando raggiunge l'orecchio è il padiglione auricolare. Questo offre una vasta superficie al fronte sonoro e permette di raccogliere un'ampia porzione del fronte d'onda. Per ottenere una superficie più ampia si portando le mani alle orecchie come viene istintivo fare quando si ascolta un suono molto debole. Il suono viene riflesso dal padiglione auricolare e concentrato verso il condotto uditivo la cui lunghezza è mediamente pari a 3 cm. Frequenza di risonanza del canale uditivo - C'è una formula empirica che restituisce la frequenza di risonanza di un tubo al quale possiamo senz'altro approssimare il condotto uditivo. Vediamo qualche numero, in formule ma il risultato di questo calcolo è di importanza assoluta, dunque non mollate! La formula in questione dice che un tubo riempito di aria di lunghezza d ha una frequenza di risonanza circa pari a: Equazione: calcolo della frequenza di risonanza del canale uditivo
Dalla lunghezza d'onda ricaviamo la frequenza di risonanza:
Siete ancora vivi? Se lo siete, avete appena scoperto che la frequenza di risonanza dell'orecchio umano è mediamente di 3KHz. Questo significa che quando un gruppo di frequenze di valore intorno a 3KHz arrivano all'orecchio, il canale uditivo entra in risonanza e dunque quelle frequenze subiscono una naturale amplificazione. Vedremo in quanti casi viene sfruttata questa grandezza in campo audio e allora sarete contenti di aver superato anche questo ostacolo per arrivare alla conoscenza di questo piccolo ma fondamentale valore. Orecchio medio Il condotto uditivo termina su una membrana, il timpano, che vibra in accordo con il suono che ha raggiunto l'orecchio. Alla parte opposta del timpano sono collegati tre ossicini chiamati: martello, incudine e staffa. Questi hanno la funzione di amplificare la vibrazione del timpano e ritrasmetterla alla coclea, un ulteriore osso la cui funzione verrà spiegata tra un momento. Questa amplificazione si rende necessaria in quanto mentre il timpano è una membrana molto leggera sospesa in aria, la coclea è riempita con un fluido denso e dunque molto più difficile da mettere in vibrazione. I tre ossicini sono tenuti insieme da una serie di piccoli legamenti che hanno l'ulteriore funzione di impedire che seguano una vibrazione molto ampia con il rischio di rimanere danneggiati nel caso in cui l'orecchio venga sottoposto ad una pressione sonora troppo elevata. Un'apertura all'interno dell'orecchio medio porta alla cosiddetta tuba di Eustachio che consiste di un canale che conduce verso la cavità orale. La sua funzione è quella di dare uno sfogo verso l'esterno in modo da equilibrare la pressione atmosferica ai due lati del timpano (ecco perché sott'acqua è possibile compensare la pressione esterna, che aumenta con la profondità, aumentando la pressione interna tappando il naso e soffiandoci dentro).
Orecchio interno Questa sezione dell'orecchio è effettua la conversione dell'energia meccanica in impulsi elettrici da inviare al cervello per l'elaborazione del suono. L'ultimo dei tre ossicini di cui sopra, la staffa, è in contatto con la coclea attraverso una membrana che viene chiamata finestra ovale. La coclea è un osso a forma di chiocciola contenente del fluido (è dotata di tre piccoli canali circolari orientati secondo le tre direzioni dello spazio che vengono utilizzati dal cervello per la percezione dell'equilibrio dunque questa funzionalità esula completamente dalla nostra trattazione, ma grazie a ciò riusciamo a stare in piedi e a non perdere l’equilibrio). Il fluido riceve la vibrazione dalla staffa attraverso la finestra ovale e la trasporta al suo interno dove è presente il vero organo deputato alla conversione dell'energia meccanica in energia elettrica: l'organo del Corti. All'interno dell'organo del Corti troviamo la membrana basilare che ospita una popolazione di ciglia, circa 4000, che vibrano in accordo con la vibrazione del fluido. Ogni gruppo di ciglia è collegato ad una terminazione nervosa in grado di convertire la vibrazione ricevuta dal fluido in impulsi elettrici da inviare al cervello per essere elaborati e percepiti come suoni. Il motivo per cui l'orecchio umano percepisce le frequenze in modo logaritmico deriva dalla composizione della membrana basilare. I gruppi di ciglia, chiamati bande critiche, infatti sono ognuno sensibili ad una finestra di ampiezza 1/3 di ottava dello spettro di frequenza. In altre parole la membrana basilare è suddivisa in settori ognuno sensibile ad una determinata banda di frequenza ognuna di ampiezza pari a 1/3 di ottava e si comporta come un analizzatore di spettro. Ogni volta che il suono aumenta di un'ottava, viene eccitata una parte della membrana sempre equidistante dalla precedente riproducendo così un comportamento di tipo logaritmico.
Percezione del suono da parte del cervello Senza entrare in discorsi filosofici che, per quanto interessanti non contribuirebbero a raggiungere le finalità di questo corso, diremo solo che la percezione di un suono, come quella della realtà del resto, è un concetto in gran parte soggettivo. Un suono in sé stesso è quello che è, ma la nostra percezione varia in quanto dipende da innumerevoli variabili. Alcune di queste variabili sono: la nostra posizione rispetto al suono (alla fonte sonora), le condizioni del nostro apparato uditivo e soprattutto la forma che il cervello conferisce al suono. L'udito, al pari della vista che interpreta la luce, è capace di percepire solo una parte delle onde acustiche che ci circondano e dunque restituisce un quadro parziale. Inoltre le onde percepite vengono elaborate dal cervello che così 'interpreta' i suoni che deve elaborare. Nel seguito verrà descritto il comportamento del suono dal punto di vista della sua percezione e si mostrerà come in determinate condizioni sia evidente l'azione del cervello che interpreta la realtà sonora piuttosto che restituirla fedelmente.
Volume e frequenza percepita, distorsione, mascheramento Volume e frequenza percepita Lo stesso suono viene percepito più acuto se il volume viene aumentato in maniera considerevole. Le ragioni di tale fenomeno non sono ancora del tutto chiare. Distorsione Il suono della distorsione è più o meno quello che esce da un distorsore (per l'appunto) per chitarra elettrica. Dunque il suono lo conoscete, è quello su cui si fonda la storia del Rock (tanto per dire), ma da
cosa è generato? Per capirlo consideriamo la solita sinusoide, essendo poi il caso estendibile ai suoni complessi. Supponiamo che l'uscita di un circuito al quale applichiamo una sinusoide in ingresso non possa superare un certo valore.
Distorsione
Il segnale che avremo in uscita sarà quello di figura di destra cioè una sinusoide a cui è stata 'tagliata via la testa'. Osservando questa forma d'onda si notano le brusche transizioni introdotte dal 'taglio' le quali generano delle frequenze più elevate di quella della sinusoide considerata. Ciò sarà valido per ogni componente sinusoidale del segnale. Mascheramento Una frequenza con ampiezza elevata può mascherare frequenze vicine con ampiezze inferiori in quanto frequenze vicine vengono decodificate da ciglia appartenenti alla stessa banda critica. Questa proprietà viene massicciamente sfruttata per realizzare algoritmi di compressione dei dati audio in formato digitale quali l'MP3 e l'ATRAC impiegato sui sistemi MiniDisc. Tali algoritmi consentono compressioni dell'ordine di 5:1.
Percezione del suono: Effetto doppler
Questo fenomeno si verifica quando o la sorgente sonora o l'ascoltatore sono in movimento. Il classico esempio che viene sempre fatto è quello della sirena di un'ambulanza che arriva di gran carriera, ci supera e prosegue sfrecciando via nella notte.
Effetto Doppler
Facciamo riferimento alla figura precedente in cui l'ambulanza è ferma e la sirena emette un suono che, essendo di una certa frequenza, genera dei fronti d'onda a distanza costante l'uno dall'altro. Quando invece il mezzo è in movimento e si avvicina all'ascoltatore, la stessa sirena genera un suono con dei fronti d'onda più ravvicinati rispetto a quando il mezzo era fermo perché muovendosi comprime i fronti d'onda. Dato che ora i fronti d'onda sono più ravvicinati percepiamo una frequenza più alta cioè un suono più acuto. Quando il mezzo ci supera (e sfreccia via nella notte), allontanandosi distanzia i fronti d'onda e dunque in questa fase percepiamo un suono più grave perché ci arriva una frequenza più bassa. Come è possibile notare, quando la sorgente si avvicina all'ascoltatore, viene percepito un suono più acuto rispetto a quello originario in quanto i fronti d'onda vengono 'compressi'. Quando invece la sorgente oltrepassa l'ascoltatore, i fronti d'onda si distanziano e il suono percepito è meno acuto.
http://www.audiosonica.com/it/corso/post/21/Capitolo_2Percezione_del_suono_Volume_e_frequenza_percepita_distorsione_mascheramento
IL FORMATO AUDIO La potenzialità multimediale di Internet si rivela proprio nel campo musicale; avviene molto spesso di incontrare siti contenenti files musicali, siano essi sottofondo musicale, links di rimando all'ascolto di brani musicali, o suoni associati agli spostamenti del visitatore. Forse è la componente audio, più che l'immagine, a sollecitare emotivamente lo spettatore, rendendo la visita più realistica. Un file di tipo audio può avere diversi formati, a seconda di quale metodo è stato usato per la codifica del suono sorgente. Per la creazione di files audio esistono varie tecnologie, accomunate da un obiettivo di fondamentale importanza, soprattutto quando si ha a che fare con il Web: la compressione dei dati. Per essere più comprensibili, vediamo quali sono i principali formati audio che si possono facilmente incontrare sul Web: Wav, Aiff, Au
Sono i formati più comuni per la memorizzazione di dati audio in formato PCM. Wav è stato definito da Microsoft per i sistemi Windows, Aiff da Apple e Au da Sun System. Tutti e tre gli standard gestiscono i formati mono e stereo, con frequenza di campionamento variabile (le più usate sono 8000, 11025, 22050 e 44100 Hertz) e quantizzazione a 8 o 16 bit. Il formato Au gestisce anche modalità più efficienti di quantizzazione che permettono una riduzione della mole di dati anche di 4 volte il valore originale, al costo di una modesta perdita di qualità. MPEG Audio
MPEG (Moving Picture Expert Group) è stato il primo metodo di compressione intelligente. Introdotto all'inizio degli anni '90, è nato come standard per la diffusione del segnale audio digitale (oltre che quello video) di qualità paragonabile a quella del CD audio. Analogamente a quanto fanno i sistemi di riduzione del rumore della famiglia Dolby, MPEG adotta tre sistemi di codifica differenti denominati layer1,
layer2 e layer3 (quest'ultimo noto anche come MP3), di efficacia e complessità nell'ordine crescenti. Con MP3 è possibile comprimere i file audio (e video) senza alcuna rilevante perdita di qualità, arrivando addirittura a rapporti di compressione di 12:1. Ad esempio una canzone di 5 minuti che in formato .Wav occupa circa 50MB può essere ridotta a soli 4 MB ed essere trasmessa in tempi più ragionevoli. Per questo motivo il formato MP3 è quello attualmente più diffuso per quanto riguarda i brani audio digitali ad alta qualità paragonabile a quella dei tradizionali CD audio. Per ascoltare i brani in formato MP3 è necessario utilizzare un apposito lettore; uno dei player per piattaforma Windows è WINAmp, che può essere scaricato gratuitamente al sito http://www.winamp.com. Trasformando il file MP3 in un file .Wav è possibile salvarlo su un CD-R con un normale masterizzatore e quindi essere letto con qualsiasi comune lettore di CD audio (cioè anche senza PC). L'evoluzione dell'MP3, l'MPEG-2 AAC (Advanced Audio Control) chiamato anche MP4, è nato allo scopo di risolvere il problema della pirateria musicale. Con questo formato è possibile ottenere una compressione doppia rispetto a quella dell'MP3, ma per riprodurre i brani è necessario utilizzare una speciale chiave digitale che ne impedisce la riproduzione su PC diversi da quello utilizzato per scaricare la canzone. RealAudio
Sviluppato dalla RealNetworks è uno dei formati di audio compresso più diffusi sul Web che di fatto negli ultimi anni si è imposto come lo standard per la diffusione dell'audio digitale in streaming su Internet. Attualmente RealAudio è parte integrante di una tecnologia, RealSystem 5.0, per la trasmissione in tempo reale di audio e video. Esso utilizza la tecnologia Dolby AC-3 per la compressione del suono e la riproduzione avviene grazie al decoder distribuito freeware RealPlayer disponibile per varie piattaforme e compatibile con i Browser più diffusi. Ulteriori informazioni le trovate nel capitolo dedicato alla Web Radio. MIDI E' nato nel 1983 come standard per la comunicazione tra strumenti musicali e si è in seguito evoluto in una maggiore standardizzazione nel 1991 denominata General MIDI. I files di estensione .Mid contengono una sequenza di eventi musicali, intesi ciascuno come messaggio relativo all'esecuzione di una nota o all'assegnazione di uno strumento. Per loro natura, quindi, i files MIDI non possiedono alcuna informazione riguardo al timbro dei suoni. Si può dire che la differenza tra un file MIDI e un corrispondente file audio .Wav è paragonabile alla differenza tra lo spartito di un brano e un nastro contenente lo stesso brano registrato. Questo comporta un notevole risparmio nella mole di dati in gioco; un intero brano musicale con tutte le parti, della durata di svariati minuti, può occupare qualche decina di KByte, dal momento che ogni singolo evento MIDI occupa soltanto 11 byte. Il guadagno di spazio rispetto ad un normale file audio PCM è evidente. Lo svantaggio è che, acusticamente parlando, il risultato prodotto dall'esecuzione di un file MIDI è solo in parte prevedibile, poichè ogni riproduttore di suoni MIDI possiede i suoi banchi di suoni. Ogni strumento musicale da utilizzare viene invocato nell'ambito della sequenza attraverso un numero associato allo stesso strumento all'interno del banco di suoni. Ma un banco può avere associato a quel numero uno strumento diverso oppure corrispondente ma dal timbro diverso, rispetto ad un altro banco musicale. Succede quindi che una sequenza MIDI può venire eseguita con suoni di qualità molto variabile a seconda della scheda audio utilizzata o del driver software che l'ascoltatore possiede.
Nonostante ciò il formato MIDI è necessario per molte applicazioni di tipo musicale, come l'inserimento di un brano di sottofondo in una pagina Web, grazie al suo buon rapporto qualità/dimensione che permette di gestire brani anche molto lunghi e vari.
Le specifiche MIDI standard Il MIDI è, da una parte, un linguaggio informatico, ossia una serie di specifiche che danno vita al protocollo; dall'altra, un'interfaccia hardware che consente il collegamento fisico tra vari strumenti. Entrambi questi aspetti sarebbero probabilmente sostituibili da sistemi più performanti, nonostante ciò, il MIDI, nato negli anni '80, è rimasto pressoché inalterato ed è intensamente utilizzato nella produzione di musica digitale. I motivi risiedono probabilmente nel ruolo di standard, pressoché incontrastato, che il MIDI ha assunto nell'ambito musicale, e nella cura riposta dai progettisti nella stesura delle prime specifiche. Di fatto, il MIDI ha peculiarità interessanti su più fronti:
La qualità e la praticità del sistema. L'integrazione tra eventi Audio ed eventi MIDI ha dimostrato di essere una mossa vincente, confermando l'importanza di questo standard nella realizzazione di musica digitale.
La leggerezza dei file MID (in termini di kB). Tramite Internet ed i software multimediali, il MIDI diventa un media di uso comune non più appannaggio esclusivo dei musicisti.
La diffusione di basi di livello qualitativo sempre maggiore. Fatto che ha permesso a molti musicisti di svolgere con facilità e qualità il proprio lavoro.
Il costo. Molti produttori hardware e software puntano sulla multimedialità dei propri prodotti. Con un investimento minimo, o ricorrendo a programmi freeware, è possibile per ognuno disporre di un computer in grado di realizzare produzioni musicali di buon livello.
Il MIDI nacque come risposta all'esigenza di far comunicare diversi strumenti musicali elettronici tra loro, tenendo conto delle diverse caratteristiche di ognuno di essi. Diversi costruttori, ad esempio Oberheim e Roland, offrivano già sui propri strumenti alcuni sistemi di interfacciamento. Queste interfacce però, basate su algoritmi proprietari, garantivano il proprio funzionamento solo su strumenti dello stesso costruttore, il protocollo di Smith e Wood si presentava invece come un sistema in grado di superare questo limite. Per garantire la piena compatibilità tra i vari strumenti, al di là della casa produttrice, ogni costruttore fu invitato a partecipare alla stesura definitiva delle prime specifiche MIDI. SCI, Roland, Yamaha e Kawai furono i primi produttori di strumenti digitali ad aderire alla definizione e alla diffusione del MIDI. L'immediata popolarità dello standard creò divisioni all'interno del comitato fondatore: i produttori americani si unirono nella MMA (MIDI Manufactures Association) mentre quelli giapponesi fondarono la JMA (Japan MIDI Association). Benché lavorassero su un terreno comune, i due consorzi svilupparono delle caratteristiche non sempre pienamente compatibili tra loro. Queste divergenze furono risolte nel 1985, quando la IMA (International MIDI Association) pubblicò le versione 1.0 delle specifiche MIDI, istituendo di fatto lo standard del protocollo. I costruttori che supportano il protocollo MIDI sono perciò riuniti in due associazioni: MMA (costruttori Americani ed Europei) e JMSC (costruttori Giapponesi). Le modifiche da apportare allo standard MIDI vengono discusse ed approvate da queste due associazioni. La diffusione delle specifiche MIDI spetta all'IMA (International Midi Association).
Lo standard MIDI consiste in un protocollo per lo scambio di messaggi progettato per l'uso con strumenti musicali elettronici e della relativa interfaccia fisica. Un collegamento MIDI consiste in una connessione seriale unidirezionale (simplex) a loop di corrente, che funziona ad una velocità di trasmissione di 31,250 bps (bit al secondo). Il loop viene tenuto a massa solo da un lato mentre l'altra estremità è libera (flottante) per evitare ronzii e interferenze audio indotte dalla formazione di anelli di massa. Il loop di corrente dal lato del trasmettitore pilota il LED di un accoppiatore ottico dal lato del ricevitore. Ciò vuol dire, in pratica, che i due dispositivi sono optoisolati. L'accoppiatore ottico deve essere molto veloce (un dispositivo molto usato è lo Sharp PC900) ma i tempi di commutazione asimmetrici che caratterizzano la maggior parte degli accoppiatori (tempi di risposta diversi per la chiusura e l'apertura del circuito) sono comunque causa di distorsioni. Nel caso di connessione in cascata (daisy-chain) di più dispositivi MIDI attraverso le rispettive porte MIDI-THRU e MIDI-IN la distorsione del segnale si fa via via più rilevante, fino alla comparsa di errori di trasmissione. Lo standard MIDI prevede l'uso di connettori circolari a standard DIN a 5 pin, molto diffusi in Europa per ogni genere di connessioni audio fino agli anni '90. successivamente, per la maggior parte delle applicazioni sono stati sostituiti dai più pratici phono jack RCA. Anche in altre applicazioni in cui erano usati, quali il collegamento delle tastiere dei personal computer, sono stati adottati i connettori mini-DIN. I cavi MIDI, dotati di connettori DIN 5 a pin maschi ad entrambe le estremità, sono dunque rimasti una delle poche applicazioni per questo genere di connettori. Esiste anche una versione dello standard che sfrutta il collegamento USB ed è in corso di sviluppo da parte della IETF una versione per il trasporto di segnali MIDI su Ethernet e Internet. L’interfaccia hardware Gli strumenti e/o le attrezzature MIDI per poter comunicare, devono essere fisicamente connessi fra loro. A questo scopo lo standard MIDI prevede l'uso di una triade di connettori DIN a 5 poli (anche se solo i 3 poli centrali vengono utilizzati) che tramite un cavo pentapolare consentono il collegamento fisico tra gli strumenti.
Esempio d'interfacciamento Midi sfruttando le tre tipologie di connessione I tre connettori vengono distinti come:
IN (consente allo strumento di ricevere informazioni). OUT (consente la trasmissione delle informazioni). THRU (consente allo strumento di ritrasmettere i dati ricevuti dal proprio MIDI IN verso un altro strumento).
I dati sono trasmessi dal Midi Out della tastiera, attraverso la presa Midi In vengono ricevuti dall'expander A il quale li reindirizza verso l'expander B attraverso la presa Midi Thru. La reale configurazione dei connettori, per numero e presenza, dipende dalle funzioni per le quali uno strumento viene costruito. Su una "master keyboard" ad esempio, è frequente trovare 2 o 3 MIDI OUT e nessun MIDI THRU, visto che ciò che ci si aspetta da uno strumento del genere è la massima flessibilità nella trasmissione dei dati verso altre attrezzature. L'interfaccia software: il linguaggio midi Una delle caratteristiche fondamentali del MIDI è l'essere un'interfaccia multicanale. Grazie a delle applicazioni software chiamate sequencer, installabili sia in unità hardware specifiche, sia in normali personal computer, si possono registrare performance musicali sotto forma di messaggi MIDI, per poterle successivamente modificare e ri-ascoltare. Un file MIDI è un file che contiene dati comunicabili tramite il protocollo MIDI. Il MIDI supporta fino 16 canali (1-16). Per spiegare cosa si intende per "canale midi" ("midi channel") utilizziamo una metafora. Pensiamo di dover inviare un messaggio ad un collega che pernotta in una delle 16 stanze a disposizione di un hotel. Oltre all'indirizzo dell'hotel, dovremo specificare il numero di stanza del nostro collega se vogliamo che il nostro messaggio sia recapitato correttamente. Pensiamo ora di avere, collegato in MIDI alla nostra tastiera, un modulo sonoro con la possibilità di suonare fino a 16 suoni diversi contemporaneamente (ossia multitmbrico a 16 parti), come facciamo a far eseguire la nostra musica ad uno solo di questi suoni? Facendo sì che nei nostri messaggi (midi) sia specificato il numero di canale (la stanza dell'hotel) e che quest'ultimo coincida con il canale midi impostato per lo strumento (o la parte di esso), destinato a rispondere al messaggio. Le modalità per ottenere tutto ciò variano a seconda della tipologia degli strumenti utilizzati.