Quando l’home recording iniziò a diffondersi…
Successe per una semplice ragione:
Gli strumenti analogici dei decenni precedenti erano lenti, e si iniziava a rimpiazzarli…
Con una nuova generazione di interfacce audio e altri strumenti digitali più economici e facili da usare che mai.
Da allora il trend è stato questo.
Oggi… l’audio digitale è lo standard in quasi tutti gli studi, sia pro che amatoriali.
Ma sorprendentemente in pochi capiscono la sua effettiva portata.
Perciò nel post odierno, ho preparato per voi un’esauriente guida alle basi dell’Audio Digitale per le Registrazioni Musicali.
I seguenti sono i 9 argomenti topici di cui parleremo:
- La Nascita dell’Era Digitale
- I Convertitori Digitali
- Frequenza di Campionamento
- Profondità di Bit
- Errore di Quantizzazione
- Dither
- Latenza
- Master Clock
- Codifica Mp3
Iniziamo…
1. La Nascita dell’Era Digitale

Anche se l’audio digitale è lo standard nel mondo della musica oggi…
Non è sempre stato così.
In origine, l’informazione musicale esisteva solo come onda sonora nell’aria.
In seguito, con i progressi della tecnologia sono stati scoperti dei metodi per convertirli in altri formati, come:
- appunti in una pagina
- segnali elettrici in un cavo
- onde radio nell’atmosfera
- solchi su un vinile
Ultimamente, con la diffusione dei computer, l’audio digitale è diventato il formato dominante nelle registrazioni musicali, in quanto permette una facile diffusione dei brani registrati.
Lo strumento che rende tutto questo possibile è… il convertitore digitale.
Per capire come funziona, proseguiamo con la lettura…
2. I Convertitori Digitali
Negli studi di registrazione, esistono due tipologie di convertitori digitali:
- Come strumento stand-alone negli studi di alto livello, oppure…
- Come parte dell’interfaccia audio negli home studio.
Per convertire l’audio in codice binario, sono necessari decine di migliaia di campionamenti (samples) per secondo, così da costruire un’immagine “approssimativa” dell’onda analogica.
Approssimativa e non “esatta” in quanto nei momenti che intercorrono tra un campionamento e l’altro, il convertitore deve essenzialmente tirare a indovinare.

Come visibile nel diagramma qui sopra in cui:
- la linea rossa è il segnale analogico, e…
- la linea nera è la conversione…
I risultati non sono perfetti, ma sono comunque buoni abbastanza da restituire un’eccellente qualità sonora.
Quanto eccellente poi dipenderà soprattutto dalla…
3. Frequenza di Campionamento
Date uno sguardo a questa immagine:

Come potete vedere…
Aumentando le misurazioni al secondo, le frequenze di campionamento più alte:
- Raccolgono più informazioni reali,
- Si affidano meno al caso,
- Ricostruiscono un’immagine molto più accurata del segnale analogico
E tutto ciò a vantaggio del risultato finale naturalmente, ovvero..una migliore qualità sonora.
Vediamo ora alcuni numeri specifici:
Le frequenze di campionamento più comuni sono:
- 44.1 kHz (CD Audio)
- 48 kHz
- 88.2 kHz
- 96 kHz
- 192 kHz
Il minimo di 44.1 kHz è dovuto a un principio matematico conosciuto come…
Teorema del Campionamento di Nyquist-Shannon
Per registrazioni accurate con audio digitale, i convertitori devono catturare l’intero spettro captabile dall’orecchio umano, tra 20Hz – 20kHz.
Secondo il Teorema del campionamento di Nyquist-Shannon…
La cattura di una frequenza specifica richiede almeno 2 campionamenti per ciascun ciclo… necessari per una rilevazione sia del punto più alto che di quello più basso di un’onda.
Ciò significa che la registrazione di frequenze fino a 20 kHz richiede una frequenza di campionamento di 40 kHz o maggiore. Per questo motivo 44.1 kHz è la frequenza dei CD audio.

Svantaggi delle Frequenze di Campionamento più Alte
Anche se le frequenze di campionamento più alte offrono una migliore resa sonora… questi benefici non sono senza conseguenze.
Gli svantaggi includono:
- Maggiori carichi di lavoro per il processore
- Un numero inferiore di tracce utilizzabili
- File audio più grandi
Sarà quindi necessario qualche compromesso. Gli studi pro possono sfruttare più facilmente alte frequenze di campionamento in quanto usano attrezzature molto avanzate.
Per un home studio, la maggior parte delle persone utilizzano un’impostazione standard a 48 kHz.
Proseguiamo con…
4. Profondità di Bit
Per approfondire questo argomento, dobbiamo parlare prima dei bit.
Abbreviazione di “binary digit”, un bit rappresenta una singola unità di codice binario, alternativamente di valore 1 o 0.
Più bit vengono utilizzati, maggiori sono le combinazioni possibili. Per esempio…
Come si può vedere nel diagramma qui sotto, 4 bit si traducono in un totale di 16 combinazioni.

Quando vengono utilizzati per codificare informazioni, a ognuno di questi numeri è assegnato un valore specifico.
Incrementando i bit, il numero di valori possibili cresce esponenzialmente.
- 4 Bit = 16 valori possibili
- 8 Bit = 256 valori possibili
- 16 Bit = 16.536 valori possibili
- 24 Bit = 16.777.215 valori possibili
Con la profondità di bit nell’audio digitale, a ogni valore è assegnato un’ampiezza specifica sull’onda audio.
Più grande sarà la profondità di bit, maggiori saranno lo spazio del volume tra alto e basso… migliorando così il range dinamico della registrazione.
È buona regola generale ricordare questo: Per ogni “bit” extra, il range dinamico aumenta di 6dB.
Per esempio:
- 4 Bit = 24 dB
- 8 Bit = 48 dB
- 16 Bit = 96 dB
- 24 Bit = 144 dB
Alla fine questo comporta che… a una maggiore profondità di bit equivale un minor rumore…
In quanto aggiungendo un extra headroom, il segnale utile (nella parte alta dello spettro) può essere registrato a livelli più alti del noise floor (nella parte bassa dello spettro).

Proseguiamo con…
5. Errore di Quantizzazione
È impressionante pensare che una registrazione a 24 bit possa offrire quasi 17 milioni di valori possibili, vero?
Ma è comunque molto meno dell’infinito numero di valori possibili che esistono in un segnale analogico.
Perciò in quasi tutte le campionature, il vero valore è da ricercare da qualche parte in mezzo a due possibili valori. Nella conversione, la soluzione più semplice è quella di arrotondare o”quantizzare” il risultato ottenuto al valore più vicino.
La distorsione risultante, conosciuta come errore di quantizzazione, si verifica in 2 fasi del processo di registrazione:
- all’inizio, durante la conversione A/D
- alla fine, durante il mastering
Con il mastering, la frequenza di campionamento/profondità di bit della traccia finale viene spesso ridotta fino alla conversione nel formato digitale finale (CD, mp3, etc.).
Quando ciò accade, alcune informazioni vanno perse e “riquantizzate”, determinando un’ulteriore distorsione del suono.
Per gestire questo problema, esiste una comoda soluzione chiamata…
6. Dither
Quando si riduce un file a 24 bit in uno a 16 bit, il dither viene usato per mascherare un’ampia parte della distorsione che viene prodotta…
Tramite l’aggiunta di un basso livello di “rumore casuale” al segnale audio.
Dato che il concetto è difficilmente illustrabile rimanendo esclusivamente nel campo dell’audio, un’analogia diffusa per spiegarlo è quella del dithering nelle immagini.
Ecco come funziona:
Quando una foto a colori viene convertita in bianco e nero, viene eseguito una calcolo previsionale matematico per determinare se ciascuno pixel colorato debba essere “quantizzato” in un pixel nero oppure in un pixel bianco…
… E accade la stessa cosa nella quantizzazione dei file audio digitali.
Come potete vedere nell’immagine seguente, la foto “before” è piuttosto scadente, no?

Ma con il dither…
- un piccolo numero di pixels bianchi viene randomizzato nelle regioni nere…
- un piccolo numero di pixels neri viene randomizzato nelle regioni bianche…
Grazie all’aggiunta di questo”rumore casuale” all’immagine, la foto “after” offre un miglior risultato. Con l’audio dithering, il concetto è molto simile.
Proseguiamo con…
7. Latenza
L’UNICA GRANDE PECCA degli studi digitali è data dall’ammontare del time-delay (latenza) che si accumula nella catena di segnale, in particolare con l’utilizzo di una DAW.
A causa della mole di calcoli che devono essere effettuati, ci vuole da qualche millisecondo ad alcune DECINE di millisecondi affinché il segnale audio esca dal sistema.
- Un ritardo di 0-11 ms – è abbastanza breve da non permettere all’ascoltatore medio di notare alcunché.
- Un ritardo tra 11-22 ms – avvertirete un fastidioso effetto di ritorno al quale bisognerà fare un pò l’abitudine per gestirlo.
- Oltre i 22 ms – il ritardo rende impossibile suonare o cantare a tempo con la traccia.
Nella tipica catena di segnale digitale, ci sono 4 passaggi che incrementano il tempo totale di ritardo:
- Conversione A/D
- Buffering DAW
- Plugin Delay
- Conversione D/A
Le conversioni A/D e D/A sono i 2 principali colpevoli, e contribuiscono a meno di 5 ms del delay totale.
Invece..
Il buffer DAW, e alcuni plugin (incluso qualche compressore e strumento virtuale), possono aggiungere fino a 20, 30, 40 ms o più.
Per minimizzare il problema:
- Disattivate tutti i plugins non necessari mentre registrate.
- Regolate le impostazioni di buffer della DAW sul valore più breve che il vostro computer riesce a gestire senza andare in palla.
Come noterete, il tempo di buffer è misurato in sample, NON in millisecondi. Per convertirlo:
- Dividete il numero di sample per il sample rate della sessione (in kHz) e avrete il tempo di latenza in millisecondi.
Per esempio: 1024 samples ÷ 44.1 kHz = 23 ms
Se odiate fare calcoli, eccovi un modo più semplice da ricordare con un valore di 44.1 kHz:
- 256 samples = 6 ms
- 512 samples = 12 ms
- 1024 samples = 24 ms
Nella MAGGIOR PARTE dei casi, questi accorgimenti dovrebbero bastare a portare la latenza a un livello gestibile…
Ma alcune volte, se la vostra strumentazione è troppo vecchia oppure troppo economica, potrebbero NON bastare.
In questo caso esiste…
L’Ultima Risorsa
Molte interfacce economiche hanno un controllo del “mix” o “blend“, che permette di combinare il segnale playback con il “segnale live” in registrazione.
Splittando il segnale live del microfono/chitarra e inviandolo sia al computer per la registrazione che alle vostre cuffie da studio, eviterete la latenza aggirando interamente la catena di segnale.
L’aspetto negativo di questa tecnica è che… sentirete il segnale live completamente asciutto, con zero effetti.
Speriamo comunque che con il progresso, questo non sarà un problema con i computer del prossimo futuro.
Proseguiamo con…
8. Master Clocks

Ogniqualvolta due o più dispositivi scambiano informazioni digitali in tempo reale…
I loro orologi interni devono essere sincronizzati affinché possano essere correttamente allineanti…
Così da prevenire i fastidiosi click e pop che potrebbero udirsi altrimenti nell’audio.
Per la sincronizzazione, un device funziona da “master“, mentre l’altro/gli altri da “slave“.
Negli home studio, l’orologio dell’interfaccia audio solitamente comanda di default.
Negli studi pro invece, dove c’è bisogno di conversione digitale premium e di gestire segnali complessi…
Uno speciale device stand-alone chiamato digital master clock (aka word clock) è spesso presente per la gestione collettiva. Come sostengono tanti utilizzatori, i benefici che il vostro sound può ottenere da questi particolari orologi, può essere molto più percettibile di quanto potreste immaginare.
Proseguiamo con…
9. Codifica Mp3/AAC Encoding
Al giorno d’oggi, i file audio compressi sono la norma nell’audio digitale.
Ciò è dovuto alla necessità di rendere i file quanto più piccoli possible per essere utilizzati su dispositivi con spazio disponibile limitato, come iPod e smartphone, e al contempo renderli fruibili per lo streaming internet.
Utilizzando un metodo di compressione dati “lossy”, mp3, AAC, e altri formati simili possono possono ridurre un file audio files a 1/10 delle dimensioni originali.
Il processo di codifica viene effettuato sfruttando un principio dell’udito umano noto come “mascheramento uditivo“…
Attraverso il quale è possibile cancellare tantissime informazioni musicali, mantenendo comunque un livello accettabile di qualità sonora per la maggior parte degli ascoltatori.
Gli ingegneri del suono più scafati potrebbero notare qualche differenza, ma l’utente medio no.
L’esatta quantità di informazioni che verranno cancellate dipende dal bitrate del file.
Con i bitrates più alti, verranno rimossi meno dati e preservati più dettagli.
Per esempio, con gli mp3:
- 320 kbit/s è il massimo bitrate possibile
- 128 kbit/s è il minimo raccomandato
- 256 kbit/s è il giusto compromesso per la maggior parte delle persone
Per trovare il formato e bitrate ideale per la VOSTRA musica, verificate sempre attentamente i consigli dati dalle piattaforme di destinazione (iTunes, YouTube, Soundcloud, etc.)