Allora, invia la registrazione. Sì, cucchi. Bene, siamo siete rientrati tutti. >> Quasi quasi >> quasi. >> Aspettiamo altri chiud >> 30 secondi. Esatto. Era più che altro quella la cosa. Non mi andava di alzarmi per chiudere la porta. Ecco, chiudete pure. Grazie. Ok. Avete domande fin qui? >> Avviata, avviata. Sì, vedo il pallino rosso lì. Vedo il talli. Avete domande fin qui o dei dubbi? No, >> esistenziali, >> cioè nel senso, avete avete così tanti dubbi che non vale neanche la pena di esprimerli o non ne avete? Speriamo la seconda. Ok, quindi tutto quello che abbiamo detto fino ad adesso riguarda soprattutto per quanto concerne i segnali, quindi non la parte acustica, quanto più la parte elettrica, prevalentemente il dominio analogico, anzi esclusivamente il dominio analogico. Quindi quando noi facciamo viaggiare un segnale sotto forma appunto di segnale elettrico, come quello che succede quando un segnale passa dentro questo mixer. Dentro questo mixer, quando voi attaccate un microfono, non è che ci passi chissà che. Lungo il cavo e all'interno del mixer ci passano segnali elettrici, segnali analogici cosiddetti. Quando noi lavoriamo su una DO, ovviamente non stiamo lavorando su un segnale elettrico, non stiamo lavorando su un segnale analogico, visto che stiamo utilizzando un computer, verosimilmente lavoreremo su un segnale digitale, per cui avremo la necessità in qualche modo di avere non un segnale analogico che arriva dentro al computer perché il computer con un segnale analogico non sa proprio che farci se non un bel corto circuito in alcuni casi, ma ha bisogno di un segnale digitale, un segnale che può comprendere e che può elaborare. per cui ci iniziamo ad addentrare nel mondo dell'audio digitale, nel dominio digitale, ovviamente il segnale, un segnale di qualunque tipo, un dato di qualunque tipo nel dominio digitale, come viene espresso? attraverso un numero >> mh >> attraverso un numero o una funzione. In ultima analisi vengono espressi sempre tutto ciò che si trova dentro ad un computer in ultima analisi viene sempre espresso sotto forma di una sequenza numerica di quali numeri di solito? Eh, >> quindi >> 0 >> che vengono chiamati bit. Quindi dobbiamo trovare il modo di esprimere un segnale audio sotto forma di una sequenza di bit. È chiaro? Credo sia chiaro, però insomma se non lo è lo specifichiamo, che una sequenza di bit per quanto lunga, sarà sempre un valore discreto, quindi tutti i valori con cui esprimeremo un segnale digitale saranno sempre valori discreti, quindi definiti. Un segnale analogico, quanti valori può assumere secondo voi nel tempo? infiniti. Non basterebbero tutti i computer della Terra per poter esprimere le variazioni anche minime che può assumere un segnale analogico. Quindi è chiaro che in qualche modo nell'audio digitale andremo ad effettuare un'approssimazione più o meno accurata, ma pur sempre un'approssimazione dell'audio analogico in virtù, appunto, del fatto che con i numeri noi possiamo esprimere esclusivamente valori discreti. Un numero finito di valori, grande per quanto possa essere e comunque sempre un numero finito di valori. un segnale analogico può assumere valori infiniti. Come si digitalizza un segnale? in vari modi. Ora, noi ci concentreremo fondamentalmente su come funziona la digitalizzazione e la codifica PCM che è quella più diffusa nell'audio digitale. PCM sta per pulse code modulation, quindi una fondamentalmente una digitalizzazione che eh ci fa derivare un un insieme, per l'appunto delle stringhe. Vediamo eh confezionata in che modo di 0 e 1 sulla base di due operazioni distinte che sono quella di campionamento e quella di quantizzazione. L'apparato che si occupa di digitalizzare un segnale, quindi di prendere un segnale analogico e trasformarlo in un segnale digitale, viene chiamato convertitore con un nome fantasiosissimo e solitamente viene indicato con la sigla di ADC che sta per analog digital converter, convertitore analogico digitale, quindi prende un segnale analogico in ingresso restituisce un segnale digitale in uscita. Esistono ovviamente anche i convertitori che fanno l'operazione contraria perché poi è vero che noi dobbiamo digitalizzare un segnale per poterlo elaborare all'interno di un computer, ma poi in ultima analisi dovremmo anche ascoltare quello che succede. Quindi ci servirà un qualcosa che prenda questo audio digitale che si trova dentro al nostro computer e lo faccia riprodurre a delle casse o a delle cuffie. Le casse o le cuffie, a meno di casi specifici non si aspettano di ricevere un segnale digitale ingresso, si aspettano di ricevere un segnale analogico, quindi servirà anche un convertitore che faccia l'operazione contraria, quindi che prenda in ingresso un segnale digitale e restituisca il corrispondente segnale analogico. Questo convertitore che fa l'operazione contraria viene chiamato DAC o DAC digital. to analog converter, quindi convertitore digitale analogico. Quindi abbiamo i convertitori AD o ADC che sono quelli che convertono un segnale analogico in un segnale digitale e i convertitori DA o DAC, che sono quelli che convertono un segnale digitale in un segnale analogico. Fin qui non mi sembra nulla di troppo esoterico. Concentriamoci una Sì. Se vuoi fare una domanda. Io no, >> scusa. Concentriamoci quindi su come avviene questa digitalizzazione di un segnale analogico. Dicevamo che avviene in due operazioni distinte che sono il campionamento e la quantizzazione. Che vuol dire? Cominciamo dal campionamento. Che cos'è il campionamento? Semplicemente, siccome abbiamo detto che abbiamo a disposizione valori finiti nell'audio digigitale, non valori infiniti, abbiamo necessariamente l'esigenza di discretizzare in qualche modo un segnale analogico. Come facciamo? Fondamentalmente diciamo al nostro convertitore di prendere il segnale analogico che arriva in ingresso ed effettuare un numero x misurazioni al secondo su quel segnale. Quindi ogni secondo il convertitore prenderà il segnale di ingresso ed effettuerà un tot numero di misurazioni, un tot numero di campionamenti, per l'appunto. Il numero di volte al secondo in cui un convertitore misura il segnale viene chiamato frequenza di campionamento. Quindi, se io dico al mio convertitore di analizzare il segnale in ingresso 10 V al secondo, avrò una frequenza di campionamento di 10 Hz, perché se parliamo di volte al secondo, quindi di cicli al secondo, quello che volete, è sempre riconducibile all'unità di misura degli herz, che è la stessa unità di misura della frequenza, per esempio, di di un'onda sonora. Questo è quello che succede fondamentalmente. Questo è il nostro segnale analogico in ingresso. Il convertitore ogni in questo caso, ogni decimo di secondo, visto che fa 10 misurazioni al secondo, ogni decimo di secondo andrà a misurare quel segnale. È chiaro fin qui? Ora esiste questo il campionamento non viene ovviamente non funziona a caso, cioè ci sono delle regole abbastanza restrittive per quanto riguarda il campionamento. Esiste un teorema matematico che è il teorema del campionamento di Nikquist e Shennon, di cui ovviamente non vedremo la dimostrazione matematica perché non ce ne frega assolutamente nulla, ma è importante sapere che cosa dice questo teorema del campionamento. ci dice che per riuscire a ricostruire un segnale senza perdite, quindi senza perdita di informazione, abbiamo bisogno di intanto che questo segnale sia un segnale a banda limitata e vediamo che cosa vuol dire fra poco e perché soprattutto è che la frequenza di campionamento con cui andiamo a campionare questo segnale sia almeno il doppio della più alta frequenza che noi vogliamo campionare. Che vuol dire? A noi tendenzialmente interessa campionare segnali relativi alla banda audio, quindi alla banda passante che il nostro orecchio riesce a percepire. Qual è l'intervallo di frequenze, range di frequenze che il nostro orecchio riesce a percepire? >> 20 20 >> da 20 a 20.000 convenzionalmente, quindi da 20 Hz ai 20 kHz. Significa che noi come frequenza più alta da dover campionare e quindi da dover digitalizzare e successivamente da dover ricostruire una volta elaborata da un computer avremo quale frequenza? >> Come frequenza massima da campionare? >> Ah, 20.000 >> 20.000 Hz, quindi 20 kHz. Stando a quello che ci dice il teorema del campionamento, significa che noi avremo bisogno per campionare cor e ricostruire correttamente una frequenza di 20 kHz, avremmo bisogno di una frequenza di campionamento di almeno >> 40 kHz. Esatto. Per cui è fondamentale che il segnale che viene campionato abbia una banda limitata. Cioè, se io imposto una frequenza di campionamento di 40 kHz, posso campionare al massimo 20 kHz. e già sto molto al limite con i 20 kHz, che significa che necessariamente il mio segnale non dovrà avere contenuto oltre 20 kHz, perché altrimenti quello che succede è un fenomeno molto spiacevole che prende il nome di aliasing. Perché si verifica questo fenomeno? Potete fare il parallelismo con quello strano fenomeno che vedete nei film o negli spot pubblicitari quando a un certo punto una macchina che raggiunge una determinata velocità vi dà l'impressione che le ruote girino al contrario, all'indietro anziché in avanti. Perché succede questo? Un video, come forse sapete, è fatto da fotogrammi, quindi in realtà è una sequenza riprodotta molto velocemente di di un numero finito di fotogrammi, quindi di foto. Se non si riescono ad avere abbastanza fotogrammi per ricostruire correttamente il movimento in senso orario della ruota, la riproduzione dei due fotogrammi doltre una certa velocità ingannerà l'occhio facendogli credere che la ruota stia girando al contrario, cosa che non è ovviamente assolutamente vera. La stessa cosa succede con un segnale audio. Se noi abbiamo meno di due campioni per ricostruire un segnale, succede che questo segnale verrà ricostruito in modo sbagliato. Quindi un segnale a eh 30 kHz con una frequenza di campionamento di 40 kHz verrà in realtà interpretato come un segnale aggiuntivo a quello originale di 10 kHz. Quindi si è percettivamente si aggiunge del rumore spesso il rapporto non armonico, quindi del rumore proprio fastidioso, molto molto spiacevole, causato appunto dalla dal limite, diciamo, dalla dall'avere meno di due campioni per ciclo per campionare un segnale. Per cui è fondamentale che questo segnale che viene campionato venga limitato, cioè se io so che devo campionare un segnale fino a 20 kHz, devo togliere tutto il contenuto che c'è oltre i 20 kHz, altrimenti mi si crea questo problema. Viene utilizzato ovviamente un filtro, non parleremo in questa sede di cosa sia un filtro, lo affronterete sia nel corso di di in cui affronterete tutta la parte di elettroacustica, sia anche con me nel prossimo corso però, quindi quello di registrazione mix. Banalmente, immaginatevelo come un circuito che da un certo punto in poi taglia il segnale, quindi da una certa frequenza in avanti toglie il contenuto spettrale del segnale. Questo è fondamentale per evitare che si formi l'aliasing. Questo filtro infatti nei convertitori viene chiamato filtro antialiasing. La cosa molto bella del teorema del campionamento, però, è che a patto di stare entro la metà della frequenza di campionamento, vi ricordo che la metà della frequenza di campionamento è la massima frequenza che noi possiamo campionare. Questa frequenza prende il nome di frequenza di Shennon di, insomma, è un'idea molto al limite. Non è auspicabile campionare esattamente la metà della frequenza di campionamento. Frequenza di Nikquist, scusate, non dice non tanto sono loro due, però frequenza di Nquist, quella, diciamo, viene convenzionalmente chiamata. Quindi se voi ad una determinata frequenza di Nquist corrisponde, diciamo, il limite oltre il quale va impostato il filtro antialiasing. Rimanendo sotto la frequenza di Nquist, la cosa bella è che il segnale che viene campionato può essere ricostruito senza perdita di informazioni. Quindi se noi prendiamo la nostra frequenza di campionamento di 40 kHz e diciamo non ci teniamo proprio a 20 kHz perché vi ripeto quello è un caso molto limite quando abbiamo la metà precisa, ma prendiamo 19 kHz. un'onda a 19 kHz campionata a 40 kHz verrà poi ricostruita senza la minima perdita di informazioni. motivo per cui se so che può sembrare controintuitivo perché è chiaro che sembra strano che si possa ricostruire, però finché rimaniamo al di sotto della frequenza di Nquist esiste un'unica funzione matematica che può interpolare i campioni e quindi viene il segnale viene ricostruito senza perdita. Motivo per cui diciamo che il campionamento è un'operazione di tipo lossless, cosiddetto, quindi una una delle due operazioni del della digitalizzazione di un segnale che non porta perdita di dati, perdita di informazioni. Questo dovrebbe anche farvi capire che in realtà quando qualcuno vi dice che è meglio lavorare a 96 kHz anziché a 48 kHz perché a 96 kHz avete più campioni e quindi le il il vostro segnale, le vostre il vostro audio digitale viene rappresentato meglio. Non è assolutamente vero. Non c'è nessun beneficio per quanto riguarda la ricostruzione di un segnale dell'utilizzare i 96 kHz al posto dei 48 kHz o dei 44 kHz. Finché siamo sotto la frequenza di Nquist non c'è problema. So che può sembrare controintuitivo, ripeto, ma è così. Quindi il campionamento a patto di stare sotto la frequenza di Nquist è un'operazione lossless, non ci crea problemi di nessun tipo. Quali sono le frequenze di campionamento con cui solitamente noi ci confrontiamo? Qui ne ho elencate alcune. Per esempio, quella standard del CD audio, dell'ormai de sueto CD audio, è di 44,1 kHz. quello standard nell'audio per il video, ma in realtà in molte postproduzioni audio è di 48 kHz. Poi ci sono i loro multipli vari che sono 88,2 e 96 kHz, 176.4 e 192 kHz. Queste sono, diciamo, già 176.4 492 sono pressoché inutilizzate. Oggi ormai Oggi ormai lo standard prevede di lavorare nella maggior parte dei casi a 96 kHz. I benefici, vi dirò la verità, non è che siano particolarmente tanti. Che beneficio, alla luce di quello che abbiamo detto, secondo voi, quale potrebbe essere un beneficio di lavorare a 96 kHz anziché a 48 kHz? la migliore resa sulle alte sulle altre frequenze, prendere tante più altre frequenze, però >> perché perché >> non lo so, però sto sto ragionando per se se oltre una certa soglia non le sentiamo, in effetti non avrebbe senso andarle a prendere, però evidentemente c'è un senso. Allora, non sempre quello che viene adottato come standard viene fatto perché ha un senso, eh, diventa spesso prassi comune, molto spesso dettata da ignoranza, fondamentalmente, quindi >> motivi commerciali, >> sì, da tante cose che comunque non sempre sono eh buon senso >> sensati, >> non cioè io so che eh cioè quello che si dice un po' è se si prende se si ha un margine eh sull'utilizzo di alcuni alcuni plugin, alcuni processamenti del segnale, eh per quanto noi quella parte non la sentiamo, ma contribuisce al all'esito totale della del processamento del segnale, ecco, in modo alcune volte imprevedibile, alcune volte efficace, alcune volte inutile. Questo >> sembra molto nebulosa come >> No, no, ma non >> Sì, sì, sì, lo so. Non sto dicendo che la la tua interpretazione è nebulosa, dico proprio che l'idea l'idea alla base mi sembra un po' nebulosa, mi sembra un po' quasi quasi esoterica, quasi mistica. >> Sì, sì, assolutamente. Anche secondo me >> sarà più facile fare il filtro. Quello è sicuramente una ragione. Il filtro in realtà le ragioni sono due di cui una opinabile e un'altra un po' più realistica. Quella più realistica è proprio come è strutturato il filtro antialiasing. Allora, a 48 kHz noi abbiamo una banda possibile da campionare di >> 24 >> 24 kHz. A 96 kHz abbiamo una banda possibile di da campionare di >> 48. Ricordatevi sempre che il filtro antialiaing è obbligatorio, va messo. Quindi a 48 kHz noi dobbiamo mettere un filtro antialiasing abbastanza a ridosso dei 20 kHz che sono il massimo udibile per noi, per cui serve un filtro intanto che sia progettato molto bene perché altrimenti c'è rischio che faccia passare un pochino di banda di aliasing e che questo possa determinare un problema successivamente. In più una cosa che vedremo poi nell'altro corso in modo approfondito è che i filtri non sono tutti uguali, ovviamente possono essere più o meno pendenti, quindi più o meno selettivi nel tagliare determinate porzioni di frequenza e più sono selettivi più introducono dei leggeri artefatti in termine di distorsione di fase sulla parte di segnale che rimane. Quindi, chiaramente, noi a 96 kHz abbiamo la possibilità di impostare un filtro antiallasing più in là nella banda, quindi non per forza stare a ridosso dei 20 kHz, ma magari dei 30, 35, 40 e farlo meno repentino, quindi con una pendenza più morbida che si traduce in una minor distorsione di fase nel che si rispecchia nel contenuto che rimane. Quindi sicuramente è più agevole realizzare un filtro antialiaing a 96 kHz che a 48. Diciamo che un convertitore ben progettato a 48 comunque funziona molto bene. L'altra motivazione che solitamente viene addotta è che vero è che il segnale limitato in banda finché siamo al di sotto della frequenza di Nquist non ci dà problemi di aliasing. Però l'aliasing si potrebbe creare in fase di processamento. Per cui se io in fase di processamento utilizzo, per esempio, una simulazione di un amplificatore per chitarra, quindi una distorsione molto pesante che genera armoniche superiori nel segnali, queste armoniche superiori a 48 kHz potrebbero generare aliasing più facilmente in modo piudibile rispetto al lo stesso plugin, stessa simulazione di amplificatore utilizzato ad una frequenza di campionamento più alta. Ora, per quanto a livello teorico questa cosa sia vera, ci sono due cose che la rendono un po' meno vera. La prima è che su distorsioni così pesanti spesso neanche 96 kHz sono sufficienti per non avere alias ingudibile. Inoltre la maggior parte di questi processori, soprattutto oggi come oggi, ormai sono strutturati per avere al loro interno degli algoritmi di oversampling. Come funziona l'overling? La nostra il nostro plugin di simulazione di amplificatore per chitarra prende il segnale, lo porta ad una frequenza di campionamento più alta, a volte anche 16-32 V più alta, quindi ben oltre anche 192 kHz che qui vediamo espressi come frequenza di campionamento più alta che mediamente si trova in giro sui convertitori. viene processato e poi viene riportato alla frequenza di campionamento più bassa e opportunamente filtrato. In questo modo l'aliasing viene pressoché annullato e oggi come oggi sono sempre più i plugin che prevedono algoritmi di oversampling, a volte anche selezionabili dall'utente. Spesso vedete che avete un 4x, 8, 16, 32 nei vostri plugin. Quello è semplicemente di quanto viene effettuato l'oversling, quindi se viene raddoppiato, quadruplicato, moltiplicato per 32 o o via discorrendo, oppure lo fanno internamente senza darvi la possibilità di scegliere, ma comunque lo fanno. Quindi sotto questo punto di vista utilizzare lavorare a 96 kHz o lavorare a 48 kHz è fondamentalmente la stessa cosa. Tenete presente ovviamente che lo stesso file, quindi la stessa registrazione della stessa durata a 48 kHz e a 96 kHz ha un peso ben diverso sul vostro hard disk. quello 96 kHz pesa il doppio. Quindi valutate se vale la pena di sprecare spazio di archiviazione e potenza di calcolo, perché ovviamente un plugin che lavora a 96 kHz richiederà molta più potenza di elaborazione dello stesso plugin che lavora a 48 kHz sulla vostra CPU. Quindi diciamo che mettendo le cose sul piatto della bilancia non non sempre lavorare ad una frequenza maggiore significa effettivamente avere qualche beneficio tangibile. Tutto chiaro fin qui? Sei arrivato a 44 e 100 proprio per la pendenza del filtro. >> Tendenzialmente sì. E poi 4400 dipende anche un pochino da alcune altre ragioni storiche. Considerate che è vero che il torema di Nikwist e Shannon dice che c'è bisogno di una frequenza di campionamento che sia almeno il doppio. Diciamo che poi volendo utilizzare un teorema di naquist e shenon rivisto un pochino in chiave un po' più pratica, l'ideale sarebbe avere una frequenza di campionamento che sia almeno due volte e mezza la massima frequenza da campionare, proprio perché quando siamo molto molto molto a ridosso della frequenza di Nquist, quindi proprio della metà esatta della frequenza di campionamento, potrebbero succedere M.
Get free YouTube transcripts with timestamps, translation, and download options.
Transcript content is sourced from YouTube's auto-generated captions or AI transcription. All video content belongs to the original creators. Terms of Service · DMCA Contact
Browse transcripts generated by our community



















