Ah, ok. >> Queste sono le porte digink per collegarle alla scheda HDX. >> Ah, ok. >> Questa fondamentalmente fa concettualmente questa interfaccia vi fa da bridge verso il mondo esterno, >> con convertitori Madi che non siano prodotti da Avid. Ovviamente la cosa bella del protocollo Madi è che vi consente di coprire distanze lunghissime, chiaramente lavorando su connessioni in fibra, distanze lunghissime portando fino a 64 canali di audio digitale 48 kHz 24 bit su una singola fibra. Quindi voi immaginate che su una singola fibra ottica potete portare magari anche per 5 km 64 canali di audio 48 kHz 24 bit. Immaginate che svolta possa essere questa in ambiti, per esempio, di location recording o di grandi eventi dove magari ciò ciò su cui state lavorando si trova a un isolato di distanza rispetto a dove siete voi con la regia. >> Quindi è un protocollo digitale. >> Sì. >> Ah, ok. >> Sì, sì, sì. protocollo digitale, >> ma io Madi ho sempre visto e usato su eh su internet base, cioè eh non tramite >> in realtà il Madi è un protocollo locale, ok? ed è un protocollo suo, cioè non è un protocollo di rete, quindi non so in che tipo di ehm infrastruttura e per comunicare tramite per comunicare con la stagebox per il mix Soundcraft, ad esempio, utilizza il protocollo Madi, >> però tu non lo colleghi tramite pass serie, ma lo colleghi internet e è la stessa cosa. in in teoria ni, nel senso che tu sul cavo di rete probabilmente puoi far passare, fermo restando che io non sono a conoscenza di apparati MADI che veicolino il Madi su cavo di rete, però a livello tecnologico non mi sembra una cosa così infattibile. Rimane il fatto che non è comunque un protocollo di rete, cioè potrebbe utilizzare magari un cavo di rete, ma non è un protocollo di rete. Sì, che non sia un protocollo di rete. Certo, non è che lo puoi collegare a una rete, cioè u utilizzare, però il >> Io non al momento non sono a conoscenza di nessun apparato che veicoli mai su cavo di rete, però sarebbe interessante, sarebbe sicuramente una bella un ulteriore step verso standardizzazioni alle quali io sono sempre favorevolissimo, quindi sarebbe molto molto bello. Sync HD. Questa è un'interfaccia molto interessante. Prima cosa che dobbiamo dire è che quando noi utilizziamo fra loro molteplici periferiche digitali contemporaneamente è fondamentale che queste abbiano un qualche tipo di sincronismo, cioè che la digitalizzazione che avviene sia eh diciamo sia la parte AD sia la parte DA in tutte quante le interfacce avvenga contemporaneamente. Quindi che il campionamento, la scansione del dei momenti in cui viene campionato il segnale avvenga contemporaneamente per tutte le interfacce. A tal proposito viene utilizzato quello che comunemente si chiama master clock. Quando parliamo di clock, parliamo appunto di un impulso che scandisce la temporizzazione con cui vengono prelevati i campioni. È importante che il clock sia univoco per tutte quante le interfacce collegate allo stesso sistema. Come facciamo a fare questo? La maggior parte delle interfacce possono soprattutto quelle pensate per lavorare non da sole ma insieme con altre interfacce, tipo l'HDIO, per esempio, la prima che abbiamo visto, questa qui, vi dà la possibilità sia di generare, di utilizzare il proprio clock interno. Chiaramente ogni ogni convertitore ha un suo clock interno perché comunque voi una qualunque interfaccia, anche questa che è un'interfaccia piccoletta così, la potete utilizzare anche da sola. In quel caso chiaramente la scansione temporale con cui viene campionato il segnale è interna sua, non non fa riferimento a nessuna temporizzazione esterna e non condiziona nessun'altra periferica. Un'interfaccia tipo questa vi dà la possibilità sia di utilizzare il clock interno, sia di sincronizzarsi ad un segnale di clock esterno. Come si fa? Il clock può viaggiare sia embeddato all'interno di alcuni protocolli digitali, tipo la, tipo l'Adat, portano con sé volendo, anche il segnale di clock, oppure tramite porte separate come queste qui che vedete, questi connettori BNC che sono qui che servono proprio sono dedicati al segnale di clock, quindi sia a generare un segnale di clock da dare ad altre interfacce oppure a leggere un segnale di clock che proviene da altre interfacce. Il compito dell'H della Sync HD, uno dei vari compiti che ha la Sync HD è quello di generare il clock per tutte le interfacce che sono collegate al sistema HDX. Non solo, fa molto più di questo. Intanto vi consente di sincronizzare Pro Tools con un qualunque altro sistema esterno, come ad esempio un sistema di editing video, perché può generare e leggere un time code. Quindi se noi abbiamo un time code di riferimento, la Syn HD lo può leggere e quindi posizionare Pro Tools e far scorrere Pro Tools seguendo il Time Code che legge o può fare il contrario, può generare un Time Code in modo che altri sistemi Pro Tools, per esempio, che vogliamo far andare in contemporanea, vogliamo far riprodurre magari in contemporanea, possano riprodurre esattamente nello nella stesso punto della timeline in cui si trova il nostro sistema. Questa cosa vi è chiara? che anche qui ci saranno più standard per trasmettere >> il time code. Esatto. Ma diciamo tendenzialmente gli standard sono due, cioè o il time code, il cosiddetto LTC, che è un time code eh che segue lo standard SPTE e che è fondamentalmente un'onda quadra modulata che è un suono orribile. Buongiorno. Quindi o si usa quello che è un Time code analogico oppure si usa il anche il MIDI Time Code è molto usato, il cosiddetto MTC è un Time Code che però viene trasmesso, viene veicolato sotto forma di impulsi medi. È utilissima per esempio, anzi è fondamentale, non è utilissima. Per esempio, se voi avete un sistema ibrido che utilizza che impiega Pro Tools, un sistema Pro Tools è un sistema analogico su macchina a nastro, immaginate, ed è una cosa che può sembrare fantascientifica, ma vi assicuro che non lo è. Cioè, a me è capitato diverse volte. Immaginate che venga qualcuno a registrare da voi e che vi chieda di registrare su un nastro magnetico, quindi su una macchina a nastro, batterie basso, perché il nastro ha tutta una serie di caratteristiche peculiari su cui non ci soffermiamo adesso, ma ci soffermeremo un po' di più nel nel corso di ripresa e mix per quanto riguarda l'introduzione, distorsione armonica di compressione del suono eccetera, ma poi decida di registrare amplificatori di chitarra, tastiere, voci, eccetera direttamente in digitale, direttamente su Prodools. Voi questo problema come lo affrontereste? Ad oggi, ad oggi fino a mezz'ora fa, se fosse venuto da voi qualcuno a dirvi voglio registrare basso e batteria su nastro e il resto su sul su sulla DO, qualunque essa sia, come fate? Mi verrebbe da dire registro in parallelo sul nastro, anche una traccia click e poi digitalizzo l'uscita dal nastro. In un secondo momento vado sulla >> Questo potrebbe essere un buon sistema non fosse che il nastro presenta un piccolo problema. Non ha uno scorrimento preciso come quello di una DO. ha delle fluttuazioni meccaniche, delle oscillazioni meccaniche date dal movimento che fa, dal peso che ha e una serie di cose, per cui cominceresti a ritrovarti delle cose non allineate. La traccia click stessa sarebbe inizierebbe ad essere un po' disallineata. Tocca mandare su una pista il segnale di clock. L'unico modo che abbiamo per fare questa cosa è quella di sincronizzare il sistema Pro Tools e registratore a nastro in modo che quando io parto in play o registrazione con uno mi parta anche l'altro. Ora, secondo voi va sincronizzato il registratore a nastro rispetto al sistema Pro Tools, quindi utilizzando come master Pro Tools e come slave la macchina a nastro o viceversa? >> Perché? Perché devi rispettare le fluttuazioni >> si sincronizza sempre il sistema più forte a quello più debole, proprio perché il nastro che fluttua, cioè Prodols può seguire le fluttuazioni che è il nastro, quelle leggerissime fluttuazioni di time code che è il nastro. Il nastro non può magicamente diventare preciso a livello digitale semplicemente perché segue produlsa. a un certo punto si sganceranno o comunque si creeranno delle anomalie di sincronismo. Questa interfaccia in questo caso che fa? Intanto genera il time code. Quindi l'idea qual è? Noi generiamo un time code e lo registriamo su una traccia del nastro, solitamente su una delle tracce esterne, perché un altro dei problemi grossi che ha il nastro è la diafonia fra tracce adiacenti. Quindi se voi registrate il time code sulla traccia 12 D24 quasi sicuramente vi ritrovate del time code anche sulla 11 e sulla 10 e anche sulla 13 e la 14. Quindi si preferisce registrare Time Code e click sulle tracce. estreme esterne del nastro, la 1 e la 24. Una volta registrato si rimanda indietro tutto il nastro e si fa leggere il time code registrato alla Sync HD. Quindi a questo punto che succede? Quando io parto in play col nastro, mi va in play la traccia 24 su cui c'è il Time Code che viene letto dalla Sync HD che mi fa partire in Play Pro Tools e me lo tiene agganciato allo al trasporto del nastro. >> Quindi il clock che in realtà è trasferito sul nastro. Sì, però in questo caso non è tanto un clock perché non parliamo di una un sincronismo digitale, in questo caso è proprio un sincronismo temporale, quindi parliamo di Time Code proprio, >> cioè il clock anche è temporale, ma è una temporizzazione più che altro il time code, diciamo, è proprio una sincronizzazione da un punto di vista di scorrimento sulla timeline, chiamiamolo così. >> E come viene fatto? Cioè con Infusi >> viene questo questo segnale di di time code viene generato, è un'onda quadra modulata, è una cosa bruttissima. Dopo vedo se ho un un piccola registrazione di un segnale di Time Code per farvi sentire che cosa brutta è. Comunque un segnale, un segnale audio quando lo ascolti è un segnale audio. In realtà è un'onda quadra modulata che al suo inter che viene modulata chiaramente a seconda di minuti, secondi eh frame che vengono ehm di di quei del momento specifico del dello scorrimento. Time code si usa anche tipo rumore bianco, cose del genere, tipo per live session, cose così, >> per generare il time code, cioè come tipologia di time code. >> Sì. No, >> m No, cioè però è una cosa che non ti dico somiglia al rumore bianco, ma comunque è una cosa è un rumore, non è un suono. Ora fin qui è tutto chiaro. A che ore sono? 1030. Tra poco facciamo una pausa. Fin qui è tutto chiaro. Parliamo un attimo adesso di quelli che sono i plugin in Pro Tools. Chi di voi è esperienza di altre do sicuramente avrà utilizzato i plugin VST o i plugin Audio Units AU per chi lavora su ambiente MAC che lavora con Logic. Prodols utilizza un proprio standard anche per il formato dei plugin che possiamo utilizzare. E questo formato è il formato AAX. I plugin AAX possono essere di due tipi. Possono essere o AX DSP e sono quei plugin che possono essere caricati sui DSP dedicati delle schede HDX. È chiaro? >> Ni >> ni in cosa ste cose >> in in cosa non è chiaro? No, non riesco ad afferrare, cioè cos'è che fa veramente, cioè cos'è che fa veramente cosa? Plugin DSP. Esatto. >> Praticamente anziché utilizzare la potenza di elaborazione della CPU del computer, utilizza la potenza di elaborazione di DSP dedicati >> che sono sulla scheda HDX. Esatto. Quindi non gravano sulla CPU del computer. >> Ok? A patto chiaramente che le software house sviluppino i plugin anche in formato AX DSP, quindi anche nella nel formato specifico che possa utilizzare DSP della scheda HDX e non semplicemente la CPU del computer, perché normalmente tutti i plugin che noi utilizziamo nelle DO utilizzano la CPU del computer. Se avete un computer potente potete usare tanti plugin anche belli elaborati. Se avete una CPU poco potente potete usare pochi plugin. Appena usate qualcuno un po' più pesante cominciano i vari messaggi di errore. Plugin sarebbero patch software fatte da altre casse >> che si inglobano dentro il prodotto. >> Sono sono esattamente sono dei processori, >> ok? >> Quindi dei software praticamente che vengono caricati all'interno della DO, che sia Pro Tools, che sia Cubase, quello che è. e vengono caricati per elaborare il suono che c'è su una o più tracce particolare. >> Esatto. Questi software vengono caricati solitamente utilizzando la potenza di calcolo del della CPU del computer. >> Ok? Se avete un sistema HDX, però sulla scheda ci sono dei DSP dedicati all'elaborazione anche per i plugin. Quindi, se il plugin che utilizzate, i plugin che utilizzate sono sviluppati in formato AX DSP, >> possono essere caricati direttamente su questi DSP e quindi non vanno a gravare in nessun modo sul sulla CPU interna, cosa molto utile per esempio se voi quei plugin li volete utilizzare in tempo reale mentre registrate, tipo una simulazione di amplificatore, tipo un effetto di distorsione sulla voce, perché lavorando su DSP della scheda HDX X fondamentalmente non comportano latenza a udibile. Poi abbiamo gli AX native o AX e basta. in questo questi sono i classici plugin che vanno sulla CPU, quindi che utilizzano la potenza di elaborazione della CPU del computer, esattamente come lo sarebbero i plugin VST, esattamente come lo sarebbero gli audio units, esattamente come lo erano i vecchi RTAS di Pro Tools che ormai non esistono più. RTS. Piccola curiosità storica, questa quindi il formato di plugin prima degli AX che si chiamava RTS o RTAS. Questa sigla sta per realtime audio suite perché Plugin Produls ha una terza poco convenzionale forma in cui vi può presentare i plugin che è il formato audio suite. Gli Audio Suite sono dei plugin che non lavorano in tempo reale, ma lavorano solamente nel momento in cui andate ad effettuare un render. Quindi, mentre i plugin solitamente vengono utilizzati in insert su uno o più canali della vostra DO e lavorano in tempo reale mano che fate play del brano, i plugin Audio Suite vengono applicati direttamente sul vostro file audio. Quindi è come se voi concettualmente è come se voi aveste già registrato con un equalizzatore, aveste già registrato con un compressore. Ovviamente Pro Tools, come tutte quante le altre do, non effettua editing distruttivo. Quindi quando voi utilizzate un plugin audio suite su un file audio, in realtà non state andando a sovrascrivere il file audio di partenza, Prools ne crea una copia processata con il plugin Audio Suite. Tra poco lo vediamo in funzione. Vedrete che è molto più complicato da spiegare e che non da capire come funzionamento. In più da qualche versione a questa parte c'è un'integrazione con questo formato barra protocollo di comunicazione con i plugin che si chiama ARA2. Ed è molto interessante perché eh soprattutto per quanto riguarda i plugin di Pitch correction, quindi i vari melodine, Rapeach, eh Autotune che però non credo che sia utilizzabile in Ara 2 o i plugin di Spectra Repairing, tipo Spectra Layers di Steinberg, per esempio, vi consente un'interazione in tempo reale con questi plugin molto molto più integrata rispetto a com'era prima. Chi di voi ha mai usato Melodine in vita sua? Come come si usa Melodine? Come funziona? >> Allora, io ho la mia traccia di voce o di strumento che voglio intonare. Ok. legge deve prima leggere la faccia di voce e poi su quella tu modifichi e poi riscrivi. >> Quindi anche se noi lo apriamo come plugin insert che quindi in teoria lavora in tempo reale, Melodine, così come tanti altri plugin analoghi ha bisogno prima di leggere, quindi di acquisirsi internamente la voce o lo strumento che vogliamo intonare. Dopodiché possiamo fare tutte le operazioni di pitch correction, quindi spostare le note, renderle precise e via discorrendo. Il problema è che una volta fatto questo, se facciamo qualunque operazione di editing sulla voce o sullo strumento, quella dobbiamo riacquisire un'altra volta la voce. Quindi se poi dobbiamo mettere a tempo una frase diventa un problema, diventa un'operazione più lunga. La cosa bellissima invece di Melodine utilizzato come plugin ARA 2 è che non solo non ha bisogno di acquisire niente, ma segue tutti gli spostamenti, tutti gli editing che effettuiamo sulle sul file di voce, di basso, di chitarra, quello che stiamo intonando. Quindi qualunque operazione di editing effettuiamo, non c'è bisogno di far riacquisire il file al plugin e velocizza di tantissimo le operazioni. >> Questo perché lo riacquisisce automaticamente da solo, perché cioè per faccio fatica a immaginarmi che non potrebbe funzionare senza la l'acquisizione. Sì, è come è come se se lo riacquisisse da come se in realtà facesse un'analisi in tempo reale costantemente e quindi lavora effettivamente in tempo reale molto più della versione in insert del plugin. >> Quindi tipo Medadine potremmo definirlo come un audio switch. No, no, non proprio perché tu non lo vai a stampare sul file. Se tu mentre sta scorrendo il brano una nota la vuoi portare da Sì a do, la puoi fare tranquillamente. Con l'audio suite tu invece avresti il file che così è come se tu poi una volta intonato ti riregistrassi il file. >> Però con Ara 2 eh diventa un audio suit in tempo reale. >> No, non è audio suite. A quel punto è come se fosse proprio un classico plugin AX in tempo reale che lavora completamente in tempo reale, però quindi non passa da nessuno step intermedio di acquisizione, >> cioè praticamente lo ingloba e lo autottimizza degli accordi anche forse produttori. >> Assolutamente sì. Sì, questa è tutta roba che nasce da collaborazione fra Avid, ma non solo, perché Ara credo sia mi pare che sia anche un anche utilizzato in cubase, no? Beh, sì, sicuramente. >> Quindi, eh collaborazione di che forse integra proprio una versione sua proprietaria. Sì, sì, ma quello sicuramente ha un non mi ricordo come si chiama il la parte di Pitch correction che è fatta molto bene, però si può utilizzare credo anche Melodine tutti i software, tutti i plugin che supportano la il protocollo ARA 2 anche in Cubase, mi pare. Questa è una cosa che vi assicuro, velocizza il lavoro tantissimo, tantissimo, perché ogni volta che c'è da fare da spostare anche una parola, una frase, una sillaba, dopo aver usato Melodine, un software repeat correction diventa diventava un problema. Adesso lo fate proprio senza nessun problema. Perché poi anche la fantita faccia me lo dà in >> Sì, esatto, esatto. Cioè, >> quindi praticamente la stessa cosa oppure comunque me lo dà continua a essere >> Guardate, io quello che vi posso dire su questo tipo di software è che alla fine l'importante è come imparare a usarli. Anche questo posto >> cioè nel senso non c'è chi dice autotune suona meglio di Melodine, chi dice Melodine suona meglio di Autotune, chi dice eh Ripech è meglio di tutti quanti. Wave stune è il top per quello che ho visto io. A parte che in alcune situazioni magari uno funziona meglio dell'altro, ma poi dipende da come ci lavorate. Quindi, se siete bravi, riuscite a a utilizzare più o meno qualunque software ottenendo un risultato credibile. Poi è chiaro, ci sono delle caratteristiche peculiari che magari volete usare in modo creativo, quindi non tanto per effettuare una correzione di intonazione in senso standard, ma come ormai è sdoganatissimo l'utilizzo di autotune per utilizzo creativo nell'ambito per esempio della trap o dell'hipop, ormai anche un po' del pop, quindi estremizzato e snaturato se vogliamo. Ma se parliamo di pitch correction standard, più o meno uno vale l'altro. Imparate a usare quello che avete che sicuramente fate più differenza rispetto al chiedervi quale è meglio rispetto a quale. Scusa, perante come me di questa materia Peach Correction che a cosa sarebbe esattamente? Il cantante che canta stonato lo intoniamo. Quindi ha preso un do calante, noi prendiamo quel do e lo portiamo un do perfetto. >> Niente, il basso era un po' scordato, quindi ogni volta che suona il s il sì era leggermente crescente e quando c'è il sì lo riporta a un sì preciso. >> Questo è pit. Quindi quando parliamo di pitch parliamo di intonazione. Quindi sono tutti quei software che servono per correggere l'intonazione. Volta velocizzava il nastro. Eh, però quella è una cosa non potevi fare sulla singola nota. >> Esatto. Non potevi fare istante per istante. >> Esatto. Questo invece lo fanno proprio istante per istante, nota per nota, singola nota, tutto quanto. Eh, >> consentono, servono per consentire agli stonati di cantare. Mettiamola così. >> Io mi chiedere scuola. Lì si apre un dibattito molto molto molto lungo. Molto lungo, >> molto lungo. Quindi è chiaro fin qui? Allora, EVID Audio Engine, che cos'è AVID Audio Engine? E ve lo dico semplicemente perché quando lavorerete con Prodools vedrete che spesso il 90% pure di più degli errori che vi dà Prools quando si blocca in riproduzione, si blocca in registrazione riporta la sigla AE e error e un numerino. L'EVID Audio Engine è il sistema operativo in tempo reale che Prools utilizza per la gestione e l'elaborazione dell'audio. Niente più di questo. Quindi quando quando è riscontrato un errore dellae significa semplicemente che Prodools o non è riuscito a elaborare l'audio in tempo reale in modo appropriato al punto da doversi piantare. >> Considerare il core di prod >> Sì, è è fondamentalmente quello. È il core di produlse. Nulla di più e nulla di meno. Facciamo una pausa se non avete domande. La domanda era quando facciamo la pausa. Dai, facciamo una pausa e ci rivediamo qua, magari se riusciamo per me 35. Mh. >> Bloccate bloccate la telecamera, per favore. l'ultima
Get free YouTube transcripts with timestamps, translation, and download options.
Transcript content is sourced from YouTube's auto-generated captions or AI transcription. All video content belongs to the original creators. Terms of Service · DMCA Contact
Browse transcripts generated by our community



















