Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
1
Suono digitale 3.0 ITP Sergio Capone
2
Il suono Il suono (dal latino sonus) è la vibrazione prodotta da un corpo in oscillazione. Tale vibrazione, propagatasi nell'aria o in un altro mezzo elastico, raggiunge l'orecchio che, tramite un complesso meccanismo interno, è responsabile della creazione di una sensazione "uditiva" direttamente correlata alla natura della vibrazione. Il suono (dal latino sonus) è la vibrazione prodotta da un corpo in oscillazione. Tale vibrazione, propagatasi nell'aria o in un altro mezzo elastico, raggiunge l'orecchio che, tramite un complesso meccanismo interno, è responsabile della creazione di una sensazione "uditiva" direttamente correlata alla natura della vibrazione. Come tutte le onde, anche quelle sonore sono caratterizzate da una frequenza (che nel caso del suono è in diretta, ma non esclusiva, relazione con la percezione dell'altezza) e un'intensità (che è in diretta, ma non esclusiva, relazione con il cosiddetto "volume" del suono). Inoltre, caratteristica saliente delle onde sonore è la forma d'onda stessa, che rende in gran parte ragione delle differenze cosiddette di timbro che si percepiscono tra diverse tipologie di suono.
3
Il suono e l’orecchio umano...
In natura il campo di onde udibili si estende da 0 a 22,05 kHz. (infrasuoni, suoni, ultrasuoni) L’orecchio umano, al contrario, può percepire suoni compresi tra 20 e Hz. e quindi con frequenze nella gamma generabile anche da un comune altoparlante di un personal computer. (bellissimo)
4
Suono e audio digitale Il modo più semplice, per generare un suono digitale, è generare in uscita dal timer del PC un’onda quadra della frequenza voluta che, alternando valori bassi a valori alti, consente di mantenere costante la frequenza di vibrazione di una membrana, per esempio nell’altoparlante di un PC. L’audio digitale considera la gestione del suono in funzione del tempo (flusso). L'audio è l'informazione elettronica rappresentante il suono. In particolare è un'informazione che si presenta come un flusso avendo il suono sempre una dimensione temporale. Flusso che scorre all'interno di apparecchiature elettroniche sotto forma di corrente elettrica per essere elaborato, che viaggia nello spazio sotto forma di onde elettromagnetiche, o all'interno di cavi per telecomunicazioni sotto forma di corrente elettrica o luce, per essere trasmesso a distanza, che viene registrato su supporti di memorizzazione sotto varie forme per essere conservato.
5
Altoparlante del PC Grazie al “timer” è possibile generare tutte le frequenze tra 18,2 Hz e 1,2 MHz In linea di massima, i costruttori di altoparlanti per PC fanno riferimento ad una precisa tabella di frequenze in cui l’indice rappresenta l’ottava di appartenenza della nota rispetto alla scala musicale internazionale. L'altoparlante è un trasduttore che, per mezzo di una bobina immersa in un campo magnetico, converte segnali elettrici in forza elettromagnetica in grado di far muovere un corpo in modo da fargli generare onde sonore. Subwoofer (frequenze bassissime, solitamente al di sotto dei 120 Hz) Woofer (frequenze basse) Midrange (frequenze medie) Tweeter (frequenze alte)
6
Tabella di frequenze standard per P.C. (16,35 Hz. / 3951,07 Hz.)
7
La scheda audio ... è dotata in genere di 4/5 prese:
Entrata (verso trasduttori di Input) MIC (microfono) LINE IN (digitalizzazione audio esterno) Uscita (verso trasduttori di Output) LINE OUT (audio per registrazione) SPEAK (altoparlanti esterni) S/P DIF (Sony/Philips Digital Interface Format) da Wikipedia Trasduttori di input Il più utilizzato trasduttore di input è il microfono, ovvero un trasduttore elettroacustico che converte un'onda sonora in un segnale elettrico. Esistono svariati tipi di microfoni, ma i più comuni sono i microfoni a bobina mobile (ossia sono costituiti da una bobina metallica su cui è montato il diaframma è inserita all'interno di un magnete. Il movimento del diaframma genera il movimento della bobina inducendo al suo interno il passaggio di una corrente che rappresenta l'equivalente elettrico dell'onda acustica che ha sollecitato il diaframma stesso), i microfoni a condensatore (nei quali il diaframma poggia su una delle due placche di un condensatore. Il movimento del diaframma genera il movimento della placca facendo variare la distanza tra le due placche. Ciò varia la capacità del condensatore e genera una corrente che rappresenta l'equivalente elettrico dell'onda acustica che ha sollecitato il diaframma) e infine i microfoni a cristallo piezoelettrico (che sfruttano la proprietà di alcune sostanze ceramiche di sviluppare un campo elettrico quando subiscono una deformazione fisica. Quando il cristallo viene deformato dall'onda acustica che investe il microfono genera una corrente che rappresenta l'equivalente elettrico dell'onda acustica che ha sollecitato il diaframma). Trasduttori di output I trasduttori di output sono oggetti molto comuni ai giorni nostri; la maggior parte di noi li conosce con il termine di altoparlanti. Il primo film sonoro della storia, Il cantante jazz, non sarebbe stato tale se all'interno della sala cinematografica non fossero stati montati degli altoparlanti.
8
Una comune scheda audio
L’hardware Una comune scheda audio
9
Colori Colore Funzione Rosa Entrata analogica per il Microfono.
Rosa Entrata analogica per il Microfono. Azzurro Entrata analogica. Verde Uscita stereo principale (per cuffie o altoparlanti frontali). Nero Uscita per gli altoparlanti posteriori (nei sistemi surround). Argento Uscita per gli altoparlanti laterali (nei sistemi surround). Arancione Uscita digitale S/PDIF (a volte utilizzata come uscita analogica per il subwoofer). Da Wikipedia Di recente introduzione, S/PDIF o S/P-DIF è l‘acronimo di Sony/Philips Digital Interface Format (Interfaccia Digitale Sony / Philips), questo standard è anche detto IFC 958 type II, ed è parte dello IEC È una collezione di specifiche hardware e protocolli a basso livello per il trasporto di segnali audio digitali PCM stereo è un metodo di rappresentazione digitale di un segnale analogico tra periferiche e componenti stereo. S/P-DIF è una versione commerciale dello standard conosciuto come AES/EBU; da cui si distingue per alcune piccole differenze e componenti più economici. PCM Pulse-Code Modulation, in italiano modulazione codificata di impulsi. AES Fondata nel 1948, la Audio Engineering Society (AES) è composta da tecnici, scienziati, ingegneri, fabbricanti e da altre organizzazioni e individui facenti parte dell'industria dell‘audio professionale, inclusi cinema, televisione e ogni mezzo di comunicazione che comprenda la produzione audio come sua parte. L'Audio Engineering Society è l'unica società di professionisti rivolta esclusivamente alla tecnologia audio. Il numero dei suoi membri è notevolmente aumentato a livello mondiale dall'epoca sua fondazione, rendendo sia la società che i suoi membri via via più importanti a livello di immagine. L'organizzazione sviluppa, revisiona e pubblica standard tecnici per l'industria dell'audio e dei media collegati, e produce le conferenze AES, in programma due volte l'anno in alternanza tra Europa e Stati Uniti d’America. La AES pubblica una rivista, il Journal of the Audio Engineering Society (JAES). EBU L'European Broadcasting Union (EBU), in francese Union Européenne de Radio-Télévision (UER), è un ente radiotelevisivo, fondato il 12 febbraio 1950, da 23 radio-televisioni nazionali di stati dell‘Europa e del bacino del Mar Mediterraneo durante la conferenza di Torquay in Devon, Inghilterra. Nel 2004 l'EBU conta 52 radio-televisioni membri (anche private come TV4 in Svezia) e 29 associati. Le due produzioni più famose dell'EBU sono “l’Eurofestival”, ancora presente, e l’indimenticabile “Giochi senza frontiere”. Il tema musicale suonato prima di ogni trasmissione dell'EBU è il preludio del “Te Deum” di Marc Antoine Charpentier. L'EBU non è collegato all‘Unione Europea. C
10
La digitalizzazione (Mic o Line In)
1. Il suono è un’onda di pressione che viene trasformata dal sistema emittente in una analoga onda di tensione elettrica. 2. Il valore di questa onda viene campionato con una certa frequenza, e ogni valore viene convertito a 8/16 bit da un ADC (Analog Digital Converter).
11
La digitalizzazione (Mic o Line In)
3. l’ADC invia le informazioni digitali ad un processore DSP (Digital Signal Processor) che ha funzioni di elaborazione del suono, tra cui il livello di compressione. 4. il DSP invia i dati alla CPU che di norma memorizza su disco, senza compressione, in un PC Intel (Microsoft) il software crea un file nel formato .WAV standard de facto per tutti in un PC Motorola (Mac) un file .AIFF Codec audio Da Wikipedia, l'enciclopedia libera. Un codec audio è un programma o un dispositivo sviluppato per descrivere un flusso audio sotto forma di dati numerici adatti ad essere memorizzati su un supporto digitale. I codec audio possono effettuare anche una compressione dei dati in modo da ridurre la quantità di dati che compone un flusso audio. I codec possono effettuare una compressione senza perdita di informazioni o con perdita di informazioni. Nel caso di compressioni senza perdita di informazioni si possono ottenere dei fattori di compressione del 50% o meno mentre se si utilizzano compressioni con perdita di informazione si possono ottenere compressioni anche del 500% con qualità accettabile. I dati prodotti dai sistemi audio sono relativamente pochi rispetto a quelli prodotti da un flusso video e difatti esistono codec audio non compressi mentre i codec video non compressi sono riservati ad applicazioni professionali e non sono diffusi tra i personal computer. Comunque la maggior parte dei codec audio adottano tecniche di compressione a perdita di informazione dato che la diffusione di internet ha reso necessario ridurre al minimo i dati trasmessi mentre la potenza di calcolo necessaria per decodificare i flussi audio compressi non è un problema per gli attuali computer. Codec audio molto noti - Senza compressione e perdita di dati AIFF WAV - Compressione lossless (senza perdita di dati) Apple Lossless Encoding FLAC IFF - Compressione lossy (con perdita di dati) Advanced Audio Coding ATRAC Dolby Digital Digital Theater System G.729 MP3 Mp3PRO Musepack RealAudio Speex Vorbis Windows Media Audio
12
Riproduzione digitale di un file Wave
1. la CPU legge il file dal disco e lo invia al processore DSP sulla scheda sonora. 2. il DSP, se necessario lo decomprime, lo elabora inviando i dati al DAC (Digital Analog Converter), che ricostruisce l’onda di tensione originaria, e la invia amplificandola all’altoparlante. 3. L’altoparlante riproduce il suono originario.
13
Il teorema di Nyquist-Shannon
Se una grandezza funzione del tempo (segnale) viene campionata ad una frequenza doppia della massima frequenza che compone il segnale, non si ha perdita di informazione nella trasformazione come sequenza di codici binari. Così, considerando i limiti da 0 a 22,05 kHz, il campionamento ottimale è di 44,1 kHz. Claude Shannon Da Wikipedia, l'enciclopedia libera. Claude Elwood Shannon (Petoskey, 30 aprile febbraio 2001) è stato ingegnere e matematico, statunitense, spesso definito "il padre della teoria dell’informazione”. Teorema del campionamento di Nyquist-Shannon Il teorema del campionamento definisce la frequenza minima di campionamento di un segnale, necessaria per evitare distorsioni dello stesso. L’enunciato: Dato un segnale, con larghezza di banda finita e nota, la frequenza minima di campionamento di tale segnale deve essere almeno il doppio della sua massima frequenza.
14
I limiti del campionamento
Il numero di bit utilizzati nel campionamento determinano anche proporzionalmente l’errore che otteniamo. In genere 16 bit sono ritenuti sufficienti in quanto: 216 = livelli di segnale. 16 bit però, come è facile immaginare, utilizzano molta memoria e necessitano di un notevole numero di calcoli. AIFF Da Wikipedia, l'enciclopedia libera. L'Audio Interchange File Format è un formato di file standard utilizzato per memorizzare registrazioni audio su un personal computer. Il formato è stato sviluppato dalla Apple Computer basandosi sull'Interchange File Format della Electronic Arts ed è comunemente utilizzato sui sistemi Apple Macintosh, motivo per cui viene anche chiamato Apple Interchange File Format. I dati audio nel file AIFF non sono compressi, quindi il file tende ad essere molto più grande rispetto ad altri formati, sia lossless che lossy, come l'ALE o l'MP3. Un minuto di audio occupa circa 10 MB di dati, questo perché è un formato nato per lo scambio, pur essendo utilizzato anche nell'editing. Esistono tuttavia formati compressi, detti AIFFC (AIFF Compressed) che possono ridurre le dimensioni del file di un terzo (AIFF3) o di un sesto (AIFF6), ma ne risulta una grossa perdita di qualità, per questo non vengono praticamente utilizzati. WAV WAV (o WAVE), contrazione di WAVEform audio format (formato audio per la forma d'onda) è un formato audio sviluppato da Microsoft e IBM per personal computer IBM compatibile. È una variante del formato RIFF di memorizzazione dei dati. I dati vengono salvati in "chunk" (blocchi), è simile anche al formato AIFF utilizzato dai computer Apple macintosh. La differenza principale di questo formato è che, essendo progettato per computer montanti processori Intel o compatibili, i dati vengono memorizzati con la notazione little endian, a differenza degli altri formati che, essendo sviluppati prevalentemente per computer con processori Motorola, utilizzano la notazione big endian. Essendo basato su RIFF il formato supporta varie modalità di immagazzinamento dei dati ma nella pratica il più diffuso è il metodo PCM. Questo è il formato standard utilizzato da Windows per salvare i dati audio grezzi.
15
Compact Disc digital audio
I CD audio contengono: a) suono campionato a 44,1 kHz stereofonico a 16 bit b) il formato CD contiene 600 Mbyte utili I CD audio, sono in grado di memorizzare: circa 70 minuti di musica con una qualità che rimane inalterata nel tempo.
16
I limiti del file Wave Dati i problemi di memoria utilizzata dai file PCM (waw) è nata nel 1981 la tecnologia MIDI (Musical Instruments Digital Interface). MIDI, indica il protocollo standard per l'interazione degli strumenti musicali elettronici (anche tramite un computer). WAV Da Wikipedia, l'enciclopedia libera. WAV (o WAVE), contrazione di WAVEform audio format (formato audio per la forma d'onda) è un formato audio sviluppato da Microsoft e IBM per personal computer IBM compatibile. È una variante del formato RIFF di memorizzazione dei dati. I dati vengono salvati in "chunk" (blocchi), è simile anche al formato IFF o all'AIFF utilizzato dai computer Apple macintosh. La differenza principale di questo formato è che, essendo progettato per computer montanti processori Intel o compatibili, i dati vengono memorizzati con la notazione little endian, a differenza degli altri formati che, essendo sviluppati prevalentemente per computer con processori Motorola, utilizzano la notazione big endian. Essendo basato su RIFF il formato supporta varie modalità di immagazzinamento dei dati ma nella pratica il più diffuso è il metodo PCM. PCM è il formato standard utilizzato da Windows per salvare i dati audio grezzi. Il PCM provvede a salvare i dati audio senza nessun tipo di compressione, la forma d'onda viene memorizzata direttamente. Quindi i file risultanti sono di elevate dimensioni, ma non richiedono elevata potenza di calcolo per essere riprodotti, ed essendo la codifica lossless, viene spesso utilizzata dagli utenti professionali per memorizzare l'audio. Molti programmi supportano questo formato, dato che è molto diffuso ma non semplice da manipolare date le sue dimensioni molto elevate di byte. La struttura di un file wave è molto modulare e permette di incapsulare flussi audio codificati in diversi modi con opportuni codec. In questo modo è possibile utilizzare il codec che offre le prestazioni migliori in rapporto allo scopo che si vuole raggiungere (registrazione ad alta fedeltà, flusso dati per lo streaming via rete, ecc...) e alla sorgente da registrare (parlato, musica, ecc...). Allo stesso tempo, la registrazione può essere caratterizzata da altri parametri: il numero di bit di codifica (generalmente 8, 16 o 24) e la frequenza di campionamento (11, 22, 44 o 96 KHz). Con la diffusione del file sharing su internet il formato WAV ha perso di popolarità. Essendo un formato non compresso genera dei file molto grandi e quindi sulle reti telematiche si preferisce utilizzare formati compressi come MP3, Ogg Vorbis o AAC che pur essendo lossy (non lossless) garantiscono comunque una discreta qualità audio con un file audio grande un decimo del WAV corrispondente. Si sono diffusi anche dei formati lossless ma compressi che pur se non raggiungono la compattezza dei file come l'MP3 garantiscono un elevata qualità audio e un file grande dalla metà a un terzo del file WAV corrispondente. Questi formati sono il FLAC, TTA o Apple Lossless Encoding. I CD-ROM musicali presenti in commercio sono codificati in formato WAV. Inserendo un CD nel Personal Computer, le canzoni sono viste dal sistema operativo come file .wav. Il Wav è un formato proprietario a sorgente aperto che può essere riprodotto un pò da tutti i layer musicali. seriale. PCM La Pulse-Code Modulation (PCM; in italiano modulazione codificata di impulsi) è un metodo di rappresentazione digitale di un segnale analogico. Il metodo utilizza un campionamento dell'ampiezza del segnale a intervalli regolari; i valori letti vengono poi digitalizzati (in genere in forma binaria). La PCM è ampiamente utilizzata nei sistemi di telefonia, ma si basano su questo principio anche molti standard video, come l'ITU-R BT.601. Poiché la PCM pura richiede un bitrate molto elevato, gli standard video di consumo come DVD o DVR sono basati su sue varianti che fanno uso di tecniche di compressione. Molto frequentemente, la codifica PCM viene impiegata per facilitare le trasmissioni digitali in forma doppio click sull’icona dell’altoparlantino
17
Il file MIDI Questo standard memorizza nel file particolari istruzioni che indicano i timbri delle diverse parti (traccie) che compongono un brano musicale, le singole note dei vari strumenti con i valori di volume e durata più un segnale di sincronia per gli strumenti e gli effetti speciali. Con l'acronimo MIDI (Musical Instrument Digital Interface) si indica il protocollo standard per l'interazione degli strumenti musicali elettronici (anche tramite un computer). Il MIDI è, da una parte, un linguaggio informatico, ossia una serie di specifiche che danno vita al protocollo ; dall'altra, un'interfaccia hardware che consente il collegamento fisico tra vari strumenti. Entrambi questi aspetti sarebbero probabilmente sostituibili da sistemi più performanti, nonostante ciò, il MIDI, nato negli anni ‘80, è rimasto pressoché inalterato ed è intensamente utilizzato nella produzione di musica digitale. I motivi risiedono probabilmente nel ruolo di standard, pressoché incontrastato, che il MIDI ha assunto nell'ambito musicale, e nella cura riposta dai progettisti nella stesura delle prime specifiche. Di fatto, il MIDI ha peculiarità interessanti su più fronti: La qualità e la praticità del sistema. L'integrazione tra eventi Audio ed eventi MIDI ha dimostrato di essere una mossa vincente, confermando l'importanza di questo standard nella realizzazione di musica digitale. La leggerezza dei file MID (in termini di Kb). Tramite Internet ed i software multimediali, il MIDI diventa un media di uso comune non più appannaggio esclusivo dei musicisti. La diffusione di basi di livello qualitativo sempre maggiore. Fatto che ha permesso a molti musicisti di svolgere con facilità e qualità il proprio lavoro. Il costo. Molti produttori hardware e software puntano sulla multimedialità dei propri prodotti. Con un investimento minimo, o ricorrendo a programmi freeware, è possibile per ognuno disporre di un computer in grado di realizzare produzioni musicali di buon livello.
18
...e la loro creazione I file MIDI sono costruiti da particolari strumenti chiamati SEQUENCER MIDI I sequencer MIDI sono strumenti implementabili via software. I file MIDI possono memorizzare intere canzoni in pochi Kbyte Il karaoke è un’estensione del MIDI. L'interfaccia software: il linguaggio midi Una delle caratteristiche fondamentali del MIDI è l'essere un'interfaccia multicanale. Grazie a delle applicazioni software chiamate sequencer, installabili sia in unità hardware specifiche, sia in normali personal computer, si possono registrare performance musicali sotto forma di messaggi MIDI, per poterle successivamente modificare e ri-ascoltare. Il compito di sincronizzare le varie sequenze MIDI è delegato al “codice temporale MIDI", standard mondiale per la sincronizzazione della musica digitale, che costituisce un'implementazione del codice temporale SMPTE. Un file MIDI è un file che contiene dati comunicabili tramite il protocollo MIDI. Il MIDI supporta fino 16 canali (1-16). Per spiegare cosa si intende per "canale midi" ("midi channel") utilizziamo una metafora. Pensiamo di dover inviare un messaggio ad un collega che pernotta in una delle 16 stanze a disposizione di un hotel. Oltre all'indirizzo dell'hotel, dovremo specificare il numero di stanza del nostro collega se vogliamo che il nostro messaggio sia recapitato correttamente. Pensiamo ora di avere, collegato in MIDI alla nostra tastiera, un modulo sonoro con la possibilità di suonare fino a 16 suoni diversi contemporaneamente (ossia multitmbrico a 16 parti), come facciamo a far eseguire la nostra musica ad uno solo di questi suoni? Facendo sì che nei nostri messaggi (midi) sia specificato il numero di canale (la stanza dell'hotel) e che quest'ultimo coincida con il canale midi impostato per lo strumento (o la parte di esso), destinato a rispondere al messaggio. Le modalità per ottenere tutto ciò variano a seconda della tipologia degli strumenti utilizzati. Tramite il formato .kar (abbreviazione di karaoke), estensione del MIDI, è anche possibile sincronizzare il testo di una canzone con la musica.
19
Riproduzione MIDI In lettura le istruzioni MIDI vengono interpretate dal processore DSP della scheda che riconosce strumenti e note e ne ordina la riproduzione, questa può avvenire con due diverse tecnologie: Sintetizzatore a modulazione di frequenza Sintesi WaveTable
20
Sintesi WaveTable La tecnologia ora più usata: i suoni vengono generati usando (o modificando) campioni sonori precedentemente digitalizzati dei vari strumenti, conservati in una apposita memoria della scheda sonora. I risultati che si ottengono sono di un maggior realismo del suono. Wavetable synthesis From Wikipedia, the free encyclopedia Please improve this article if you can. (March 2008) Wavetable synthesis is a technique used in certain digital music synthesizers to produce natural tone-like sounds. The sound of an existing instrument (a single note) is sampled and parsed into a sequence of circular tables of samples or wavetables, each having one period or cycle per table. A set of wavetables with user specified harmonic content can also be generated mathematically. Upon playback, these wavetables are used to fetch samples (table-lookup) in the same manner as in a numerically-controlled oscillator to produce a waveform. However, in wavetable synthesis, the output waveform is not normally static and evolves slowly in time as one wavetable is mixed with another, creating a changing waveform. Looping occurs when the wavetable evolution is halted, slowed, or reversed in time. Wavetable synthesizers imitate dynamic filters and other computationally expensive synthesis steps by rapidly playing successive wavetables (each with a different waveform stored therein) in sequence. If each waveform is a little duller (or brighter) than the previous, a moving filter effect can be imitated. As noted below, this creates an effect that is equivalent to additive synthesis, but with the restriction that all partials in the additive engine are harmonic (i.e. integer multiples of the fundamental frequency). Wavetable synthesis can also related to frequency modulation synthesis; using wavetables, however, significantly reduces the amount of hardware needed, since the sum of partials at each step of each partial's envelope (the part requiring the most compute power) has already been calculated, and all the CPU needs to do is interpolate between them. By contrast, a basic analog additive or FM synthesizer would need several discrete oscillators, envelope generators and volume controls per voice, and a digital version would require a very fast CPU (that wasn't available when the technology was first being developed), or special (and much more complex) hardware to do the math. For example, the Yamaha DX7 has 6 operators per voice, and 16 voice polyphony, so a total of 96 separate oscillator, EG, and VCA modules would be needed to build an equivalent modular synthesizer. This setup would take several equipment racks to hold. It would also only be useful as an additive synthesizer, since FM requires highly stable oscillators to work properly. (The DX7 actually uses phase modulation -- a sine-wave DCO behind a programmable digital delay line -- combined with two intermediate registers and a fast time division multiplexing system to compute each operator, thus reducing the number of DCOs needed per voice to 1.) This method differs from simple sample playback in that the output waveform is always generated in real time as the CPU processes the sequence of wavetables, and the data in each table normally represent one period or cycle of the waveform. The name "wavetable" as applied to soundcards and sample-playback synthesizers is a misnomer; see below for an in-depth discussion. Some later variations on the technique are Roland's "Linear Arithmetic" synthesizers such as Roland D-50 and Roland MT-32/LAPC-I, which combined complex sampled attack phases with less complex sustain/decay phases (basically a wavetable synthesizer with a 2-entry wave sequence table), and vector synthesis, used in the Sequential Circuits Prophet-VS and Korg Wavestation, which can move through wavetables and sequences arranged on a 2-dimensional grid.
21
L’evoluzione degli standard MIDI
Lo standard MIDI è però uno standard legato allo strumento, il suo sviluppo ha quindi portato a slegare il file dallo strumento stesso creando così i file MIDI indipendenti dalla piattaforma. il General MIDI (GM) e il più recente General Standard (GS)
22
MIDI e tecnica La velocità di trasmissione prevista dallo standard MIDI è di 31,25 Kbit/s al secondo. Si è quindi reso necessario progettare una inferfaccia appositamente a questo scopo l’interfaccia “storica” e più usata è la Roland MPU- 401(anche codec software), per il grande buffer di cui dispone. Roland Corporation Da Wikipedia, l'enciclopedia libera. La Roland Corporation (ローランド株式会社, Rōrando Kabushiki Kaisha) è un'azienda elettronica giapponese produttrice di software, componenti e strumenti musicali elettronici fondata da Ikutaro Kakehashi ad Osaka il 18 aprile 1972 con un investimento di 33 milioni di Yen. Nel 2005 la sede si è spostata ad Hamamatsu. Al giorno d'oggi possiede fabbriche in Giappone, USA, Italia e Taiwan. La Roland mette in commercio i propri prodotti sotto diverse sotto-marche, ognuna delle quali è orientata verso un'utenza diversa. BOSS è una marca usata per prodotti volti agli amatori e professionisti della chitarra, usata per pedali da chitarra, unità per effetti sonori, macchine per accompagnamenti e ritmo, e per equipaggiamento di registrazione portatile. I prodotti Edirol sono orientati verso la produzione musicale, e includono programmi per la creazione audio, mixers, altoparlanti e sistemi video. Rodgers Instruments, fondata nel 1958 come una compagnia per organi sopravvive finora come sussidiaria della Roland, ancora producendo organi elettrici, elettronici e a canne. Gli slogan della Roland includono Inspire the enjoyment of creativity, Be the best rather than the biggest, and We design the future.... Codec Un codec è un programma o un dispositivo che si occupa di codificare e/o decodificare digitalmente un segnale (tipicamente audio o video) perché possa essere salvato su un supporto di memorizzazione o richiamato per la sua lettura. Tale programma può essere installabile/aggiornabile (su PC o apparecchiature multmediali predisposte) oppure essere integrato in un componente hardware dedicato (ad es. nei lettori CD o DVD casalinghi o in alcune schede video/audio per PC). Oltre alla digitalizzazione del segnale, i codec effettuano anche una compressione (e/o decompressione in lettura) dei dati ad esso relativi, in modo da poter ridurre lo spazio di memorizzazione occupato a vantaggio della portabilità o della trasmissività del flusso codificato. I codec si dividono in base alla modalità in cui effettuano la compressione: - CON PERDITA DI INFORMAZIONI (lossy) - SENZA PERDITA DI INFORMAIZONI (lossless) Per realizzare tale compressione si fa ricorso alla riduzione della precisione dei colori dei singoli pixel (codec video) o delle frequenze da riprodurre (in alcuni codec audio vengono soppresse le frequenze non udibili dall'orecchio umano), alla eliminazione delle ridondanze o alla scrittura delle sole differenze (codec video) rispetto ad una immagine di riferimento. Esistono vari tipi di codec, differenti tra loro per il tipo di segnale su cui devono operare e per l'algoritmo di codifica/compressione in essi implementato. Nel sistema operativo Microsoft Windows, i codec sono delle librerie con estensione .dll, che i vari player audio e video gestiscono come dei plug-in. Nel sistema operativo Mac OS X i codec sono gestiti dal sistema QuickTime che li utilizza come plug-in con estensione .component memorizzati nella cartella QuickTime che si trova nella cartella Libreria. Il codec permette di ascoltare formati “proprietari” e aperti da qualunque lettore di file, mantenendo separati il livello fisico del formato da quello logico della sua rappresentazione.
23
Cavo MIDI ... I connettori IN/OUT MIDI sono inadatti per le ristrette misure delle schede audio La presa game port delle schede audio è stata così convertita nei PC a questa doppia funzione
24
… e connettori MIDI
25
I diffusori Tecnicamente “casse acustiche” hanno indicazioni di potenza, cioè: la potenza dell’amplificazione è in Watt la potenza del segnale sonoro è in Watt musicali Le due potenze devono essere correlate. Inoltre le casse acustiche devono essere schermate. Da Wikipedia, l'enciclopedia libera. Diffusore Un diffusore acustico, o anche semplicemente diffusore se è chiaro il contesto acustico, è un trasduttore o un insieme di trasduttori che trasformano in suono il segnale elettrico proveniente da un amplificatore acustico. Nel corso degli anni sono stati sviluppati metodi e tecnologie costruttive diverse. Il metodo più semplice tuttora usato è costituito da una cassa a forma di parallelepipedo con una delle facciate (detta buffer) utilizzata per alloggiare gli altoparlanti. In linea di massima è preferibile disporre di un cabinet di buona qualità con dei mediocri altoparlanti, piuttosto che il contrario; la ragione sta nel fatto che un cabinet scadente rischia di entrare in risonanza in corrispondenza di determinate frequenze emesse dagli altoparlanti; questa condizione, per l'orecchio risulta tra le più fastidiose. Altoparlante L'altoparlante è un trasduttore che converte un segnale elettrico in onde sonore. Si può quindi definire un. Talvolta, in modo improprio, è chiamato "autoparlante". trasduttore elettroacustico Nella maggior parte dei casi il segnale elettrico, opportunamente amplificato, è applicato ad una bobina immersa in un campo magnetico, converte segnali elettrici in forza elettromagnetica in grado di far muovere un corpo in modo da fargli generare onde sonore. Questo è l'altoparlante magnetodinamico. Ne esistono anche altri vari tipi che impiegano differenti tecnologie. I più diffusi sono: Elettrodinamici : il campo magnetico è generato da un solenoide. Magnetodinamici : il campo magnetico è generato da un magnete permanente. Elettrostatici : usano un campo elettrico invece di un campo magnetico (concettualmente si può pensare ad un condensatore in cui un'armatura non è fissa ma con una possibilità di movimento: quando sulle armature è presente una carica con la stessa polarità queste si respingono e quindi si allontanano, nel caso contrario si attirano e si avvicinano). Piezoelettrici: sfruttano la piezoelettricità per convertire il segnale elettrico in onde acustiche. Potenza in WATT Uno dei fattori primari di un amplificatore è la potenza, ed è espressa in watt, come metodo di misura, viene usato da decenni il valore efficace rms (root mean square). I transistor finali aumentano notevolmente il livello del segnale sonoro che è costituito da una corrente di un dato valore. Tale corrente quando viene fatta circolare all'interno di un altoparlante fa vibrare la membrana dello stesso, traducendo in suono le variazioni di corrente. Maggiore è il valore di tale corrente maggiore sarà l'emissione sonora. Per ascoltare della musica in una stanza di medie dimensioni, a seconda della qualità del suono che si desidera ottenere, la potenza da disporre può andare da watt, fino a e anche più; un'amplificazione di uno spazio aperto come una piazza o uno stadio dove si tiene un concerto, ad esempio, sarà necessario disporre di migliaia o decine di migliaia di watt. La misura della potenza massima viene eseguita su un carico costituito da un puro resistore. Si applica in ingresso un segnale sinusoidale e si aumenta il suo livello fino a quando non si raggiunge (in uscita) il massimo segnale possibile, senza distorsione oppure con livello di distorsione prefissato. Generalmente viene considerata la distorsione armonica totale (THD). Root mean square In mathematics, the root mean square (abbreviated RMS or rms), also known as the quadratic mean, is a statistical measure of the magnitude of a varying quantity. It is especially useful when variates are positive and negative, e.g., sinusoids. It can be calculated for a series of discrete values or for a continuously varying function. The name comes from the fact that it is the square root of the mean of the squares of the values. It is a special case of the power mean with the exponent p = 2.
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.