Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
PubblicatoOreste Giglio Modificato 7 anni fa
1
Tutorial – Video Maker I.N.F.N. Alternanza scuola lavoro
Roberto Giacomelli
2
Video camere
3
Video camera digitale
4
Obiettivi – Lunghezze focali
La lunghezza focale (o distanza focale, o semplicemente focale) di una lente è la distanza in mm tra il centro della lente (punto nodale) e il suo fuoco, ed è caratteristica della lente. Una lente più curva ha una lunghezza focale inferiore rispetto ad una lente più piatta.
5
Obiettivi – Lunghezze focali 2
La distanza focale si può definire anche per lenti sferiche concave. In questo caso la lente diverge i raggi e il fuoco è il punto in cui i raggi divergenti, opportunamente estesi, convergono. In tal caso la lunghezza focale si esprime con un numero negativo. La diottria, qui sopra indicata con P, è l’inverso della distanza focale espressa in metri.
6
Obiettivi – Lunghezze focali 3
La formula generale che lega la distanza S1 di un punto dal centro della lente alla distanza S2 in cui viene messo a fuoco coinvolge la lunghezza focale f ed è la seguente: Questa formula (detta dei punti coniugati) vale in generale, anche nel caso particolare in cui il punto sta a distanza S1 infinita. Infatti in questo caso 1/ S1 = 0 e la formula dice che S2 = f. Con lunghezza focale f fissata, la formula dice che più il punto si avvicina all’obiettivo, più il fuoco si allontana da esso. Infatti quando S1 diminuisce, il suo inverso aumenta, dunque l’inverso di S2 diminuisce e quindi S2 deve aumentare. Per esempio consideriamo una lente con lunghezza focale f = 50 mm. Ciò significa che un punto a distanza infinita viene messo a fuoco a 50 mm: Un punto a distanza S1 = 1 metro viene messo a fuoco a distanza S2 = 1 /[(1/f)-(1/S1)] = 1 / [1/50 – 1/1000] = 1000 / 19 = mm, che è maggiore di 50 mm.
7
Obiettivi – Lunghezze focali 4
8
Obiettivi – Lunghezze focali 5
focale 24 mm focale 50 mm focale 100 mm Un obiettivo con lunghezza focale corta rimpicciolisce gli oggetti rispetto ad un obiettivo con lunghezza focale lunga che li ingrandisce. La focale corta cattura una parte più ampia della scena, con particolari rimpiccioliti e la focale lunga cattura una parte meno ampia della scena, con particolari ingranditi. Gli obiettivi con lunghezza focale corta (tipicamente inferiore a 35 mm) sono detti grandangolari, quelli con lunghezza focale lunga (tipicamente superiore a 70 mm) sono detti teleobiettivi, gli obiettivi intermedi sono detti normali. Sotto i 15 mm vengono chiamati fisheye.
9
Obiettivo Zoom
10
Luminosità dell’obiettivo
Un parametro importante da considerare per la scelta di un obiettivo è la sua luminosità, rappresentata dalla massima apertura del diaframma. Più è basso il valore più è luminoso l'obiettivo. La luminosità dell'obiettivo è fondamentale per determinare la qualità dell'immagine o può fare la differenza riguardo la possibilità o meno di scattare una fotografia in alcune condizioni ambientali che sono sfavorevoli. Ciò purtroppo fa la differenza anche per il costo dell'ottica. Accanto alla lunghezza focale troverai lettere e numeri che rappresentano l’apertura. Per esempio F\3.5: in questo caso potrai facilmente intuire che non si tratta di un obiettivo particolarmente luminoso (le ottiche migliori in fatto d luminosità hanno un valore f\1.4. Una cosa fondamentale che devi sapere è che una maggiore luminosità, quindi una maggiore apertura, implica una ridotta profondità di campo. Quindi per una maggiore profondità di campo dovrai sacrificare la luminosità dello scatto. La profondità di campo è il termine tecnico che si usa per descrivere la capacità di messa a fuoco su soggetti a diverse distanze. Per fotografie con un effetto di stacco del soggetto dallo sfondo dovrai quindi scegliere un diaframma aperto, mentre per fotografie perfettamente a fuoco ti sarà utile un diaframma più chiuso.
11
Stabilizzatore immagine
L’effetto mosso è direttamente proporzionale alla lunghezza focale ed al tempo di scatto. Con un obiettivo a lunghezza focale di 100mm il tempo di scatto minimo sarà più o meno 1/100s, con un obiettivo a lunghezza focale di 200mm il tempo minimo per evitare il mosso sarà all’incirca 1/200s e così via. Con uno stabilizzatore di immagine è possibile guadagnare 2-3 stop (qualcosa di più negli ultimissimi modelli). Questo si traduce in un tempo di scatto più lungo: con focale 100mm scendere a 1/40s! Un guadagno enorme soprattutto quando scattiamo una foto in condizioni di scarsa luminosità. Stabilizzazione sul sensore. Grazie all’impiego di un giroscopio il sensore si muove in modo da compensare i movimenti del corpo macchina senza alterare la qualità delle immagini. Stabilizzatore montato nell’obiettivo. Grazie all’impiego di un giroscopio le lenti flottanti si muovono in modo da compensare i movimenti del corpo macchina senza alterare la qualità delle immagini. Stabilizzatore digitale. Le immagini prima di essere memorizzate vengono ritagliate, ruotate e ridimensionate in modo tale che due immagini consecutive siano quanto più simili possibili compensando così il tremolio della mano. Queste operazioni possono comportare una perdita di qualità e nel caso di movimenti veloci causano nel video il cosiddetto “effetto elastico” cioè sembra che le immagini restino ancorate a un certo fotogramma per poi sbloccarsi “elasticamente”.
12
Stabilizzatore immagine ottico
13
Stabilizzatore immagine digitale
14
Gimbal Il Gimbal è un supporto cardanico (o un sistema di giunti) in 2 o 3 assi. Utilizza motori brushless (potenti, silenziosi e di lunga durata) per regolare la posizione della telecamera. Un apposito giroscopio regola automaticamente l’inclinazione verticale ed orizzontale del supporto per ottenere immagini quanto più stabilizzate. Se incliniamo la camera verso destra il Gimbal orienta la fotocamera nel lato opposto per compensare lo spostamento
15
Sensori Fotografia: dal greco “scrivere con la luce”. Nulla di più vero: la luce, entrando attraverso l’obiettivo della macchina fotografica, colpisce un sensore (una volta una pellicola fotosensibile) “impressionandolo”. Nel dettaglio i fototodiodi convertono la luce (il segnale luminoso) in un segnale elettrico. La differenza di potenziale e’ direttamente legata alla quantità di fotoni e quindi all’intensità della luce incidente. Un sensore è un “rettangolo” di silicio sui cui sono impiantati tutta una serie di elementi fotosensibili (i fotodiodi di cui sopra), noti come pixel, dalla dimensione piccolissima (siamo nell’ordine dei micron). Ogni fotodiodo genera un segnale elettrico proporzionale alla luce che lo colpisce: leggendo tutti questi segnali elettrici è possibile ricostruire l’immagine finale. In scala di grigi in quanto un sensore non e’ in grado di leggere il colore.
16
Sensori CCD - CMOS Complementary Metal–Oxide–Semiconductor
Charge-Coupled Device
17
CCD vs CMOS
18
CMOS effetto “rolling shutter”
I CCD usano un global shutter, cioè tutti i segnali di ogni pixel vengono catturati allo stesso momento. Nei CMOS invece i segnali vengono acquisiti una riga alla volta (rolling shutter). Questo può causare dei problemi nelle riprese dove ci sono oggetti che si muovono molto velocemente, per esempio un’elica.
19
CCD vs CMOS consumo energetico
20
CCD vs CMOS Caratteristiche CCD CMOS Output del fotodiodo
carica elettrica voltaggio Output del chip voltaggio (analogico) bit (digitale) Output della fotocamera Presenza di rumore Bassa Moderata Complessità del sensore Alta Gamma dinamica Ampia Uniformità Da bassa a moderata Velocità raffica Da moderata ad alta Precisione cromatica Media
21
Colore con 1 sensore Per “leggere” il colore alla matrice di fotodiodi viene sovrapposta una matrice di filtri colorati: Rosso (R), verde (G) e blu (B). La matrice di filtri segue uno schema ben preciso, inventato da Bryce Bayer e chiamata Bayer Pattern. I tre filtri eliminano le componenti di colori differenti da quello del filtro, il che permette al fotodiodo di ricevere una quantità di luce direttamente proporzionale al colore del filtro stesso. Il numero di pixel G è doppio rispetto ai pixel R o B, nella proporzione 50% verde, 25% rosso, 25% blu: questo è voluto sia per ridurre il disturbo digitale, sia perché l’occhio umano ha una sensibilità maggiore al verde rispetto al rosso e al blu.
22
Colore con 1 sensore 2 Quando la raccolta della luce è terminata (il tempo che definiamo tramite l’otturatore), il valore memorizzato nel fotodiodo viene analizzato dal processore che effettua la “demosaicizzazione” (demosaicing): il processore analizza i pixel in gruppi di 2×2 (2 verdi + 1 rosso + 1 blu) e interpola i valori letti al fine di ottenere il valore equivalente al colore che l’occhio umano percepisce.
23
Colore con 3 sensori
24
ISO Ogni pixel restituisce un segnale elettico. Questo segnale elettrico non è solo composto dalla luce: parte del segnale è costituito da rumore, ovvero da elettroni che si sono eccitati per altri motivi, quali temperatura, pixel vicini, eccetera. A volte, essendo questo segnale troppo basso, è necessario amplificarlo al fine di ottenere una foto sufficientemente chiara. Questa amplificazione è effettuata dalla macchina fotografica e pilotata dal fotografo che potrà decidere se amplificare per 100, 200, 400 e cosi’ via: il fattore moltiplicativo si chiama, banalmente ISO. Aumentando l’ISO della macchina, pero’, non si incrementa solo il segnale elettrico relativo all’immagine ma anche il rumore: più è ampio il fattore moltiplicativo (quindi più è alto l’ISO) maggiore sarà il rumore.
25
Dimensione del sensore
Senza modificare la dimensione dei pixel, dimensione maggiore del sensore significa un maggior numero di pixel (fotodiodi) ospitati sul sensore stesso. Al contrario, se manteniamo costante il numero dei pixel, al crescere del sensore cresce la dimensione dei pixel. Ovviamente ognuno dei due approcci ha vantaggi e svantaggi nonchè differenze di prezzi non indifferenti. Le aziende costantemente fanno “fine tuning” sui sensori, mediando tra le due soluzioni. Un pixel di dimensioni più grande, a parità di tempo di esposizione e luminosità, cattura più luce di un pixel piu’ piccolo. E quindi genera un segnale elettrico piu’ forte, che necessita di una minore amplificazione. Insomma, pixel piu’ grandi significa foto piu’ luminosa e minore necessità di incrementare l’ISO. Di contro, meno pixel significa meno risoluzione e quindi foto più piccola. Ecco perchè è necessario mediare.
26
Formati video SD
29
Frequenza video E' la frequenza di cattura o riproduzione dei fotogrammi che compongono un filmato. Un video, o un'animazione al computer, è infatti una sequenza di immagini riprodotte ad una velocità sufficientemente alta da fornire, all'occhio umano, l'illusione del movimento. Quindi più alto sarà il numero di fotogrammi al secondo più il video risulterà fluido! Attenzione però perché questo comporterà anche una maggiore pesantezza del filmato. FPS: Fotogrammi per secondo (framerate) Per vedere un video fluido sono necessari 23,976 fps (questo è il minimo). Consiglio comunque di utilizzare minimo 25 fps (PAL).
30
PAL e NTSC L'utilizzo di diversi sistemi di alimentazione elettrica è l'inizio delle differenze tra NTSC e PAL. In America e in altri Paesi che adottano il segnale NTSC, l'energia elettrica è generata a 60 hertz. Che significa che il segnale NTSC è trasmesso a 60 'campi' al secondo (30 immagini vengono inviate al secondo). In Europa e in altri Paesi si utilizza il segnale PAL, la fornitura di energia elettrica è 50Hz, il che significa che il segnale PAL è inviato a 50 impulsi al secondo (25 immagini al secondo). Un'altra differenza tra NTSC e PAL è la loro qualità di risoluzione. La televisione PAL contiene 625 linee, mentre l'NTSC ne ha 525. In generale, più linee significa più informazioni visive, vale a dire, migliore qualità dell'immagine e risoluzione. Così nella conversione video da NTSC a PAL, solitamente alcune barre nere vengono aggiunte per compensare l'aspetto dello schermo più piccolo. Di solito, i file PAL hanno una risoluzione di 720×576 pixel mentre quelli NTSC di 720×480.
31
Interlacciato e Progressivo
Prima abbiamo visto le sigle 720i, 720p, 1080i, 1080p, p e a i cosa significano? p= Progressivo i= Interlacciato Progressivo e Interlacciato determinano la composizione dell’immagine frame dopo frame, il primo sistema creato è stato quello Interlacciato (presente nelle tv a tubo catodico), il secondo è nato con le monitor e poi tv di ultima generazione tipo LCD. Interlacciato vuol dire che la tv ridisegna le righe pari nel primo frame e le dispari nel secondo. Progressivo invece significa che la tv ridisegna tutti i pixel per ogni singolo frame. Come si vede in questo esempio, il video interlacciato soffre del flickering (tremolio) che migliora con un filtro di anti-aliasing Un punto a sfavore della scansione progressiva è che richiede una larghezza di banda maggiore rispetto a una sorgente interlacciata con la stessa risoluzione e frequenza.
32
Formati video – Codec I Codec più popolari sono:
- MPEG-2 E’ quello usato nei DVD e nelle trasmissioni TV non HD - XviD / DivX Mentre il DivX è un codec commerciale, il codec XviD è open source, creato come alternativa gratuita (oggi anche il codec Divx , anche se commerciale, è gratuito). Entrambi i codec possono decodificare l'uscita dell'altro poiché entrambi sono basati sul formato MPEG-4. - MPEG-4 è il più comune formato di streaming ed è formato da varie parti, MPEG-4 Part II utilizzato per la codifica video DivX o XviD e MP3 per l'audio. - H.264 è il formato oggi più popolare per i video ad alta definizione. L'H.264 è fino a 2 volte più efficiente della compressione MPEG-4, quindi un file di uguale qualità occupa la metà dello spazio. L'H.264 è ora incluso nel codec MPEG-4 part 10 (o AVC) e comprende molteplici metodi di codifica in un singolo pacchetto. E’ da poco apparso il codec h.265 evoluzione del h.264 che a parità di qualità video dimezza ulteriormente la grandezza del fie.
33
Container Un formato contenitore è un formato di file che può contenere diversi tipi di dati, audio, video, sottotitoli, dove le informazioni della sequenza audio/video sono compressi tramite codec. Alcuni contenitori sono esclusivamente di matrice audio, ad esempio: AIFF (largamente usato nei sistemi operativi Mac OS). WAV (Resource Interchange File Format, usato prevalentemente nei sistemi Windows). XMF (Extensible Music Format). Altri contenitori riguardano unicamente immagini digitali: FITS (Flexible Image Transport System), formato contenitore per file raw e i metadata associati. TIFF (Tagged Image File Format), formato contenitore per immagini e metadata associati.
34
Container video AVI (contenitore standard Microsoft).
3gp (usato maggiormente da dispositivi portatili e telefoni cellulari, si basa sul formato media ISO). ASF (contenitore Microsoft riguardante WMA e WMV). DVR-MS ("Microsoft Digital Video Recording", contenitore video proprietario, sviluppato da Microsoft e basato su ASF). Flash Video (FLV, F4V) (container for video and audio from Adobe Systems) IFF (primo formato contenitore multipiattaforma). M2TS (contenitore audio/video standard Blu-ray disc). MJ2 - Motion JPEG 2000 file format, based on the ISO base media file format which is defined in MPEG-4 Part 12 and JPEG 2000 Part 12 MKV ("Matroska", formato contenitore open source, può contenere qualunque tipo di codec). MPEG program stream (standard container for MPEG-1 and MPEG-2 elementary streams on reasonably reliable media such as disks; used also on DVD-Video discs) MPEG-2 transport stream (a.k.a. MPEG-TS) (standard container for digital broadcasting and for transportation over unreliable media; used also on Blu-ray Disc video; typically contains multiple video and audio streams, and an electronic program guide) MP4 (standard audio and video container for the MPEG-4 multimedia portfolio, based on the ISO base media file format defined in MPEG-4 Part 12 and JPEG 2000 Part 12) which in turn was based on the QuickTime file format. Ogg (standard container for Xiph.org audio formats Vorbis and Opus and video format Theora) RM (RealMedia; standard container for RealVideo and RealAudio) QuickTime File Format (standard QuickTime video container from Apple Inc.). Ogg (contenitore audio standard della fondazione Xiph.org). RealMedia (contenitore standard per RealVideo e RealAudio). TS MPEG transport stream (è un formato standard per la trasmissione e la memorizzazione di audio e video; estensioni formato: .ts, .tsa, .tsv). WebM (è un progetto sponsorizzato da Google dedicato a creare un formato video libero e royalty-free che abbia un'alta qualità nella compressione video per l'uso con HTML5).
35
Codec lossless CorePNG [2]
H.264 High Profile supporta la codifica senza perdita Huffyuv MSU Lossless Video Codec Lagarith LCL Tscc TechSmith Camtasia losslesscoder CamStudio Lossless Codec CamStudio - Free Screen Recording Software Castelli
36
Codec lossy Audio Video Standard (AVS)
Cinepak Dirac(BBC) codec open source sviluppato dall'emittente di Stato Inglese H.261 H.263 H.265 Indeo 3/4/5 KVCD MJPEG MPEG-1 Video MPEG-2 Video MPEG-4 Advanced Simple Profile Video DivX XviD 3ivx MPEG-4 Advanced Video Coding vedi H.264 x264 Nero Digital Sorenson AVC Pro codec, nuova implementazione Sorenson Ogg Tarkin On2 VP3, VP6 Pixlet RealVideo VC-1 Ogg Theora WMV ASF (Parte di Windows Media) WAX (Parte di Windows Media) JPDM JPDMovie Apple PRORES
37
Principali regolazioni video camera
Focus : Automatico – Manuale WB : Bilanciamento del bianco Automatico - con presets sulla qualità della luce - con misurazione manuale Iris : (Diaframma) Automatico - Manuale Effetto zebra: per vedere sul display le zone sovraesposte Backlight : per riprese controluce Spot : per riprese di spettacoli con fari di illuminazione e fondo scuro
38
Il Ciak Il ciak è uno strumento usato sul set cinematografico e serve a dare le indicazioni indispensabili per montare correttamente la pellicola dopo la ripresa delle singole scene di un film. Fu introdotto con l’avvento del cinema sonoro negli anni Trenta. E’ composto da una tavoletta di legno rettangolare che ha alla base una parte mobile. Facendo battere questa parte contro quella superiore si produce un suono inconfondibile che viene registrato e che serve poi come momento di riferimento per sincronizzare le immagini della pellicola e i rumori della colonna sonora.
39
Microfono Ogni videocamera ha un microfono integrato, sconsiglio però di utilizzare questo microfono. Il microfono integrato ha uno spettro di ripresa troppo ampio, ascolterà non solo la nostra voce, ma anche tutto il resto. Quindi dobbiamo fare molta attenzione (anche se con l'audio questo vale sempre) a non avere altri rumori in sottofondo e di parlare a voce media, vicino al microfono, ma non troppo. Certo in alcuni casi può essere usato, ma il risultato non sarà ottimo. Tutta altra storia se montiamo sulla telecamera un microfono professionale. Non tutte le camere possono montare un microfono esterno.
40
Codec audio noti Senza compressione AIFF WAV Compressione lossless
Apple Lossless Encoding FLAC IFF Compressione lossy AAC ATRAC Dolby Digital Digital Theater System G.729 MP3 Mp3PRO Musepack RealAudio SILK (Skype) Speex Vorbis Windows Media Audio
41
Programmi per editing video
Multipiattaforma Adobe Premiere Pro Lightworks (c’è una versione free) Hitfilm (c’è anche la versione express gratuita) Windows Vegas Pro Windows Live Movie Maker (Free) MacOS iMovie (free e fornito col sistema operativo) Final Cut Pro
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.