martedì 10 marzo 2009

Sensori 3: botti piccole e vino buono

Ci risiamo! Se non si parla di mangiare, si parla di bere. Vox populi, dicevano i Latini, giusto? Nella botte piccola c’e’ il vino buono, dice il proverbio. Vediamo insieme se e quanto questo assunto si applica ai sensori delle nostre amate fotocamere digitali.
Da quanto visto nella puntata precedente [Sensori 2: Pasticcini e pixel....] sembrerebbe che, se non si avessero problemi di peso e di ingombri, sarebbe meglio avere sensori grandi con grandi fotorecettori.
Nella pratica però, e’ necessario fare un grosso distinguo: alla domanda meglio sensori grandi o sensori piccoli? La risposta esige prudenza: dipende dall’uso che se ne fa.
Nonostante il drammatico proliferare di sensori di varie dimensioni, ultimamente si sta assistendo ad uno sforzo verso un minimo di standardizzazione. Per gli scopi di questa trattazione, pur senza perdere in generalità, analizzeremo il comportamento di tre formati: il cosiddetto “full frame”, quello che ha le stesse dimensioni fisiche della pellicola 35mm, ovvero un rettangolo di 24x36mm, il sensore cosiddetto DX (16x24mm) usato dalla maggior parte delle reflex digitali, ed uno più recente e più piccolo definito 4/3 di 13.5x18mm.
Nella figura vediamo un paragone tra i vari formati, riferiti ad un comune portamina da 12 cm per dare un’idea della scala.
Abbiamo già visto come una macchina con un sensore full format abbia una superiore gamma dinamica (e quindi una migliore tolleranza al rumore nelle ombre) di una con sensore DX, ed a maggior ragione di una con sensore 4/3.
Vediamo ora quali sono gli svantaggi (perché ce ne sono, cosa pensavate?!?).
Fattore di ingrandimento dei sensori piccoli.
Diciamo che vogliamo fotografare la nostra nuova amica mentre gioca a golf. I raggi luminosi che arrivano all’obiettivo vengono rifratti secondo le leggi dell’ottica (materiali e forma delle lenti) e convogliati sul piano focale (dove si trovano il sensore o la pellicola). Vediamo, con l’ausilio della figura a fianco, che a parità di obiettivo l’immagine della golfista nel caso del sensore DX (in rosso) riempie completamente il fotogramma, mentre nel caso del 24x36 ne occupa una porzione inferiore. Per sfruttare appieno il vantaggio del sensore più grande abbiamo quindi bisogno di un obiettivo che ingrandisce l’immagine fino a farle coprire l’intero sensore. Ho chiesto a mio figlio, che studia la geometria, di quanto dovrei ingrandire l’immagine. Visto che stiamo parlando di diagonali, la diagonale di un rettangolo di 24x36mm e’ circa 1.44 volte quella del rettangolo di 18x24mm del sensore DX. Supponiamo ora di voler riprendere la nostra amica sportiva con un obiettivo di 100mm di focale montato su una macchina equipaggiata con un sensore DX. Per ottenere la stessa immagine con una macchina digitale a pieno formato avremo bisogno di un obiettivo di 150mm. Dal momento che il 24x36 e’ il formato di pellicola che ha letteralmente fatto la storia della fotografia, la lunghezza focale degli obiettivi viene spesso riferita a quest’ultimo formato. Per le macchine con sensori più piccoli si parla di conseguenza di efl (equivalent focal lenght). Nell’esempio di prima, un obiettivo da 100mm montato su una fotocamera in standard DX avrà di conseguenza una focale efl di 150mm.
Una trattazione delle ottiche degli obiettivi esula dagli scopi di questa chiacchierata (non so mica tutto, no?), ma non c’e’ il minimo dubbio che un aumento di focale di 1.5 volte non venga gratis. L’obiettivo sarà più ingombrante, meno luminoso e…. più caro.
Profondità di campo e cerchio di confusione.
Quando andiamo dall’oculista ci fanno leggere un tabellone luminoso con lettere sempre più piccole. A parte chi vi scrive che, all’età’ di 18 anni, ha imparato a memoria le ultime tre righe per prendere la patente senza occhiali, quanti non hanno difetti di vista leggono 10/10. Per i nostri scopi questo significa discernere 4 linee per millimetro ad una distanza di 32 cm. In pratica si e’ convenuto che un occhio in buona salute possa vedere come puntiforme un cerchio di 0.25mm di diametro su una stampa di 20x25cm posta a 32cm di distanza. Non chiedetemi troppi perché…. E’ una convenzione, ok? Bene, supponiamo ora di fotografare quel punto. Chiamiamo piano focale quel piano su cui il punto risulta a fuoco, ovvero puntiforme, appunto. Aiutandoci con la figura a fianco, vediamo che, qualora volessi fotografare anche un secondo punto ad una distanza superiore, questo non sarebbe a fuoco sul piano focale, e verrebbe quindi rappresentato come un cerchio. E’ esattamente quello che succede quando scattiamo una foto di due oggetti a distanza diversa. Con un diaframma aperto uno risulta a fuoco, l’altro risulta fuori fuoco (confuso). Proviamo ora a chiudere il diaframma. Vediamo lo stesso disegno di prima, ma con un foro più stretto in cui passa la luce. Vediamo come il cerchio di confusione del secondo oggetto sia molto più piccolo, tendente ad un punto. Vediamo ora la stessa foto di prima scattata con un diaframma più chiuso. Entrambi gli oggetti sono a fuoco. Ecco svelato il segreto della profondità di campo e del suo variare in funzione del diaframma.
Aiutandoci con le due immagini a lato, vediamo in pratica come vengono registrati i dettagli. La prima foto e’ stata ripresa con un’apertura di diaframma F/6.3. Il cigno di origami in primo piano comincia ad essere fuori fuoco già dalla coda, mentre la ranocchia in secondo piano e’ completamente sfocata. Nella seconda immagine il diaframma e’ stato chiuso a F/22 e come si vede entrambe le figure sono perfettamente a fuoco.
Il cerchio di confusione ha anche rilevanza nella scelta di un determinato sensore. Aumentando le dimensioni del sensore e’ come se ingrandissi l’immagine (si veda esempio della golfista). Questo si ripercuote immediatamente in un aumento del cerchio di confusione, quindi dimensioni maggiori del sensore implicano minore profondità di campo. Questo va bene con ritratti, macro ecc, ma pensiamo a foto paesaggistiche, dove vogliamo avere tutto a fuoco: siamo costretti a diminuire l’apertura del diaframma, con conseguente aumento dei tempi di esposizione. Questo effetto e’ anche negativo per i fotografi di matrimoni, che hanno necessità di grande profondità di campo. Unica ricetta, aumentare la sensibilità (ISO) con conseguente aumento del rumore. Il grande beneficio dei sensori di maggiori dimensioni di una migliore resa della gamma dinamica ed insensibilità al rumore si viene così a vanificare per la necessità di aumentare la sensibilità per ridurre il rischio di mosso.
Anche per oggi siamo riusciti ad arrivare in fondo. Prima di salutarvi però, vorrei ricordare i punti fondamentali trattati nel blog di questa settimana:
1 La scelta della fotocamera e del relativo sensore (35mm full frame, DX o altro) deve essere dettata dall’uso preponderante che se ne deve fare, piuttosto che dai richiami delle “sirene del marketing”;
2 Sensori maggiori presentano una maggiore gamma dinamica ed insensibilità al rumore. Le macchine che ne vengono equipaggiate sono ideali per still life, paesaggi e per tutte quelle situazioni dove e’ imperativo fotografare in condizioni di luce scarsa senza l’ausilio del flash.
3 Aumentando le dimensioni del sensore diminuisce la profondità di campo. Questo effetto può risultare molto utile per esempio nelle foto di ritratto.
4 Le macchine che montano sensori maggiori costano da 1.5 a 3 volte di più.
5 Al contrario, le macchine che montano sensori più piccoli costano di meno.
6 Sensori più piccoli offrono il beneficio di una maggiore profondità di campo e di un aumento della focale. Le due cose combinate ne decretano il successo nell’ambito della fotografia sportiva e naturalistica dove sono richieste focali lunghe, tempi brevi o grandi profondità di campo.
Au revoir
Max Sirio

martedì 17 febbraio 2009

Sensori 2: Pasticcini e pixel.....

Ok, penserete: cosa andrà fabbricando questo ora? Cosa legherà mai dei pasticcini con i pixel, gioia e dolori di noi fotografi, argomento “caldo” di ogni blog che si rispetti? Ma andiamo con ordine. Con il termine pixel [vedi] (contrazione della locuzione inglese picture element) si indica ciascuno degli elementi puntiformi che compongono la rappresentazione di un’immagine. Questa può essere l’immagine che vediamo a monitor, stampata su carta fotografica o creata dalla fotocamera. A parità di dimensioni di un’immagine, maggiore e’ il numero di pixel che la compongono, maggiore sarà la sua somiglianza con la realtà. Prendiamo ad esempio la mia reflex: ha un sensore composto da una matrice di 4288 fotodiodi reali (scrivo reali per amore di precisione, ma mi addentrerei in questo vespaio solo su richiesta) in orizzontale e 2848 fotodiodi reali in verticale. Ricordando un poco il Sig. Euclide di cui tanto a scuola ci hanno raccontato, l’immagine registrata dalla mia reflex sarà composta da 4288x2848 pixel diversi, corrispondenti ad una risoluzione di circa 12 Mp (12 mega-pixel).
Vediamo ora il processo che permette ad una macchina fotografica digitale creare una fotografia. Quando premiamo l’otturatore l’immagine di nostro figlio o della nostra fidanzata attraversa l’obiettivo e va a colpire l’elemento sensibile alla luce. Ieri tale elemento sensibile era la pellicola, oggi parliamo di sensori digitali. Un sensore digitale e’ una matrice di microscopici fotodiodi, che ricordiamo essere una specie di LED al contrario (vedi blog precedente: Cuore e batticuore), ognuno dei quali reagisce generando una corrente proporzionale all’intensità’ della luce (fotoni) che lo colpisce. I fotodiodi forniscono così i vari “puntini” (pixel) che compongono l’immagine finale. So che molti di voi si aspettano ora una dotta digressione sulla fisica dei semiconduttori, con ampi spazi dedicati alle differenze tra CCD (Charge Coupled Device) e CMOS (Complementary Metal Oxide Semiconductor). Sono però costretto a procrastinare questi pur interessantissimi argomenti in funzione dei vostri desideri. Quanti volessero approfondire gli aspetti fisici, con particolare riguardo alle differenze tra le varie soluzioni tecnologiche, mi scrivano quindi che daremo spazio a tutti. Oggi, più che di fisica, vorrei parlare di “fisico” ed in particolare delle prelibatezze che ne minano la linea.
Eccoci quindi a parlare di una specialità francese, la famosa gauffre. L’idea mi e’ venuta la scorsa estate a Nizza, quando mio figlio ha chiesto per merenda una di quelle succulente mattonelle traboccanti di cioccolato fuso, la “gauffre” appunto. Si, capisco pensiate che vedere una prelibatezza di pasticceria e pensare ad un sensore digitale, beh…. ci vuole una mente malata. In realtà un sensore non assomiglia per niente ad una gauffre, essendo un piccolo rettangolo di silicio su cui sono ricavati migliaia di micro circuiti elettronici, i fotodiodi appunto. Somiglianze a parte, in realtà comunque si comporta proprio come una gauffre: la luce (la nutella) incide sui fotodiodi (riempie i piccoli rettangoli). Più luce viene rilevata in quel punto più nutella va a riempire il rettangolino (pixel). Una volta pieno, la nutella esce. Possiamo anche continuare a versarne, ma la quantità di cioccolato che riusciremo a mangiare non aumenterà più perché nel frattempo sarà traboccata.
Forti delle nostre nuove, eccezionali conoscenze fisiche, analizziamo questo comportamento per spiegare la curva caratteristica che abbiamo visto nella scorsa puntata.
Quando la luce e’ assente o troppo bassa siamo nella zona in basso a sinistra del piede, o della soglia. Il segnale utile proveniente dalla nostra ipotetica immagine non si distingue dal rumore di fondo proveniente da qualsiasi dispositivo elettronico. La nostra gauffre e’ vuota, appena estratta dal forno. Aumentando la luce ci spostiamo nel tratto rettilineo della curva, più fotoni colpiscono il sensore più corrente genera il fotodiodo, più il punto si illuminerà dal nero al grigio al bianco. Più nutella mettiamo nei cubetti, più dolce sarà la nostra gauffre. Appena un cubetto e’ pieno, però, la cioccolata trabocca e, con nostro grande disappunto, il gusto non cambia. Il punto in questione nel sensore diventa bianco ed il dettaglio e’ perso per sempre. Pensate a quanto ho appena cercato di rappresentare con un esempio che tutti possiamo sperimentare quotidianamente, perché abbiamo appena spiegato un concetto di primaria importanza nella fotografia, sia analogica (pellicola) sia digitale (sensore/fotodiodi): La GAMMA DINAMICA, cioè la differenza tra i livelli energetici forniti dai fotoni (pochi) in presenza di ombre nere e quelli forniti dai fotoni (molti) in presenza di intense luci. La gamma dinamica ci dice quanti dettagli possiamo registrare in una foto quando sono presenti forti contrasti tra luci ed ombre. A differenza della pittura, nella fotografia dobbiamo registrare quello che esiste già; dobbiamo quindi adoperarci per riuscire a registrare quanti più dettagli possibile. Questo non sempre e’ possibile, a meno di particolari accorgimenti (HDR, ecc.).
Le due foto che riporto come esempio illustrano bene quanto detto piu' sopra, fornendo due situazioni di illuminazione diametralmente opposte che e' possibile incontrare in scene reali. La prima foto raffigura un’immagine catturata in un autogrill in autostrada: come si nota ha una ristretta gamma tonale. La giornata grigia, unita all’abbondante nevicata, uniforma i toni limitando l’escursione di luminosità. Non vi sono neri profondi o zone totalmente bianche: solo varie tonalità di grigio. La foto successiva e’ una panoramica della conca di Cortina in un bel pomeriggio d’estate. Mare e montagna nelle giornate di sole sono due situazioni dove sono presenti contrasti di luce estremi. Come si vede la macchina digitale non e’ riuscita a registrare l’intera escursione di luminosità tra le ombre e le luci. Così il bosco in primo piano, essendo in ombra, risulta nero invece che verde. Con riferimento alla curva vista sopra siamo a sinistra del piede o soglia: i dettagli degli alberi risultano affogati nel rumore del sensore e non sono registrati. Discorso opposto per le nubi in cielo. Sono alte ed illuminate in pieno dal sole con un livello di luminosità a destra della spalla (vedi curva). In questo caso il sensore non e’ riuscito a registrare tale livello di luminosità andando in saturazione. Nelle nubi, infatti, si vedono ampie zone di bianco puro in cui la trama della nube stessa non e’ più distinguibile. Sempre con riferimento alla curva illustrata sopra, nella prima foto le differenze di illuminazione tra le zone in ombra e le zone illuminate si mantengono all'interno della zona rosa che delimita la gamma dinamica di quel determinato sensore. Nella foto di montagna siamo invece al di fuori della gamma registrabile da quel determinato sensore.
Chiediamoci allora, noi inguaribili golosoni, se sia possibile e come si possa fare per "mangiare più nutella", in modo da poter evitare grosse delusioni a quei poveri fotografi che in vacanza scattano foto al mare o in montagna.
“Cubetti più grandi” – mi suggerisce mio figlio Thomas. Bingo! Certo, cubetti più grandi, più cioccolato da sciogliere in bocca. Fotorecettori più grandi, maggiore gamma dinamica tra i neri delle ombre ed i bianchi delle alte luci. E’ questa la strada che la fisica ci indica per ampliare la gamma dinamica dei sensori: aumentare le dimensioni fisiche dei fotodiodi. Urca, ma se aumento le dimensioni dei fotodiodi, vuole dire che ce ne staranno di meno sullo stesso chip di silicio (sensore). A parità di dimensioni del sensore, miglioro quindi la gamma di luce che posso registrare a scapito della risoluzione con cui genero l’immagine, diminuendo il numero dei Megapixel con cui costruisco l’immagine: la tanto ricercata “risoluzione”. Ebbene sì: benvenuti nel club del foto-compromesso!
Si potrebbe pensare di aumentare le dimensioni del sensore, ma questa strada ha le sue controindicazioni:
i. Aumentare indefinitamente le dimensioni del sensore e’ comunque impossibile;
ii. I costi legati alla produzione dei sensori aumentano con le dimensioni;
iii. La miniaturizzazione della macchina fotografica si perde a favore di dimensioni e pesi eccessivi;
iv. A parità di focale, aumentando le dimensioni del sensore occorrono ottiche più ingombranti e pesanti.
v. Da un punto di vista ottico si varia il cerchio di confusione e la conseguente profondità di campo, con ripercussioni su tempi, diaframmi, ottiche ecc, ecc.
Tratteremo la settimana prossima proprio questo argomento, con una disamina accurata delle varie dimensioni dei sensori, pregi e difetti di varie soluzioni.
Bene è tutto per oggi ma, come sempre, prima di lasciarvi ricordo i punti principali di quanto ci siamo detti:
1 I pixel sono i vari elementi puntiformi che compongono la rappresentazione di un’immagine. In una stampa sono le micro gocce di inchiostro, nei video sono i vari LED che si illuminano, nei sensori delle macchine fotografiche sono i fotodiodi.
2 Più piccoli sono i fotodiodi, maggiore e’ il corrispondente numero di pixel, ovvero maggiore risulta la definizione dell’immagine.
3 I fotodiodi sono una sorta di led al contrario che, colpiti dai fotoni che attraversano l’obiettivo, generano una piccola corrente proporzionale al numero dei fotoni che li colpiscono.
4 I fotodiodi si comportano come una gauffre: i vari cubetti (paragonabili ai fotodiodi/pixel) si riempiono di nutella (i fotoni della luce) finché non trabocca.
5 Il gusto e’ tanto più dolce e gradevole quanta più cioccolata contengono i vari cubetti.
6 Analogamente il sensore fornirà l’immagine di un punto che, partendo dal nero, diventerà via via più bianco finché non raggiunge la saturazione e si perdono i dettagli.
7 La differenza tra i neri profondi delle ombre nette ed i bianchi delle alte luci definisce la gamma dinamica.
8 Aumentando le dimensioni dei sensori si incrementa la gamma dinamica.
9 A parità di dimensioni del sensore, aumentando le dimensioni dei sensori si riduce la definizione con cui l’immagine e’ costruita.
10 Le dimensioni del sensore influenzano non solo le dimensioni dell’apparecchio fotografico, come vedremo la settimana prossima.
Aspetto vostri commenti e lettere come se piovesse....
Auf widersehen
Max Sirio

lunedì 16 febbraio 2009

Sensori 1: Cuore e batticuore

Virtuale e digitale sono le due rime che regolano oggi la poesia delle nostre vite. Abbiamo così una realtà virtuale, una televisione digitale, i telefoni digitali, l’impianto Hi-Fi digitale, i riproduttori mp3 di musica digitale. La "Grande 'D'” di conseguenza domina e precede oggi anche gli oggetti di culto di noi fotografi. Ecco quindi che, mentre solo alcuni anni fa scattavamo foto utilizzando la SLR (la reflex) oggi fotografiamo con la DSLR (leggi reflex digitale).
Tutto bene, qualche vantaggio alla fine c'è, anche considerando che sono pochi quanti non abbiano ancora fatto il “grande salto”. Solo alcuni anni addietro, finite le 24 o 36 pose, estraevamo il rullino, lo riponevamo nella tasca del cappotto e correvamo a quel laboratorio all’angolo perché era il fotografo “di fiducia”. Aspettavamo quindi una settimana, rosicchiandoci le unghie per l’impazienza e telefonando ogni giorno finché non giungeva quella voce amica che ci rassicurava:
- “E’ arrivato” - Ogni scusa allora era buona per sospendere all'istante qualsiasi cosa si stesse facendo per correre, col cuore in gola, a vedere le nuove foto.
Importanti riunioni d’affari sono state bruscamente interrotte per questo motivo; fusioni di società sono fallite perché le stampe sono arrivate nel momento della firma; madri disperate che cercano figli dimenticati a scuola dai padri per recarsi dal fotografo, grandi amicizie sono finite drammaticamente per una battuta su un orizzonte un po’ storto.
Per fortuna oggi non è più così: un’occhiata al display di cui sono oramai dotate tutte le macchine digitali ci rassicura su alcuni aspetti macroscopici (attenzione: torneremo sul display in una prossima discussione). I più “dotti”, in possesso di computer e programmi dedicati, si scaricano subito le foto su disco rigido per una confortevole visione a schermo. Gli altri possono sempre estrarre la “memory card”, recarsi al più vicino supermercato e, tra la spesa della pasta e quella della frutta, osservare i propri figli su un comodo schermo, ordinare le stampe e ritirarle dopo aver scelto la verdura. Comodo, no?
Ma ecco l’argomento e la sfida di oggi: quanti di noi sanno, almeno approssimativamente, in cosa è consistita la rivoluzione del digitale nelle macchine fotografiche?
Per chi nasce fotografo nel “nuovo mondo” del digitale, come ad esempio mio figlio di 11 anni, questa domanda non ha lo stesso significato e le medesime implicazioni che ha per quanti hanno avuto esperienze precedenti con apparecchi a pellicola. Sono profondamente convinto dell’importanza che una conoscenza di tali differenze sia di grande importanza per evitare frustrazioni e delusioni.
Non solo, una maggiore consapevolezza del “cuore” che batte all’interno del nostro oggetto del desiderio può orientare quanti desiderano acquistare un apparecchio digitale a difendersi dalle Sibille che promettono prestazioni oltre l’immaginabile pur di realizzare una vendita.
Ma andiamo con ordine: ai “vecchi tempi” la macchina fotografica era una mini camera oscura, in cui la luce che filtrava attraverso un buchino nell’obiettivo (diaframma) andava ad illuminare per un certo tempo uno strato di pellicola sensibile alla luce. Più' tempo rimaneva aperto più' luce entrava, più' si apriva il diaframma più' luce entrava e viceversa. L'energia luminosa, sotto forma di quanti di energia detti fotoni [vedi:
fotoni], anneriva la pellicola: più' luce, più' la pellicola si scuriva. Naturalmente questo vale anche oggi, solo che la pellicola è stata sostituita da un “sensore digitale” che costituisce il vero cuore pulsante delle moderne digitali, mentre possiamo dire che il “cervello” è rappresentato dal processore d'immagine. E' solo la perfetta collaborazione tra i due che permette di ammirare le nostre belle immagini digitali.
A prescindere dalle varie sigle che ci tolgono il sonno.. CCD o CMOS? questo il dilemma... il sensore è una matrice di tanti mini circuiti elettronici come mostrato in figura, dove ogni quadratino rappresenta un fotodiodo [
vedi: fotodiodo]. Ormai abbiamo tutti acquisito familiarità con i LED, quelle piccole lucette che si accendono quando li colleghiamo ad una batteria. Un fotodiodo è una specie di led al contrario: quando viene illuminato da un fascio di luce genera una piccola corrente proporzionale all'intensità dell'illuminazione (esposizione). Tratteremo i sensori in una prossima sezione (si veda: Pasticcini e pixel). Questa settimana vorrei concentrarmi sulle differenze tra pellicole e sensori, che si riassumono in quella parola scritta sopra: PROPORZIONALE.
Cerco di non addentrarmi troppo nei dettagli per non appesantire l'argomento della settimana. Quanti avessero piacere di approfondirne gli aspetti fisici e chimici, mi scrivano comunque tranquillamente che li tratteremo in sezioni dedicate.
Verso la fine dell'ottocento due scienziati appassionati di fotografia, F. Hurter e V.C. Driffield, mapparono in un grafico (vedi figura) la quantità di energia ed il corrispondente annerimento della pellicola. Per una maggiore leggibilità ho indicato come “Quantità di luce” quello che in realtà è un valore energetico, in genere il logaritmo dell'esposizione (EV) ed in ordinate il logaritmo dell'opacità. Anche qui, scrivetemi se volete approfondire.
Con variazioni di piccola entità ogni pellicola presenta un andamento tipico simile a quello riprodotto a fianco. La curva presenta un tratto rettilineo di proporzionalità tra la luce che colpisce la pellicola ed il corrispondente annerimento. Questa è la zona dei toni medi che ritroviamo su una fotografia. La proporzionalità si perde invece nelle zone del piede (ombre) e della spalla (luci) come si vede in figura. Cosa significa? Nel tratto rettilineo un aumento della luce (tempi più lunghi, diaframmi più aperti), es un raddoppio, produce un annerimento due volte più denso sulla pellicola. Arrivati in prossimità della spalla (zona delle alte luci) l'annerimento della pellicola non segue l'aumento della luce. Effetto speculare verso il piede (zona delle ombre). Questo si traduce in un'ampia “gamma dinamica”, ovvero nella facoltà della pellicola di registrare elevate differenze di luminosità tra le ombre scure e le luci forti. La pellicola si comporta quindi nei confronti della luce analogamente al nostro sistema di percezione visiva non lineare.
Vediamo invece come il comportamento di un sensore digitale sia sempre proporzionale (lineare), ad raddoppio della quantità di luce che lo colpisce, raddoppia l'annerimento del fotogramma.
Sovrapponendo infine le due curve caratteristiche possiamo vedere come, quando la pellicola continua a registrare aumenti di luce nella zona a destra (alte luci), il sensore si satura (clipping) impedendo di registrare ulteriori dettagli nelle luci. Questo è quello che succede quando ad esempio facciamo una foto al mare o in montagna con cielo sereno e, mentre il soggetto viene esposto correttamente (zona centrale della curva), il cielo appare tutto bianco anziché azzurro. Quella parte del fotogramma è “bruciata” ed i dettagli sono persi per sempre. Non sono più recuperabili neppure con i più sofisticati sistemi di post-produzione e ritocco.
Bene, è tutto per oggi, ma prima di lasciarvi ricordo i punti principali di quanto ci siamo detti:
1. Le pellicole hanno una risposta non lineare alle variazioni di luce simile alla percezione dell'occhio umano.
2. I sensori sono dei led al contrario che hanno invece una risposta lineare alle variazioni di luce su tutta la gamma di utilizzo.
3. La gamma dinamica (ombra-luce) dei sensori è inferiore a quella delle pellicole.
4. Occorre stare molto attenti quando si riprendono scene con forti variazioni di luminosità tra luci ed ombre.
5. Il rischio è quello di perdere per sempre dei dettagli.
6.Il clipping, o saturazione delle alte luci è molto più dannoso (perché più evidente e meno recuperabile) della perdita di dettaglio nelle ombre.

Scrivete gente, scrivete. Appunti, commenti, critiche. Tutto quello che volete (beh, quasi....)

Hasta luego.....
Max