Mini Corso di Fotografia - DIGILA

134 downloads 1636 Views 6MB Size Report
LA PRIMA LEZIONE: Club Alpino Italiano – Sezione di Carpi. • Scrivere con la luce. • Lo spettro della luce. • Perché vediamo i colori. • Luce riflessa e luce ...
Le dispense del

Mini Corso di Fotografia LA PRIMA LEZIONE: • Scrivere con la luce • Lo spettro della luce • Perché vediamo i colori • Luce riflessa e luce incidente • Le fotocamere digitali • I sensori d’immagine • Pixel e megapixel • ll rumore digitale

Club Alpino Italiano – Sezione di Carpi Via Cuneo, 51 41012 Carpi (MO) – Tel. 059696808 – Fax 0596223612 [email protected]

“È un’illusione che le foto si facciano con la macchina... si fanno con gli occhi, con il cuore, con la testa”. Henri Cartier-Bresson “La fotografia non mostra la realtà, mostra l’idea che se ne ha”. Neil Leifer “Credo davvero che ci siano cose che nessuno riesce a vedere prima che vengano fotografate”. Diane Arbus

HENRI C

ARTIER-B RESSON

“Chi non sa fare una foto interessante con un apparecchio da poco prezzo, ben difficilmente otterrà qualcosa di meglio con la fotocamera dei suoi sogni”. Andreas Feininger “Un buon fotografo è una persona che comunica un fatto, tocca il cuore, fa diventare l’osservatore una persona diversa”. Irving Penn

PENN G N I V IR

“Dieci fotografi di fronte allo stesso soggetto producono dieci immagini diverse, perché se è vero che la fotografia traduce il reale, esso si rivela secondo l’occhio di chi guarda”. Gisele Freund

GISE

LE FR

EUN D

Comunicare con le immagini...

Fotografare è scrivere con la luce! La parola fotografia ha origini greche, deriva dall'unione di due parole phos (luce) e graphis (scrivere)

La prima foto della storia scattata da Nicéphore Niepce nel 1826

SPETTRO DELLA LUCE Lo spettro visibile è quella parte dello spettro elettromagnetico che cade tra il rosso e il violetto includendo tutti i colori percepibili dall'occhio umano. La lunghezza d'onda della luce visibile nell'aria va indicativamente dai 380 ai 760 nm ; le lunghezze d'onda corrispondenti in altri mezzi, come l'acqua, diminuiscono proporzionalmente all'indice di rifrazione. La massima sensibilità dell'occhio la si ha attorno ai 550 nm in corrispondenza del colore giallo citrino. Le radiazioni con lunghezza d'onda minore (e quindi frequenza maggiore) sono gli ultravioletti, i raggi x e i raggi gamma; quelle con lunghezza maggiore (e frequenza minore) sono gli infrarossi, le microonde e le onde radio. Tutte queste radiazioni hanno la stessa natura, sono infatti tutte composte da fotoni. Lo spettro visibile rappresenta la parte centrale dello spettro ottico che comprende anche infrarosso e ultravioletto. Lo spettro visibile non contiene come si può pensare tutti i colori che l'occhio e il cervello possono distinguere: il marrone, il rosa, il magenta, per esempio, sono assenti, in quanto si ottengono dalla sovrapposizione di diverse lunghezze d'onda.

Un prisma separa la luce nei colori che compongono lo spettro visibile. Le lunghezze d'onda visibili occupano la cosiddetta "finestra ottica", una regione dello spettro elettromagnetico che può attraversare indisturbata l'atmosfera della Terra (benché come è noto il blu venga diffuso più del rosso, dando al cielo il suo colore caratteristico

Perche’ vediamo i colori Gli oggetti e gli ambienti che ci circondano sono in gran parte colorati. Ciò dipende dal fatto che la luce si diffonde attraverso onde di diversa lunghezza: ad ogni onda corrisponde un colore. La differenza tra 'colore' e 'non colore' è spesso labile e soggettiva. Il fisico inglese Isaac Newton dimostrò, nel 1672, che la luce, che vediamo bianca, è in realtà composta dai sette colori dello spettro solare. Nel suo esperimento Newton fece passare un raggio di luce attraverso un prisma di cristallo. Il raggio si scompose così nei sette colori dello spettro solare, dimostrando che il bianco è la somma di quei colori.

Il nostro occhio percepisce solo una piccola parte delle onde luminose esistenti in natura; a questa corrisponde uno spettro di sette colori: il rosso, l’arancio, il giallo, il

verde, l’azzurro, l’ìndaco e il

violetto. Deriva quindi questa osservazione: l’oggetto che riflette tutte le onde luminose appare bianco (bianco = somma di tutti i colori); l’oggetto che assorbe tutte le onde, senza restituirle ai nostri occhi, viene visto dai nostri occhi nero (nero = assenza di colori); l’oggetto che assorbe tutte le onde tranne uno, ha il colore corrispondente a quell’unica onda ( ad esempio: un oggetto che non assorbe il verde, viene visto dai nostri occhi verde). Il colore è un fenomeno psico-fisico legato alla luce. Il colore senza luce non esiste; basti pensare che nell'oscurità profonda ciò che si intravvede è privo di colori. Per capire il colore possiamo fare il parallelo col mondo dei suoni, assai più familiare; un tamburo emette note meno acute di un violino, perché la frequenza delle vibrazioni sonore del tamburo è inferiore a quelle del violino. L'occhio umano percepisce meglio la parte centrale della banda della luce visibile, cioè quella dei gialli e dei verdi, mentre verso i bordi la percezione sfuma. Il colore è una sensazione ottica, che cambia a seconda della sensibilità individuale, in ognuno di noi la visione può differenziarsi anche in maniera consistente. Si è soliti pensare al colore come a un fenomeno puramente fisico, mentre in realtà è il risultato di un insieme di fattori: la capacità ricettiva degli occhi, le caratteristiche del cervello e la combinazione di gas, umidità e particelle di polvere presenti nell'atmosfera, le quali filtrano, riflettono e rifrangono i raggi dell'energia luminosa.

I

I

colori

colori

PRIMARI:

SECONDARI:

ROSSO,

BLU,

ARANCIO,

VERDE,

GIALLO,

VIOLA

non

si

possono

ottengono

essere

mescolando

generati

due

primari

da

in

altri

colori.

parti

uguali.

Ogni coppia di complementari è formata da un primario e dal secondario ottenuto dalla mescolanza degli altri due primari. Per sapere qual è il complementare del colore primario giallo, mischiate gli altri due primari, il rosso e il blu: ottenete il viola che risulta essere il complementare del giallo.

il viola è complementare del giallo

il verde è complementare del rosso

l'arancio è complementare del blu.

Se si accostano i colori complementari si ottiene un effetto di massimo contrasto: i due colori acquistano forza cromatica rafforzando a vicenda la luminosità di entrambi Se si pone un colore luminoso al centro del suo complementare meno luminoso, l'effetto di contrasto e di complementarità è particolarmente evidente.

I colori primari blu, rosso e giallo miscelati, generano la maggior parte dei colori che l'occhio umano riesce a percepire.

Il modello CMY è conosciuto come colore sottrattivo, perché quando questi colori si sovrappongono danno origine al colore nero. Se si ha una sola sorgente di luce, bisogna ricorrere alla "sintesi sottrattiva", che è la stessa che avviene quando si usano i coloranti (come i tubetti del pittore o l'inchiostro di una stampante). E' il metodo per la stampa in quadricromia. Il sistema sottrattivo CMY(Cyan-Magenta-Yellow) sottrae luce ad uno sfondo bianco Se si sovrappongono i tre colori primari sottrattivi si forma il nero

PROCESSO SOTTRATTIVO DEI COLORI Un fascio di luce bianca viene fatto passare attraverso tre filtri realizzati nei colori complementari (giallo, magenta, ciano). La sovrapposizione di due fasci colorati genera i colori primari (blu, verde, rosso), mentre la presenza contemporanea dei tre filtri produce il nero.



dalla mescolanza di ciano e magenta deriva il blu dalla mescolanza di magenta e giallo deriva il rosso

• •

dalla mescolanza di giallo e ciano deriva il verde.

Il modello RGB è conosciuto come colore additivo, perché i tre colori combinandosi riproducono il Bianco. E' il metodo utilizzato dai monitor per visualizzare il colore. In pratica, l'esperienza insegna che tutti i colori possono essere ottenuti partendo da tre fasci luminosi nei cosiddetti colori primari: rosso, verde e blu. Questo procedimento, che parte dal buio e somma le luci, si chiama "processo additivo" o "sintesi additiva" dei colori. L'unione dei tre colori primari (o fondamentali) dà il bianco; quando i colori primari vengono uniti due a due si ottengono invece i cosiddetti colori complementari; il blu e il rosso danno il magenta (colore complementare del verde), il rosso e il verde danno il giallo (complementare del blu), il verde e il blu danno il ciano (complementare del rosso). Il colore ciano viene anche denominato cyan. • •

Il sistema additivo RGB (Red-Green-Blue) aggiunge luce ad uno sfondo nero Se si sovrappongono i tre colori primari additivi di eguale intensita’, si forma il bianco.

PROCESSO ADDITIVO DEI COLORI Tre fasci di luce nei colori primari (blu, verde, rosso), sovrapponendosi due a due formano i colori complementari (giallo, magenta, ciano); dove si sovrappongono tutti e tre, danno origine al bianco.

dalla mescolanza di rosso e blu deriva il magenta

• • •

dalla mescolanza di blu e verde deriva il ciano dalla mescolanza di verde e rosso deriva il giallo.

La luce.

La materia prima del fotografo è la luce. È attraverso la luce che noi possiamo vedere le cose, nella loro forma e nei loro colori, valutarne la dimensione e la distanza. La luce è energia, in particolare essa è una radiazione elettromagnetica. Essa ha la stessa natura delle onde radio, delle microonde, dei raggi X e dei raggi γ (gamma), e differisce da queste cose solo per la lunghezza d'onda (o per la frequenza). La luce è caratterizzata da: a - intensità, da cui dipende la luminosità (esempio: una candelina emette una luce debole, poco intensa o luminosa, mentre un faro emette una luce forte, molto intensa o luminosa), b - lunghezza d'onda (o frequenza), da cui dipende il colore (esempio: una luce rossa ha lunghezza d'onda maggiore di una luce verde). La luce, nel vuoto e nei materiali trasparenti, si propaga in linea retta. Ci sono situazioni in cui il cammino rettilineo di un raggio di luce può essere deviato, si tratta dei seguenti fenomeni fisici: a - riflessione, ogni qual volta la luce incontra un materiale su cui rimbalza,

La riflessione. Si considerano due tipi fondamentali di riflessione: a - quella su una superficie ruvida o opaca (per esempio un pezzo di carta, un muro, una stoffa...), b - quella su una superficie perfettamente levigata o lucida (per esempio uno specchio, un metallo liscio e lucidato). a - Riflessione su una superficie opaca: In questo caso noi osserviamo che il raggio incidente, dopo avere incontrato la superficie opaca, viene rimbalzato in tutte le direzioni. E' per questo motivo che, anche stando all'ombra, possiamo essere illuminati. Infatti la luce, pur non potendo raggiungerci con un cammino diretto dalla sua fonte (per esempio dal sole), ci raggiunge indirettamente dopo essere stata rimbalzata dalla superficie degli oggetti (per esempio il suolo, le case, le pareti, gli alberi...). Il fenomeno della riflessione sulle superfici non lucide è utilizzato spesso dal fotografo per fornire una illuminazione morbida, ovverosia capace di creare delle ombre che non siano troppo nette e dei contrasti attenuati. A volte questa luce risulta migliore di quella diretta che dà ombre dure e contrasti violenti fra zone troppo chiare e zone troppo scure.

b - Riflessione su una superficie lucida: In questo caso noi osserviamo che il raggio incidente, dopo avere incontrato la superficie opaca, viene rimbalzato in una sola ben precisa direzione.

La legge della riflessione si enuncia così: l'angolo di incidenza e l'angolo di riflessione sono sempre uguali. Naturalmente per angolo di incidenza si intende quello fra il raggio incidente e la verticale, mentre per angolo di riflessione si intende quello fra il raggio riflesso e la verticale.

Se stai valutando la possibilità di passare al digitale, ecco alcuni buoni motivi per farlo.

➢ Si risparmia il denaro per l'acquisto delle pellicole e per lo sviluppo. ➢ Si risparmia tempo. Non occorre fare tre viaggi al negozio per comprare il rullino, per riportarlo a sviluppare e per ritirare le stampe. ➢ Si possono controllare subito le immagini ottenute evitando delusioni uno o due giorni dopo. ➢ Le immagini mal riuscite possono essere cancellate subito o ritoccate più tardi. ➢ Non si usano materie chimiche tossiche che troppo spesso finiscono negli scarichi e nei fiumi. ➢ Non occorre aspettare di finire il rullino prima di portarlo a sviluppare, o sprecare la pellicola non esposta se non si vuole aspettare. ➢ Si utilizza il computer per immagazzinare e catalogare grandi collezioni di immagini. ➢ Con una stampante poco costosa si ottengono tutte le stampe che si vuole. Se si usa carta fotografica la qualità delle stampe sarà sorprendente, simile a quella del laboratorio ➢ Molte fotocamere digitali hanno la capacità di catturare non solo immagini fisse, ma anche video e suoni. ➢ Oltre a visualizzare e distribuire le immagini, è relativamente facile usare un software di fotoritocco per migliorarle o modificarle. Per esempio si può ritagliarle, correggere gli occhi rossi, modificare i colori, variare il contrasto, togliere o aggiungere elementi. ➢ La libertà di esplorare le strade della creatività.

Categorie delle Fotocamere Digitali

Fotocamere compatte automatiche Le foto di queste piccole macchine in questi ultimi tempi hanno raggiunto livelli qualitativi di tutto rispetto, più che abbastanza per le esigenze di un utilizzo amatoriale.

Fotocamere compatte evolute Famiglia di camere dette anche “Bridge” a metà strada tra le compatte e le reflex. Generalmente una risoluzione maggiore si combina con caratteristiche più avanzate come la tecnologia di focalizzazione avanzata,

Fotocamere Reflex Se avete soldi da spendere potete rivolgere le vostre attenzioni alle fotocamere progettate per i professionisti o per gli amatori di alto livello. Con costi che vanno dai 1000 ai 6000 Euro, queste camere riprendono il design e la tecnologia delle reflex a film e vantano risoluzioni tra i 10 ed i 24 megapixel.

Fotocamere Mirror-Less Possono essere chiamate anche macchine “Evil” dove l’acronimo stà per “Electronic Viewfinder Interchangable Lens” che può essere tradotto come macchine con “Mirino elettronico e lenti intercambiabili”. Il pregio di tali macchine è dato dalla compattezza e leggerezza delle stesse a confronto delle reflex digitali, senza però sacrificare la qualità delle immagini

Macchine fotografiche (SLR single lens reflex) o comunemente REFLEX

La sezione dei componenti ottici di una camera SLR mostra come la luce passi attraverso le lenti dell'obiettivo (1), sia riflessa dallo specchio (2) e sia proiettata sullo schermo opaco di messa a fuoco (5). Attraverso una lente di condensazione (6) e le riflessioni interne al pentaprisma (7) l'immagine appare nel mirino (8). Quando il fotografo scatta, lo specchio si muove in direzione della freccia, l'otturatore (3) si apre e l'immagine è proiettata sulla pellicola o sul sensore (4) esattamente come sullo schermo di messa a fuoco. Il nome di queste fotocamere quindi deriva esclusivamente dal sistema di mira e non dal tipo di elemento sensibile. Oggi però, per praticità, con SLR si tende ad identificare le fotocamere che immagazzinano le foto su pellicola e con DSLR le macchine fotografiche digitali con la medesima configurazione.

Macchine fotografiche reflex o Mirror-Less

L’idea è stata: perchè non costruire una macchina reflex all’interno di un corpo macchina più stretto? Come poter arrivare a tale risultato? Semplice: togliendo lo specchio. Grazie alla rimozione di tale congegno guadagnamo dei centimetri preziosi sul corpo macchina ottenendo così una macchina più stretta. L’immagine si va così a formare direttamente sul sensore, il quale rimanda direttamente quello che vien visto sul monitor, come in una compatta.

Sensori di immagine Il funzionamento di una fotocamera digitale è molto simile a quello di una normale fotocamera tradizionale a pellicola. Ambedue contengono un obiettivo, un diaframma, ed un otturatore. Le lenti mettono a fuoco il fascio luminoso all'interno della camera, il diaframma si apre creando un foro di diametro variabile e l'otturatore controlla il tempo diesposizione. Questo meccanismo (diaframma + otturatore) controlla esattamente la quantità di luce che entra e colpisce il sensore. La grande differenza fra le camere tradizionali e quelle digitali consiste nel modo in cui la luce viene catturata. Al posto della emulsione fotosensibile sulla pellicola, le fotocamere digitali usano un dispositivo elettronico allo stato solido chiamato sensore di immagini o CCD (ChargeCoupled Device). Sulla superficie di questi chip di silicio di varie dimensioni, si trova una griglia di milioni di diodi fotosensibili, detti fotoelementi o più comunemente pixel (picture element). Ogni singolo fotoelemento cattura una porzione dell'intera immagine.

Tipi di sensore Fino a pochi anni fa, i sensori tipo CCD (Charge-Coupled Device) erano gli unici sensori usati nelle fotocamere, avendo raggiunto un buon grado di sviluppo in anni di impiego in telescopi ottici, scanner, videocamere ecc. Ora però si sta affacciando un nuovo tipo di sensore, il CMOS (Complementary Metal Oxide Semiconductor) che promette di diventare il sensore di prima scelta in un vasto segmento del mercato. Sia i sensori CCD che i CMOS catturano la luce in una griglia di pixel, ma differiscono quanto a processi diproduzione dei file digitali e per il modo di gestire le immagini.

I sensori CCD (Charge Coupled Device): Il sensore CCD deve il suo nome alla modalità di lettura dei pixel. Dopo l'esposizione, le cariche elettriche generate dai singoli pixel vengono trasferite una per volta in una sezione del sensore chiamata registro di lettura. Da qui, i segnali sono inviati ad un amplificatore e poi ad un particolare circuito che converte le grandezze elettriche analogiche in valori numerici digitali.

I sensori CMOS (Complementary Metal Oxide Semiconductor): Il grande problema dei sensori CCD è di carattere economico, dato che i volumi di produzione non consentono soddisfacenti economie di scala. Gli impianti di produzione sono altamente specializzati, cioè sono adatti solo alla produzione di CCD. Mentre invece i sensori CMOS sono prodotti nelle stesse fabbriche e con le stesse attrezzature usate per fabbricare i milioni di microchip impiegati ormai ovunque come processori per computer o memorie. Il processo di produzione CMOS è di gran lunga il più comune ed economico e usare lo stesso processo e le stesse attrezzature per produrre sensori di immagine taglia i costi di circa un terzo, rispetto ai costi dei CCD. Costi che sono ulteriormente ridotti dal fatto che i CMOS contengono i circuiti di processo delle immagini nello stesso chip, mentre nel caso dei CCD tali circuiti devono essere alloggiati in un chip separato.

Solo bianco e nero Potrà sembrare sorprendente, ma i pixel del sensore possono registrare solo l'intensità della luce, non il suo colore. Ogni singolo pixel colpito dalla luce produce una scala di 256 valori che corrispondono a 256 tonalità di grigio, dal puro nero al puro bianco.

Dal bianco/nero al colore Poiché la luce solare è composta dai tre colori di base, basta mettere un filtro rosso, o verde o blu, sopra ogni pixel per ottenere immagini colorate, esattamente come fece Maxwell nel 1860. Nel sistema Bayer usato in quasi tutti i sensori, i filtri verdi sono in numero doppio degli altri. Poiché l'occhio umano è molto più sensibile al verde che agli altri due colori, l'esatta resa cromatica del verde è più importante. I filtri colorati ricoprono ogni pixel del sensore. I filtri verdi sono in numero maggiore degli altri, le micro-lenti al di sopra dei filtri servono a focalizzare la luce per aumentare la resa cromatica dei pixel.

I filtri colorati rossi, verdi e blu, permettono il passaggio solo della rispettiva corrispondente cromatica della luce incidente, con questo sistema si riesce a scomporre la luce separando i colori in 3 distinti canali.

I sensori CMOS retroilluminati I sensori CMOS retroilluminati presentano un nuovo tipo di struttura rispetto ai sensori CMOS utilizzati precedentemente. Questi sensori modificano il posizionamento del livello della circuiteria, per consentire la riduzione della perdita di luminosità e, di conseguenza, un incremento della sensibilità alla luce e la riduzione del disturbo registrato nell'immagine.

Il progetto tradizionale di un sensore CMOS, presenta il livello della circuiteria posizionato sopra il livello dei fotodiodi . A causa del posizionamento della circuiteria, parte della luce viene riflessa e quindi persa. Il sensore CMOS retroilluminato presenta il livello dei circuiti posizionato sotto il livello dei fotodiodi, in questo modo la luce non viene riflessa e persa. Grazie a questa caratteristica, i fotodiodi ricevono più luce e il sensore è in grado di produrre immagini di qualità migliore in condizioni di scarsa illuminazione.

I sensori SUPER CCD (Fuji) Il nuovo CCD utilizza una struttura ottagonale già sperimentata in passato a cui aggiunge un elemento del tutto innovativo: il doppio fotodiodo. Invece di un solo fotodiodo per pixel ne vengono utilizzati due, di cui uno è più grande e sensibile alla luce, l’altro molto più piccolo e molto meno sensibile e viene utilizzato per registrare la luce molto forte. L’immagine registrata è formata a partire dalle due immagini registrate dai due sensori: l’effetto è molto simile a quello che si otterrebbe scattando la stessa foto con due esposizioni differenti (ad es. stringendo il diaframma e diminuendo il tempo di otturazione) una normale e l’altra molto scura. In quella scura avremo ben visibili le parti troppo luminose, che in quella normale sono rese come totalmente bianche. Un algoritmo si occupa di ricostruire l’immagine complessiva.

Sensori tipo Foveon ( Sigma) I sensori Foveon non usano filtri colorati ma catturano i colori in modo analogo al film che e’ rivestito da tre strati sovrapposti di emulsioni chimiche, ognuna sensibile a uno dei tre colori primari. Nelle pellicole a colori i primi due strati sono trasparenti alla luce rossa, il secondo strato e sensibile al verde, il primo strato e sensibile alla luce blu.

In modo del tutto analogo, i sensori Foveon hanno tre strati sovrapposti di materiali sensibili ai tre colori primari. Le componenti rossa, verde e blu della luce penetrano nel sensore a diverse profondita e sono catturate dai rispettivi strati sensibili che hanno spessori adeguati alle capacita di penetrazione delle tre frequenze luminose. Tutti i pixel dello stesso strato sono attivi e quindi non esiste la necessita di intervenire con l'interpolazione cromatica.

L'interpolazione cromatica Con i filtri colorati, ogni pixel registra la brillantezza della luce colorata che passa attraverso il proprio filtro, mentre gli altri colori vengono bloccati. Per esempio, un pixel con filtro rosso percepisce solo la luce rossa che lo colpisce. Se su quel pixel non arriva luce rossa, occorre determinare di quale colore quel pixel dovrebbe essere. Usando come riferimento i colori dei pixel che lo circondano, il software stabilisce il colore non registrato In pratica, ogni pixel misura l'intensità di uno dei colori primari, se questo colore è presente nella luce incidente. Se invece quel pixel non percepisce luce, il suo colore viene "stimato" dal software basandosi sul colore dei pixel adiacenti. Questo processo (interpolazione cromatica) implica un notevole consumo delle batterie, un rallentamento delle operazioni, alti costi di sviluppo del software e di produzione dei microchip. Per tutti questi motivi nelle camere compatte si usano algoritmi relativamente semplici, con conseguente inferiore livello della fedeltà dei colori

Le Immagini Digitali Sono solo Pixel Le immagini digitali sono composte da milioni di piccoli quadrettini chiamati pixel (picture elements). Come i pittori impressionisti che componevano le loro opere con piccoli punti di colore, il computer o la stampante usano i pixel per visualizzare le immagini sul monitor o stamparle sulla carta. Per fare ciò il computer suddivide lo schermo in una griglia di pixel ed usa i valori memorizzati nel file digitale per attribuire a ciascun pixel dello schermo il colore e la brillantezza del pixel originale. Il processo di controllo della griglia dei pixel si chiama mappatura dei bit, e le immagini digitali sono chiamate anche bit-map.

Dimensioni dell'Immagine e Risoluzione La qualità di un'immagine digitale, sia stampata che visualizzata su uno schermo, dipende in buona parte dal numero di pixel usati (risoluzione) per creare quell'immagine. Più alto è il numero di pixel (alta risoluzione) maggiore sarà il dettaglio reso, e meglio definiti saranno i bordi tra i vari elementi dell'immagine. Ingrandendo l'immagine oltre un certo valore si cominciano a distinguere i singoli pixel. Questo fenomeno è abbastanza simile alle tradizionali stampe fotografiche dove la grana della pellicola comincia ad apparire quando le immagini sono ingrandite oltre una determinata soglia. Più alto è il numero dei pixel, più l'immagine può essere ingrandita prima che si possano notare i singoli pixel.

Dimensioni dei pixel Nel linguaggio comune si usa il termine “pixel” per indicare sia i fotoelementi del sensore che gli elementi luminosi di un monitor a cristalli liquidi, ma anche le parti elementari di una immagine digitale. In realtà i pixel del sensore hanno dimensioni fisiche che vanno da 1,6 micron (millesimi di millimetro) a 6-8 micron e oltre. La dimensione effettiva dipende dalle misure fisiche del sensore e dalla densità dei pixel. A parità di risoluzione, un sensore di una camera compatta avrà singoli pixel sensibilmente più piccoli di un sensore per camere reflex.

Pixel e Megapixel Pixel è un termine coniato alcuni decenni fa, nato dalla contrazione delle parole Picture Element, e sta ad indicare la più piccola porzione di una immagine fotografica. Il prefisso Mega sta per milione, quindi 1 Megapixel, o in breve 1 Mp, sta per 1 milione di pixel. La superficie del sensore è interamente coperta da elementi fotosensibili (i pixel) dalle dimensioni di alcuni micron (millesimi di mm). Ognuno di questi pixel registra la luminosità di una microscopica parte della scena, generando un segnale elettrico proporzionale alla quantità di luce ricevuta. Il software di controllo della fotocamera si incarica poi di analizzare e di elaborare tutti i segnali generati dai singoli pixel per ricostruire l'immagine finale.

Il numero di pixel presenti nei sensori di recente produzione va da 8 a 14 Mp delle nostre normali camere, fino ai 48 Mp e oltre di alcune camere professionali. In teoria disporre di più pixel significa produrre immagini di qualità superiore, ma solo fino ad un certo punto. Se 16 Mp su un sensore di grandi dimensioni possono dare notevoli vantaggi, Infilare 12 Mp sulla superficie di un sensore grande come l'unghia di un bambino è pura follia sotto il profilo tecnico.

Dimensioni del sensore Per la qualità finale delle immagini, le misure fisiche del sensore contano molto di più dei suoi Megapixel. Il motivo è abbastanza semplice da comprendere: consideriamo di avere 10 milioni di 2

pixel su un sensore da 25 mm di una compatta e gli stessi 10 MP su un sensore tipo 2

APS-C di una reflex, che ha una superficie di circa 370 mm , quasi 15 volte più grande. Una differenza macroscopica.

2

a. - Reflex pro – Sensore Full Frame - 36 x 24 mm

864

mm 2

b. - Reflex entry level – Sensore APS-C - 24 x 16 mm (circa)

384

mm 2

c. - Camera del Sistema 4/3 – Sensore 4/3 - 18 x 13,5 mm

243

mm 2

d. - Camera compatta evoluta – Sensore 1/17” - 7,6 x 5,7 mm

43,32

mm 2

e. - Camera compatta tascabile – Sensore 1/25” - 5,75 x 4,31 mm

24,78

mm 2

f. - iPhone – Sensore 3,63 x 2,73 mm

9,90

mm

La differenza più evidente è il cosiddetto “Fattore di Moltiplicazione” (Crop Factor). Come si vede nella fotografia seguente, un sensore più piccolo cattura una porzione minore della scena, a parità di lunghezza focale dell'obiettivo. Come risultato avremo una foto che sembra ripresa con una focale più lunga di 1,6 volte (APS-C) o di 2 volte (4/3) rispetto al risultato del sensore Full Frame (foto intera). In pratica un obiettivo con focale di 100 mm su un sensore 4/3 (crop 2x) si comporta come un obiettivo con una focale di 200 mm.

Il segnale prodotto dal sensore è indirizzato ad un convertitore di segnale analogico/digitale (A/D) ed elaborato da un processore, una Cpu che sistemerà i dati in una memoria espressa RAM [(Random Access Memory), memoria destinata all'esecuzione dei programmi, in cui vengono memorizzati i dati in lavorazione] eseguendo i programmi della ROM [(Read Only Memory), memoria di lettura non volatile che contiene Sistema Operativo e applicazioni - i dati non vengono cancellati spegnendo il dispositivo]; che saranno fissati in via definitiva su una scheda di memoria, “Memory Card” di tipo CF (Compact Flash) più professionale o SD (Secure Digital) schede di dimensioni più contenute che però stanno diventando il punto di riferimento. Lo schema è il seguente: CMOS —> convertitore A/D —> Processore —> Memoria

Il rumore nelle immagini digitali L’aumento dei Megapixel nei sensori delle camere compatte comporta che i singoli pixel non solo diventano sempre più piccoli, ma anche sempre più vicini uno all'altro. E questo crea un ulteriore problema perché lo spazio che divide i pixel è talmente ridotto da non garantire un sufficiente isolamento elettrico, oltre ad un aumento della temperatura durante le riprese. Uno scarso isolamento tra pixel adiacenti provoca uno scambio di elettroni tra pixel (rumore digitale) e quindi una perdita netta di qualità delle immagini che assumono un aspetto granuloso, visibile specialmente nelle aree scure. Quando si confrontano camere della stessa classe si deve cercare la combinazione tra megapixel e dimensioni del sensore che dia la minore densità per cm 2 Questa si calcola dividendo il numero dei Mp per il numero dei cm 2 della superficie del sensore, secondo la formula = b x h : 100, dove i valori di b e h sono espressi in mm. Basta fare pochi semplici calcoli e si trovano differenze macroscopiche. Per esempio, un sensore Full Frame da 12 Mp ha una densità di 1,38 Mp/cm2 , mentre un sensore 1/17” per compatte, sempre da 12 Mp, ha una densità di 27,7 Mp/cm 2 Il rumore nelle immagini digitali si evidenzia in prevalenza come una certa granulosita o puntinatura monocromatica e/o come puntini o macchioline colorate evidenti soprattutto nelle aree scure. In breve, il livello di rumore e influenzato dai seguenti fattori: Dimensioni del sensore. Un sensore grande e significativamente meno rumoroso di uno piccolo Dimensioni dei singoli pixel. A parita di dimensioni del sensore, piu megapixel significa piu dettaglio ma anche maggiore densita e piu rumore Sensibilita ISO impiegata. Poca luce = alto valore ISO = maggiore amplificazione del segnale = piu rumore Forte compressione JPEG Tempi di posa. Tempi lunghi (1-2 sec.) producono rumore cromatico Temperatura del sensore