Come si forma l'immagine digitale

Da Fototue.it Wiki.

Indice

La luce

La luce è l’elemento primario sia della fotografia analogica che della fotografia digitale, la materia prima del nostro lavoro. Quello che cambia, da un sistema all’altro, sta ovviamente nel come vengono "catturate" le radiazioni luminose riflesse dai soggetti che desideriamo riprendere: tramite alogenuri d’argento nel primo caso, mediante un sensore nel secondo caso.

Altra differenza, parlando di rapporto con la luce tra sistemi di ripresa su pellicola e ripresa digitale, sta nella sensibilità allo spettro: le pellicole fotografiche sono — nelle versioni più consuete, ovvero quelle pancromatiche — sensibili ad uno spettro di radiazioni paragonabile all’incirca a quello che viene percepito del nostro occhio umano (dal violetto al rosso, ovvero da 400 a 700µ), anche se leggermente allargata allo spettro dell’ultravioletto che, infatti, viene filtrato debitamente sia all’interno degli strati della pellicola che, spesso, anche in fase di ripresa tramite opportuni filtri anti-UV. I sensori sono, invece, molto sensibili alle radiazioni infrarosse e tale caratteristica impone l’uso di un filtro che tagli tutte le radiazioni oltre i 700µ per non influire sulla riproduzione tonale dei soggetti da riprendere.


Dalla luce ad un mondo di pixel e di bit

La luce raggiunge il sensore, cuore di un sistema di ripresa digitale, tramite un sistema ottico (obiettivo). Va detto, a titolo di inciso, che è diffusa nel settore l’idea che da un obiettivo destinato alla ripresa digitale non sia richiesta la medesima qualità richiesta da un’ottica destinata alla ripresa su pellicola, ma questo è assolutamente falso; vero, invece, che alcuni costruttori hanno sviluppato o stanno sviluppando ottiche specifiche per la ripresa digitale, le quali sono ottimizzate per rispondere meglio alle esigenze della riproduzione digitale ma, in ogni caso, la ripresa digitale richiede quanto meno la stessa qualità richiesta da una pellicola, per fornire il miglior risultato dal punto di vista qualitativo.

Tornando al nostro tragitto "luminoso", le radiazioni che raggiungono il sensore vengono convertite da esso in flussi elettrici direttamente proporzionali alla quantità di luce ricevuta. Si tratta di uno degli elementi più importanti dal punto di vista qualitativo: il sensore deve essere in grado di produrre una corrente elettrica priva di disturbo sia nelle zone più intense (laddove ha ricevuto più luce, ovvero nelle zone più chiare del soggetto) che in quelle più deboli (zone scure) e uno degli elementi per definire la qualità dei sensori sta proprio nell’analisi del loro comportamento in questi due estremi. Alcune costruzioni prevedono soluzioni per eliminare o ridurre i difetti nella riproduzione dei punti più intensi della luce che altrimenti vengono riprodotti sotto forma di aloni e non di punti nitidi (difetto denominato "blooming") e per ridurre il "rumore" delle zone d’ombra, che solitamente si ottiene raffreddando in modo forzato, oppure usando soluzioni costruttive di altro genere, il sensore.


Definizione di pixel, bit e byte

Sono alcuni dei termini più usati nel mondo dell’immagine digitale, e non hanno in realtà così tanti segreti come in molti ancora credono.

Il PIXEL — nome derivato dal termine: Picture Element — è l’elemento primario che descrive un’immagine digitale di tipo "raster" (esiste un altro tipo di immagine non creata da pixel, che si chiama "vettoriale", come vedremo più avanti); rappresenta, quindi, la base delle fotografie digitali, siano queste acquisite con uno scanner o frutto di una ripresa digitale diretta. Il pixel potrebbe, in termini metaforici, essere definito la "grana" dell’immagine digitale. Le informazioni contenute all’interno di ogni singolo pixel sono influenzate, come vedremo qui di seguito, dal campionamento A/D che il nostro sistema digitale ci fornisce; queste informazioni (possiamo chiamarli dati, se volete) possono essere 8, 10, 12 per ogni pixel e si esprimono con un valore che viene chiamato BIT. In pratica il "computer" legge l’informazione di un pixel, analizzando i singoli "bit" che lo descrivono.

Il BYTE non è altro che un "aggregamento" di 8 bit, il che significa che se un pixel è formato (come spesso avviene) da 8 bit, si può anche dichiarare che quel determinato pixel è formato da 1 byte di informazione. Il byte, in quanto tale, serve forse a poco nella spiegazione del come i pixel vengono interpretati dal computer (dire 8 bit o 1 byte è la stessa cosa, e sembrerebbe quindi un’equivalenza inutile). Nella realtà, il linguaggio dei computer parla di Kilobyte, di Megabyte, di Gigabyte, tutti valori che derivano direttamente dal byte, e quindi è bene abituarsi anche al byte per poter comprendere più facilmente i calcoli che vedremo più avanti per calcolare la risoluzione. E’ bene segnalare che:


1024 byte formano un Kilobyte (Kb) 1024 Kb formano un Megabyte (Mb o "mega") 1024 Mb formano un Gigabyte (Gb, o "giga") e che, se proprio volete saperlo… 1024 Gb formano un Terabyte (Tb, o "tera").


Immagine raster: una mappa di pixel

La caratteristica che influenza maggiormente la qualità dell’immagine, ed anche l’immaginario collettivo, è legato alla risoluzione spaziale del sensore, ovvero al numero di celle fotosensibili che sono disponibili sull’area del sensore. Un numero elevato di celle è in grado di suddividere l’immagine in più punti, consentendo quindi di catturare un numero superiore di dettagli. E’ corretto interpretare un’immagine digitale come ad una mappa composta da tanti quadratini (i pixel) che suddividono l’immagine in piccoli tasselli. Appare ovvio che se la nostra immagine viene rappresentata da una mappa di 2 milioni di tasselli ci fornirà una quantità di elementi di informazione inferiore rispetto ad una mappa di 6 milioni di pixel. Nella realtà, però, la quantità di pixel è determinante non in termini assoluti, ma in funzione della distanza di osservazione, del fattore di ingrandimento al quale vorremo sottoporre l’immagine e della "qualità" che viene richiesta dal mezzo che useremo per la visualizzazione dell’immagine (una stampa, un monitor, un fotocolor).

Per essere ancora più corretti, esiste un rapporto diretto e "fisico" tra la quantità di pixel necessari per visualizzare correttamente un’immagine digitale in una determinata area e la capacità percettiva dell’occhio umano di distinguere o meno i singoli elementi che compongono l’immagine. Un esempio pratico ci viene dalle pubblicità stampate sui cartelloni delle strade: finché li osserviamo a media o grande distanza, non siamo in grado di percepire che l’immagine è prodotta da tanti punti di un retino, ma quando li osserviamo da vicino "scopriamo" la tramatura evidentissima di tale riproduzione. L’occhio umano, infatti, non è in grado di distinguere singoli elementi di un’immagine se essi sono più piccoli di una determinata dimensione, e quindi li fonde insieme ottenendo la percezione di un "tono continuo". La dimensione dei singoli pixel non dovrebbe mai superare tale soglia, quindi è necessario interrogarsi sulle applicazioni previste per le immagini digitali che andremo a produrre, sia per evitare la carenza (che porterebbe a vedere ad occhio nudo la "tramatura" della mappa dei pixel), sia l’eccesso (che ci impone di "trasportare" una quantità eccessiva ed inutile di informazioni, quindi di bit, byte, Kb, Mb…).

La risoluzione, che in seguito vedremo come calcolare, è il risultato della definizione della QUANTITÀ di informazioni necessarie per una determinata applicazione, e per quanto riguarda il digitale, non è direttamente collegata alla QUALITÀ dell’immagine in termini assoluti.


Come calcolare la risoluzione

Abbiamo visto che un’immagine raster è composta da pixel, e che la quantità necessaria di pixel è influenzata dal rapporto tra dimensione finale dell’immagine, distanza di visione e tipologia di mezzo usato per la visualizzazione. Partiamo da quest’ultimo elemento, perché ci consente di fare subito un "distinguo" che ci faciliterà la comprensione successiva. Nominalmente, è stato determinato che per ottenere una stampa di buona qualità, da osservare ad una distanza normale di lettura (40/50 cm), sono necessari, circa, 300 punti per pollice. Il condizionamento dei valori espressi in "pollici", invece che in centimetri, dovremo tenercelo per tutta la vita, perché i primi che hanno pensato di fare studi su questo tema usavano comunemente i valori espressi in pollici, e non in centimetri. Poco male, se ci teniamo in mente che 1" (pollice) è rappresentato da 2,54 cm.

Questo significa, per essere molto pratici, com’è necessario quando ci si esprime con calcoli matematici a persone che di professione si occupano di immagine e di creatività, che: una riga della lunghezza di 1" (2,54 cm) viene formata da 300 punti.

E che: in un quadratino di 1x1 pollice (1" pollice quadrato) potremo contare: 300x300 punti = 90.000 punti.

Per fare un confronto con dimensioni più reali, più vicine alla realtà fotografica, tutti noi sappiamo che la più conosciuta tra le pellicole di grande formato è il 4x5 pollici, ovvero una dimensione in centimetri pari a 10,2x12,7 cm. Se dovessimo acquisire con uno scanner questa pellicola per poi riprodurla sulla stampa in formato 1:1 (senza alcun ingrandimento, come se la riproducessimo a "contatto") alla risoluzione di 300 punti per pollice, dovremo fare questo calcolo: 4 pollici x 300 punti = 1200 punti 5 pollici x 300 punti = 1800 punti

Questo significa che l’area complessiva dei punti richiesti è di 1200x1800 = 2.160.000 punti/immagine

Questi "punti" sono ovviamente dei "pixel", i punti/immagine che se descritti con un campionamento "normale", contengono 8 bit (o 1 byte) ciascuno (vedere sezione dedicata alla profondità dei bit). Proseguendo il nostro calcolo (ma siamo quasi alla fine…), se i nostri 2.160.000 pixel sono formati ciascuno da 1 byte di informazione ciascuno, allora: 2.160.000 pixel = 2.160.000 byte Abbiamo finalmente l’equivalenza tra numero di pixel e dimensione del file che otteniamo, che, se seguiamo le equivalenze sopra citate, scopriamo che: 2.160.000 byte : 1024 = 2110 Kb se desideriamo infine avere il valore in Mb, ovvero nei termini più consueti, dovremo ulteriormente dividere questo valore per 1024, ottenendo: 2110: 1024 = circa 2 Mb. Un’immagine stampata quindi a 300 punti per pollice, di dimensione pari a 4x5" (10,2x12,7 cm) occupa, all’incirca 2 Mb.

SCORCIATOIA: Se non siete appassionati della precisione assoluta di calcolo, e volete avere una valutazione obbiettiva, ma pratica, della dimensione, in Mb, di un’immagine digitale e ne conoscete il numero di pixel (per esempio, sapete che una fotocamera digitale usa un sensore da 6 milioni di pixel), potete tranquillamente, con un briciolo di approssimazione, valutare che:

1 milione di pixel = 1 Mb

Come potete vedere dai calcoli sopra riportati, non è esattamente così, ma il risultato è simile e… si risparmia un sacco di tempo. Attenzione: fino a questo momento, abbiamo parlato di immagini riprodotte con un’unica mappatura di pixel, anche definita ad 1 canale. Questo significa che, nella realtà, noi abbiamo riprodotto un’immagine solo considerando le componenti della densità (chiaro/scuro). Per dirla più banalmente, il calcolo che abbiamo sopra spiegato si riferisce ad un’immagine in bianco e nero. La risoluzione, così come l’abbiamo calcolata, si riferisce al parametro (300 punti) che è quello definito nominalmente per una stampa di qualità. Questo parametro cambia, però, se si usano le immagini per altre applicazioni. Qui di seguito riportiamo alcuni valori (sempre nominali) di risoluzione per applicazioni specifiche:

Stampe d’arte 400 Stampa su periodici/rotocalchi 225 Stampa su quotidiano 90 Monitor 72

Cosa significa tutto questo? Che se dobbiamo usare le immagini per applicazioni che richiedono una risoluzione inferiore, possiamo acquisire un numero inferiore di pixel, oppure — a parità di numero di pixel — si potrà ottenere una riproduzione più grande rispetto a quelle che potremmo ottenere ad una risoluzione più alta. Non ci stuferemo mai di ricordare che MAGGIORE RISOLUZIONE nel digitale non significa disporre di MIGLIORE QUALITA’, ma di poter ottenere IMMAGINI PIU’ GRANDI, a parità di qualità finale.


La formazione del colore con la sintesi additiva (RGB)

Una volta che abbiamo compreso il calcolo della risoluzione pixel di base x pixel di altezza x indice qualitativo (per esempio: 300 punti) sappiamo che questo calcolo ci fornisce un valore espresso in pixel e che ci definisce la risoluzione di un "canale", ovvero dell’immagine acquisita nelle sue componenti di densità, ma non di colore. Come fa un sistema di acquisizione digitale a riprodurre il colore? Unendo le componenti di densità relative alle tre componenti cromatiche primarie della sintesi additiva: il blu, il verde ed il rosso. Maggiori informazioni sulle tecniche di acquisizione di una fotocamera digitale, di un dorso o di uno scanner le potete trovare nella sezione dell’input, direttamente collegata a questo discorso ovviamente, ma quello che ci preme è spiegare che, dal punto di vista della risoluzione, per riprodurre le immagini a colori dovremo sommare i tre canali — quello del blu, del verde e del rosso — come se avessimo tre fette di prosciutto in un panino.

Se riprendiamo l’esempio citato nel paragrafo precedente, avremo: 2.160.000 pixel x canale = 2.160.000 x 3 canali (RGB) = 6.480.000 pixel La nostra immagine a colori (RGB) alla profondità di 8 bit (8 bit per pixel) occuperà quindi 6.480.000 byte, e quindi all’incirca 6 Mb (usando la logica della "scorciatoia" sopra citata. Quando si parlerà di immagini riprodotte in quadricromia (CMYK), scopriremo che dovremo confrontarci non con 3 canali, ma con quattro (come ben chiarisce il termine "quadricromia") e che quindi la dimensione del nostro file crescerà di un ulteriore canale, e quindi, sempre riferito all’esempio di cui sopra, avremmo: 2.160.000 x 4 canali = 8.640.000.

TRANQUILLIZZATEVI: tutti questi calcoli, che sembrano complessi, in realtà sono molto semplici quando si capiscono nella loro logica. Per fornirvi ulteriori sicurezze vi diciamo che: 1.i calcoli si possono fare in automatico, aprendo un qualsiasi programma di elaborazione di immagini: si inserisce la dimensione che si desidera ottenere e la risoluzione di uscita (per esempio, i soliti 300 punti) ed ecco, per magia, che otterrete la dimensione, che potrà essere espressa in pixel, in Mb, oppure come preferirete. 2.per avere sotto mano una serie di dati che vi permettono di inquadrare il problema della risoluzione, eccovi una tabella che vi potete trascrivere o scaricare, per averla sempre sotto mano.

Tabella calcolo risoluzione per immagini in bianco e nero

Rapporto tra dimensione, risoluzione, dimensione in MB (O KB) e numero pixel DIMENSIONE RISOLUZIONE Kb/Mb Pixel

10x15 cm 300 2Mb 1181 x 1772 10x15 cm 225 1,1 Mb 886 x 1329 10x15 cm 72 118 Kb 283 x 425 13 x 18 cm 300 3,11 Mb 1535x2126 13 x 18 cm 225 1,75 Mb 1152 x 1594 13 x 18 72 200 kb 384 x 531

21 x 29,7 (A4) 300 8,3 Mb 2480 x 3508 21 x 29,7 (A4) 225 4,6 Mb 1860 x 2631 21 x 29,7 (A4) 72 490 Kb 595 x 842

42 x 29,7 (A3) 300 16,6 Mb 4961 x 3508 42 x 29,7 (A3) 225 9,3 Mb 3720 x 2631 42 x 29,7 (A3) 72 980 Kb 1191 x 842

Per le immagini a colori, sarà sufficiente moltiplicare x 3 la dimensione in Mb/Kb. Per esempio: A4 (21x29,7 cm) 300 Kb/Mb = 8,3 x 3 (R, G B) = 24,9 Mb


L'immagine vettoriale: quando i pixel non c'entrano

Altro tipo di immagine, ma non composta — come nel caso delle immagini raster — da una mappa di pixel, è quella vettoriale. La differenza sostanziale sta nel fatto che essa viene descritta, come dice anche il suo termine, da vettori e non da pixel, e questa caratteristica consente di essere esente da quella che è una definizione di "risoluzione": un vettore è un segno che viene calcolato descrivendo il suo punto di inizio e quello di fine; ma se modifichiamo tale distanza (banalmente, ingrandendo o rimpicciolendo l’immagine) i valori che descrivono tale vettore vengono ricalcolati in funzione di questa variazione, ma la dimensione del "file" non viene condizionata dalla dimensione di visualizzazione della stessa. Viceversa, un’immagine raster, per poterla riprodurre in dimensioni maggiori, richiede un maggior numero di pixel e, di conseguenza, la dimensione del file aumenta in modo considerevole.

Le immagini vettoriali, dal punto di vista "visivo" sono di fatto dei disegni: non esiste infatti nessun sistema di ripresa digitale, né tantomeno scanner che siano in grado di creare immagini vettoriali; nel caso venga riprodotta una stampa con un disegno, pur creata in modo vettoriale, con uno scanner o con una fotocamera digitale, si otterrà una versione raster (fatta di pixel) della riproduzione su carta del disegno vettoriale. E’ consentito, invece, vettorializzare un’immagine raster, usando opportuni programmi, ovvero creare un tracciato partendo da un’immagine. Questa tecnica è molto utile quando si debbono riprodurre marchi e logotipi, partendo da un’immagine acquisita con uno scanner. Alcune tecniche consentono di vettorializzare con buoni risultati anche delle immagini fotografiche ricche di dettaglio e a colori, ma ovviamente il risultato che si ottiene è quello di un "disegno" derivato da una fotografia.

Le immagini vettoriali, tra le quali troviamo non solo i disegni, ma anche gli elementi di grafica delle pagine stampate (titoli, forme grafiche, testi, lettere), per essere riprodotte correttamente, richiedono un "interprete" per la stampa, denominato RIP, in grado di "leggere" gli elementi che sono descritti in modo vettoriale all’interno della pagina. Nella quasi totalità dei casi, questo "interprete" utilizza un linguaggio che si chiama "PostScript", sviluppato dalla Adobe.


Bit/colore

Una componente molto importante nella riproduzione dell’immagine è però successiva al sensore: la corrente elettrica che il sensore ha ottenuto partendo dalle radiazioni luminose che l’hanno colpito viene inviata ad un circuito denominato A/D converter che si occupa di trasformarla in dati binari, ovvero in bit. Questa conversione può essere più "precisa" o più "grossolana" in funzione della tipologia di campionamento del quale il convertitore è capace: 8 bit/colore, 10 bit/colore, eccetera. In pratica, ogni singola informazione (pixel) può essere descritta da un valore scelto per esempio tra: 2 valori — immagine campionata a 1 bit (nero e bianco) 256 valori — immagine campionata a 8 bit 4096 valori — immagine campionata a 12 bit

Appare evidente che il flusso elettrico, trasformandosi in dato digitale, sarà quanto più preciso e fedele al soggetto originale, più ricco di sfumature se acquisito con un sistema in grado di campionare ogni singola informazione in oltre 4000 variabili rispetto ad un altro che può operare la scelta su 256 valori disponibili.

Strumenti personali