CCD, MOS E L'EVOLUZIONE DEI SENSORI

.
.
.

.
.
.
 
fig. 1 - Un CCD è formato da un certo numero di elementi di base (pixel) disposti in file e in colonne. Questi pixel sono formati da due elementi: un fotodiodo (in blu) e un'area dove viene trasferita la carica (in verde) e dove la carica resta in attesa di essere letta in modo seriale, ovvero un pixel dopo l'altro. 
L'affiancamento di un fotodiodo e di una area produce una struttura a colonne.
 
FIG 2 - La luce (freccia rossa) che colpisce il fotodiodo viene trasformata in una carica elettrica proporzionale alla quantità della luce. In altre parole, vi è una trasformazione dei fotoni in cariche elettriche. 
Questa carica (pallino giallo) viene generata dal fotodiodo (in blu) , e trasferita nell'adiacente area 
di raccolta (verde) . 
La carica qui immagazzinata è dunque proporzionale alla luce che ha colpito quel fotodiodo. E' importante notare che (area dopo area) vi è una quantità di carica che è proporzionale alla luce che l' ha prodotta, e quindi nelle varie aree vi è una "matrice elettronica " dell'immagine luminosa
 
 
FIG 3 - Vi sono dei conduttori (disegnati in rosa) che collegano le varie aree ctr presenti su ciascuna riga. Vi è un dispositivo per la serializzazione dei segnali presenti su una riga (è disegnato in azzurro) e un secondo dispositivo (disegnato in rosa) , che provvede a leggere i valori di carica man mano dall'area passano al conduttore rosa.
Provate ad osservare questa figura; a destra è schematizzato un flash che emette luce in varie direz<ioni. Una certa quantità di luce (x) entra nell’obiettivo e colpisce il sensore (rosso). Qui vi sono solo qquattro pixe, e quindi ciascun fotodiodo raccoglierà un quarto della quantità di luce catturata dall’obiettivo (x/4)
Questo caso è esattamente come il precedente, solo che abbiamo immaginato un sensore con 25 pixel. E’ chiaro che ciascuno di questi pixel raccolgie solo un venticinquesimo della luce totale che è entrata. Siccome la carica prodotta è proporzionale alla quantità di luce ricevuta,  il segnale emesso da questo CCD sarà molto più basso (una frazione!) di quello emesso dal CCD della figura precedente.  Qui occorre dunque applicare una forte amplificazione, con il rischio di amplificare anche il disturbo di fondo, e rendere una immagine più “sporca”. 
Osservate la figura: vi è un segnale elettronico (schematizzato dall’onda rossa) e in basso il disturbo di fondo presente in ogni immagine. Quando il segnale è forte l’immagine sovrasta la granulosità di fondo, ma nei punti e quando il segnale e’ debole (come a sinistra) il disturbo è superiore all’immagine, e questa risulta granulosa e scadente.
L’amplificazione del segnale non è sufficiente a risolvere il problema: se si amplifica, ecco che si amplifica tutto (segnale e disturbo). Infatti (trascinando verso l’alto il segnale elettrico) la situazione non cambia, perché dove c’era la granulosità di fondo, c’è ancora tale e quale.
Oggi si affaccia una nuova possibilità; quella di usare un software intelligente che quando serve “raggruppa” i segnali delle singole celle: ad esempio, in alto a destra si può raccogliere il segnale di quattro celle (quelle colorate in blu), e quindi in uscita si ha un segnale quattro volte più forte di  quello che si raccoglie in ciascuna delle celle in rosso. In quell’area si ha una definizione inferiore, ma si ha un’immagine più “pulita”, priva di disturbo anche con una bassa luminosità….

..
.
.

.
.
Oggi le immagini si riprendono con diversi dispositivi. Essendo ormai in  ribasso i vecchi “tubi” da ripresa, ecco che i vari sistemi di acquisizione (videocamere, videocitofoni, webcam, scanner, macchine fotografiche digitali…) usano in prevalenza CCD. 
I CCD rappresentano ormai una tecnologia collaudata, in quanto datano ormai da più di venticinque anni. Mentre i CMOS sono un po’ più recenti, ma si vanno scavando un loro spazio di mercato sempre maggiore, soprattutto nelle appplicazioni amatoriali.

LA FORMAZIONE DELL’IMMAGINE 

I CCD sono sensori , ovvero dei dispositivi “sensibili” alla luce, che la rivelano in termini di segnale elettronico. Ancora più correttamente possono essere deiniti dei trasduttori opto-elettronici, ovvero dei dispositivi che “traducono” , ovvero “trasformano” la luce (da cui la radice opto- ) in un segnale elettronico.
Si presentano come dei piccoli rettangoli, costituiti da un grande numero di celle, pixel  o “elementi di base”, come li volete chiamare.
Oggi vi è una vasta gamma di sensori, che contengono un numero di elementi di base basso (es. le webcam, i videocitofoni…) medio (es. quelli delle videocamere o delle macchine fotografiche digitali, che possono contenere alcuni milioni di elementi di base) e elevato (es. i sensori adottati per le applicazioni in astronomia, che contengono ciascuno oltre 10  milioni di elementi di base).

In ogni caso, dal più semplice al più ricco, ciascun CCD è costituito dunque da un numero X di elementi di base (pixel). Essi sono disposti disposti in righe (= file orizzontali)  e in colonne (= file verticali) , quindi lungo gli assi X e Y.
Ciascun singolo elemento di un CCD è composto da due parti, ovvero da due dispositivi distinti: 
1-il primo è rappresentato un fotodiodo e 
2-il secondo da un’area di trasferimento della carica (ctr, charge tranfer region). Ogni fotodiodo è affiancato da un ctr. Ne consegue che la struttura dei CCD è formata da colonne alternate di fotodiodi e ctr (vedi figura).

1- Il fotodiodo è un dispositivo elettronico in grado di trasformare la luce in una carica elettrica. In altre parole, quando viene colpito dalla luce accumula una certa carica, che è proporzionale alla luce che ha ricevuto. Se ha ricevuto molta luce troveremo una carica più elevata, se la luce era inferiore vi sarà una carica inferiore. 
E’ intuibile come  questo dispositivo sia il “cuore” che genera la fotografia elettronica: se si immaginano molti fotodiodi affiancati come in un mosaico, ecco che nei punti in cui vi è molta luce vi sarà un segnale elettrico maggiore, nei punti in cui viè scarsa luce vi è un segnale elettrico minore. Si è costruita una specie di “matrice” che (punto dopo punto) riproduce in termini di corrente quello che è la luminosità di ciascun punto di una immagine. 
In pratica, il sensore viene esposto pr un breve istante alla luce, grazie ad un sistema di otturazione che ottiene un effetto simile a quello del classico scatto fotografico che imprime la pellicola.  A livello di ciascun diodo si crea una carica proporzionale alla parte dell’immagine che lo ha illuminato.

UNA SOLUZIONE GENIALE PROSSIMA VENTURA

A questo punto del discorso sono evidenti due cose:

1-più numerosi sono i singoli fotodiodi del sensore, più accurata è la lettura dell’immagine. 
Infatti i molti fotodiodi possono leggere ciascuno un piccolo dettaglio dell’immagine luminosa, mentre un numero più piccolo di elementi di base fa sì che ciascuno di loro “copre” un’area più vasta, e la carica accumulata da ciascuno non è che la media dei piccoli dettagli luminosi che hanno colpito quella (vasta) superficie del sensore. 
- La soluzione  Per rendere più definita l’immagine si vanno diffondendo sensori con un grande numero di elementi di base. Non troppi anni fa un’immagine tipica, ottenibile da una fotografia digitale, aveva circa 350.000 pixel, corrispondenti ad un’immagine di 640 x 480 punti. Oggi una immagine con un numero di pixel da 5 a 10 volte maggiore è considerata ancora di classe media. Vi sono anche macchine fotografiche amatoriali che hanno un numero di pixel enormemente superiore rispetto a quel valore: vi sono in commercio sensori da 5-6 milioni di pixel. Si assiste dunque ad un continuo incremento del numero di pixel, e ormai la definizione di una immagine digitale inizia ad essere dl tutto adeguata per la maggior parte delle applicazioni pratiche a cui può essere destinata.
Un sensore con un numero elevato di pixel comporta dei costi elevati per le piccolissime dimensioni in gioco: vi sono ormai delle celle con dimensioni inferiori agli 8 micron. Tanto per rendere l’idea, siamo ad elementi dle tutto invisibili ad occhio nudo (per distinguerle serve un ottimo microscopio) e sono dimensioni analoghe a quelle dei globuli rossi del sangue. Se si pensa che queste celel contengono il sensore, una lente individuale perfettamente centrata (se non si perde luminosità) e vari altri accessori, ci si rende conto di quale equilibrismo tecnologico rappresenta oggi il cuore di una fotocamera digitale!
Ma il costo è dato anche da  un altro motivo: serve una grande precisione nella lavorazione perché dal punto di vista probabilistico (su un numero enorme di pixel) è facile che qualcuno di questi elementi di base esca difettoso. Più aumenta il numero di fotodiodi più aumenta questa probabilità. Se le tolleranze fossero di un fotodiodo difettoso ogni cinque milioni di fotodiodi, vi sarebbe un difetto ogni cinque sensori da 1Mpixel mentre i sensori da 6 Mpixel sarebbero tutti difettosi!
In effetti nelle comuni macchine fotografiche è facile trovare qualcuno di questi pixel difettoso, non funzionante, chiamato in gergo “hot pixel”. La presenza di queste aree difettose si manifesta in forma di piccoli “buchi” nella lettura dell’immagine; in pratica, si hanno dei puntini fissi che in quel luogo non “leggono” nulla. Ma molti utenti sono ossessionati in modo eccessivo dalla presenza o meno nella loro fotocamera di questi hot pixel: ce ne sono, sono comuni, ma spesso li si scorge appena appena. In altre parole, se mancano è meglio, ma se sono in dosi fisiologiche  non danneggiano  le immagini più di tanto.
 

2-più sono numerosi i singoli fotodiodi del sensore, meno carica vi è su ciascun fotodiodo a parità di immagine, e quindi si ha un segnale più debole. 
Supponiamo che una certa immagine sia composta da una quantità X di luce, che esemplifichiamo con un numero convenzionale, ad esempio, col numero  “1000”. Se i sensori sono dieci, ciascuno di loro riceve 1/10 della luce e quindi restituisce una carica di  (1000/10=) 100. Se i sensori sono 10.000, si suddividono in diecimila la quantità di luce che li h colpiti e quindi ciascuno di loro dispone di una carica di(1000/10.000=)  0,1.  Ne consegue che (almeno in teoria) una immagine prodotta da un sensore con maggior risoluzione (es. 2 o 3 Mega pixel) sia meno luminosa di un’immagine ottenuta da un sensore di 1 Mega Pixel. Questo accade in teoria, perché naturalmente un segnale debole può essere amplificato elettronicamente. Questa amplificazione però rischia di innalzare (oltre che il segnale utile) anche il disturbo, la granulosità di fondo, e di non permettere quindi la resa di una immagine pulita e nitida. 
Da questo discorso si deduce che i sensori con un numero di pixel elevato devono essere costruiti con grande cura e disporre di un rapporto tra segnale e disturbo di fondo particolarmente buono, se non si vuole che l’immagine sia di cattiva qualità.
- la soluzione: Chi ha seguito il discorso fin qui ha compreso il motivo per cui un sensore con pochi pixel produce un’immagine pulita ma poco definita, e una con un sensore dotato di molti pixel produce un’immagine con molti particolari ma poco luminosa o affetta da rumore di fondo (=sono due facce della stessa medaglia, e una figura dovrebbe spiegare il perché queste due cose sono correlate…). Recentemente è stata prospettata una soluzione intelligente: si è creato un sensore con molti elementi di base, ma il segnale di questi può essere “raggruppato” in modo variabile a seconda della situazione contingente. Immaginate che vi sia un software raffinato ed “intelligente” che raccoglie il segnale di più pixel contigui quando serve raccogliere una notevole quantità di luce (=luminosità e pulizia a scapito della definizione) mentre raccoglie i segnali pixel per pixel nei casi in cui serve molta definizione anche se a scapito della luminosità. Attendiamo con ansia di poter provare uno di questi sensori per vedere se il risultato è all’altezza delle aspettative: di certo questa è  un’idea geniale.

Una volta che l’immagine luminosa è stata trasformata in una serie di cariche elettriche distribuite su una superficie, si tratta di gestire, trasferire, immagazzinare, trasportare e poi (alla fine) convertire di nuovo queste cariche elettriche in luce. E ricostruire così l’immagine luminosa che ha generato le singole cariche su ciascun elemento.
Ecco che all’inizio di questo processo di elaborazione entra in scena il secondo dispositivo, ovvero il ctr.

IL TRASFERIMENTO E LA TRASFORMAZIONE IN SEGNALE

Per iniziare il lungo processo accennato sopra, occorre per prima cosa  leggere queste cariche ad una ad una, operando così un lavoro di “serializzazione” delle singole cariche. In altre parole, si tratta di prendere la luminosità di ciscuna tessera di un mosaico e di metterle in fila una dopo l’altra come perle in una collana: ciascuna perla sarà più o meno “scura” a seconda di come era la sua luminosità a livello del mosaico. Per descrivere questa operazione in altro modo, più tecnico, si tratta di trasformare una matrice di elementi bidimensionale XY (righe e colonne) in una codifica bidimensionale (un segnale dopo l’altro, su una sola riga…) Possiamo distinguere tre aspetti:

1 Trasferimento dal diodo al ctr. Per prima cosa, ciascun fotodiodo trasferisce la propria carica al dispositivo ctr, ovvero all’area di trasferimento che (come detto) è presente a fianco di ciascun fotodiodo. 
Ora avviene la lettura vera e propria, che viene effettuata in due direzioni: deve venire letto il contenuto dei singoli fotodiodi presenti su una riga, e poi deve esserci la lettura delle varie righe. Questa lettura non avviene in modo così semplice (prima una riga e poi l’altra). Il CCD è  attraversato da una serie di conduttori orizzontali (nel senso delle righe) e ciascun conduttore si collega a tutte i ctr, ovvero alle aree di trasferimento, presenti su una riga. 

2 Dispositivo di lettura orizzontale. Vi è un altro dispositivo ancora, posto lungo la riga, che provvede a “registrare” la carica presente nella colonna verticale di cuisi è parlato, in una sora di “parcheggio” orizzontale.  Un dispositivo di lettura provvede a trasformare le singole cariche elettroniche in corrente. Quindi, un dispositivo temporizzato posto lungo il lato del sensore “riceve” (grazie ai conduttori di cui si è parlato sopra) il segnale di ciascun ctr, uno dopo l’altro. 

3 Dispositivo di lettura verticale. Finito di ricevere il contenuto di una riga, il dispositivo di lettura passa a leggere il contenuto della riga successiva: e anche qui avremo una lettura delle varie colonne dei ctr uno dopo l’altro, operato dal dispositivo di lettura orizzontale. Si va avanti così fino all’ultimo pixel e (nel caso dei sensori destinati alle riprese video) si riparte di nuovo dalla prima riga, in modo da leggere il fotogramma successivo. Quando si è arrivati all’ultimo pixel del sensore che genera una immagine fotografica, la fase di acquisizione può invece dirsi conclusa.

Ecco che si ottiene una fila di cariche elettrche proporzionali alla luce che ha colpito ciascun fotodiodo. Il cammino del segnale è ancora lungo. 
In primo luogo occorre trasformare la carica in un segnale elettronico adeguato (carica/voltaggio) , poi occorre amplificare questo segnale debolissimo in uno più forte, in grado di essere trasferito con cavi od altro ad altri apparecchi, oppure in grado di essere elaborato, registrato, eccetera.
E le cose non sono neanche così semplici, perché fino ad ora si è parlato solo di luminosità dei singoli punti, quando si sa che al giorno d’oggi la quasi totalità delle immagini fotografiche o video sono a colori. Anche la lettura del colore e la gestione dei relativi codici è strutturata in modo molto complesso.
Un discorso adeguato sul colore ci porterebbe lontano, si darà qui per scontato il fatto che si catturano e si processano solo dei colori primari (RGB, rosso, verde e blu) e che dalla mescolanza di questi colori si ottengono tutti gli altri.
In particolare, il colore viene letto ponendo davanti ai vari fotodiodi dei filtri colorati, del colore primario complementare a quello che si vuole catturare. Si legge la carica, e la si codifica nel segnale come corrispondente alla percentuale di quel colore primario. 
Qualche tempo fa si considerava un successo il riuscire a centrare perfettamente il filtro sulla faccia del fotodiodo. E’ facile immaginare che un filtro che combacia al 90% sul fotodiodo sottostante “rubi” il 10% di luminosità. Ma oggi si è andati ben oltre:  vi sono delle tecniche costruttive molto raffinate che permettono non solo di evitare delle perdite, ma addirittura di incrementare la luminosità dell’immagine grazie ad una speciale geometria di questi filtri. In pratica, si costruiscono dei filtri “più grandi” del singolo fotodiodo, in modo che a questo arrivi una quantità di luce maggiore di quella che non arriverebbe se il filtro coprisse solo la sua faccia con un rapporto 1:1. 
Sono dei veri e propri equilibrismi, al limite della massima precisione che si può oggi ottenere a livello industriale, tenuto contro delle dimensioni infinitesimali dei singoli pixel. E’ difficile anche solo immaginare cosa significa lavorare sui bordi di un’area elementare che è grande tre o quattro milionesimi di un sensore con il lato che è inferiore al pollice (2.5 cm circa). 

LA VARIANTE DEI CMOS

  Il nome CCD è (come capita spesso) la contrazione della denominazione in inglese, in questo caso “charge couple device”, ovvero “dispositivo ad accoppiamento di carica”, imperniati come sono sulla coppia fotodiodo/ctr. Accanto a questi vi sono anche dei sensori chiamati CMOS. Questi sono basati sui MOS (Metal Oxide Semiconductor) che sono dei semiconduttori largamente impiegati nelle circuitazioni e nelle applicazioni elettroniche. La variante CMOS è insomma molto vicina alla produzione in grandi quantità di transistor già usati per altri scopi, e quindi (anche indipendentemente dalla sua maggior semplicità nella struttura) comporta dei vantaggi in termini di produzione industriale. Molti sanno che i transistor vengono usati per amplificare il segnale. Ed in effetti il CMOS contiene (pixel per pixel) il fotodiodo che trasforma la luce in elettroni, il dispositivo che trasforma la carica elettrica in corrente, e l’amplificazione del segnale.  Ciascun pixel del CCD è disposto in righe e in colonne e raggiunto da una griglia verticale ed orizzontale: il dispositivo di lettura è molto più semplice di quello dei CCD, perché ciascun pixel può essere identificato come un incrocio tra righe e colonne, un po’ come si fa con la battaglia navale. I singoli pixel vengono quindi letti uno dopo l’altro in modo molto più semplice.  La struttura generale dei CMOS assomiglia molto a quella di un display che riproduce immagini.  L’accoppiamento dei semiconduttori e dei vari dispositivi con ciascun pixel è all’origine della lettera C (“complementary”) che distingue i CMOS dai comuni semiconduttori MOS.
 

LA RICOSTRUZIONE DELL’IMMAGINE

Arrivati a questo punto possiamo ricapitolare la situazione: si ha un segnale elettrico il cui voltaggio (punto dopo punto) è corrispondente alla luminosità dell’imagine. Nel segnale generale viene codificato anche il colore di ciascun punto. La struttura di questo segnale viene costruita in modo diverso a seconda della situazione: si può immaginare che un segnale continuo possa rappresentare una serie di immagini in movimento (la TV o la ripresa video effettuata con una videocamera) mentre un file contenente una serie finita di dati possa rappresentare una fotografia elettronica. 
Ma si può dire che questo segnale (qualunque sia la sua natura e applicazione) è una specie di “codifica” in termini di segnale elettronico della luminosità dell’immagine che l’ha generato, punto per punto, area per area.

Questo segnale può essere immagazzinato in una memoria elettronica (la RAM della macchine fotografica digitale) ma questa possibilità è limitata a pochi casi e quasi sempre provvisoria. Il segnale subisce di solito una ulteriore codifica. Molto spesso questa codifica è di tipo magnetico. 

In parole povere, il segnale elettrico viene trasformato in magnetizzazioni di un supporto (es. l'hard disk, il nastro del videoregistratore…) e come tale viene conservato indefinitivamente. Ma non è sempre una codifica magnetica: non di rado questa ulteriore codifica può essere ad esempio di tipo fisico (sono queste le registrazioni su CD-rom, DVD, ecc., basate su tacche, dei veri e propri avvallamenti fisici disposti sulla superficie di questi mezzi). 
E’ importante notare che il file con l’immagine può passare facilmente da uno di questi supporti all’altro,  ma in modo sempre mediato dal segnale elettronico. Ad esempio, per passare dalla registrazione su Cd-rom ad hard disk si leggono le tacche della codifica meccanica, si genera un segnale elettronico, questo viene trasformato in campi magnetici impiegati per incidere un disco…
In altre parole, qualunque sia il supporto (hard disk, CD, DVD, nastro, disco…) il “nucleo” il centro della codifica resta il segnale elettronico, e il segnale elettronico resta il punto di partenza per generare l’immagine, quando si legge il file da un supporto di immagazzinamento qualunque. Qualunque sia il supporto di memorizzazione (RAM o disco, nastro o altro…) quando si vuol visualizzare l’immagine, di passa dunque a “leggere” il file, a convertirlo in un segnale elettronico, e a decodificarlo in termini di intensità luminosa che (punto dopo punto) corrisponde all’intensità del segnale stesso.
 
 
CCD E CMOS , OGGI E DOMANI

Il CCD è un sensore che produce una qualità d’immagine piuttosto buona, e che viene per questo impiegato in applicazioni scientifiche dove il costo non è rilevante (ad esempio, viene usato per i telescopi spaziali) o professionali (es. per le milgiori macchine fotografiche). Si tratta comunque di un dispositivo molto complesso, che ha bisogno di generatori di frequenze di temporizzazione diverse (es. per la lettura orizzontale e per quella verticale…) e che quindi necessita di una circuitazione e componenti supplementari particolari. 

- Ma rispetto alla tecnologia un po’ più recente e più economica dei CMOS, i CCD hanno il vantaggio di avere un rapporto tra segnale e rumore migliore, di permettere una sensibilità maggiore da parte del dispositivo di acquisizione, di permettere la costruzione si elementi di base (pixel) più piccoli.

- Dal canto loro i CMOS hanno il vantaggio di essere più economici, di integrarsi più facilmente nei circuiti degli apparecchi che li ospitano, di consumare meno corrente (e in questo senso sono molto interessanti a causa della durata critica delle batterie) e di consentire la costruzione di dispositivi più compatti. Questo non tanto per le dimensioni del sensore, ma perché non richiedono quei dispositivi supplementari (es. generatori di frequenze diverse) tipici dle CCD.

E’ ora evidente il motivo per cui vengono impiegati i CCD per le applicazioni in cui –come si diceva sopra- serve la qualità d’immagine a qualunque costo. Dove per “costo” non si deve intendere solo il costo fisico del sensore, ma anche in termini di svantaggio, come il consumo di corrente o l’ingombro. 
In particolare la produzione di una immagine con un elevato rapporto tra segnale e rumore comporta fotografie più nitide, senza la granulosità di fondo che la rende “sporca” e priva della dovuta limpidezza.

Da queste considerazioni, molti esperti ritengono che il futuro della fotografia digitale sarà caratterizzato da un aumento dell’impiego di CMOS per le applicazioni di base, ovvero quelle più economiche (webcam, ecc);  mentre i CCD dovrebbero essere dedicati alle applicazioni con esigenze qualitative superiori. In realtà negli ultimi mesi si stanno aprendo nuove strade, perché queste tecnologie esposte non sono “congelate”, e la ricerca si sta indirizzando verso dispositivi nuovi, magari che usano tecnologie ibride, e comunque sono volti ad ottenere prestazioni sempre migliori, che non siano più quelle caratteristiche dei CCD o dei CMOS di oggi, ma che raccolgano i vantaggi sia dei primi che dei secondi.

.

IL COLORE OGGI E DOMANI

Nel testo si dice che il colore della immagini viene ottenuto ponendo dei piccoli filtri davanti ad ogni cella che contiene un fotodiodo. E’ chiaro che (siccome i colori primari sono tre) l’immagine di un singolo colore primario sarà formata da un numero di letture corrispondente ad 1/3 di quella del numero totale di fotodiodi. In pratica, l’immagine rossa di un sensore da 6M pixel sarà formata da “solo” 1Mpixel, la stessa cosa potrà dirsi dell’immagine verde o blu. 
Per avere una immagine con ciascun colore a piena risoluzione occorrerebbe avere una macchina fotografica contenente tre sensori, uno per il rosso, uno per il verde e uno per il blu. Ed in effetti le migliori videocamere professionali o semiprofessionali usano 3 CCD. 
L’impiego di 3 CCD al posto di uno, se da un lato migliora la definizione del colore, dall’altro lato ha due difetti : aumenta l’ingombro della macchina e costa molto. Il primo problema potrebbe essere considerato il minore: chi vuole certe prestazioni può sopportare macchine un po’ grandi, sempre e comunque paragonabili alle classiche reflex per chimico. Il secondo aspetto potrebbe essere liquidato come il primo (chi vuole la qualità la paghi) ma è uno degli ostacoli alla diffusione delle buone immagini anche a livello amatoriale.
Una possibile soluzione di compromesso è stata proposta da un laboratorio importante, Foveon. La tecnologia è stata battezzata X3.
Si tratta di costruire dei sensori sensibili ai tre diversi colori primari non più in senso verticale, parallelo alla faccia del sensore (come avviene oggi) ma in senso orizzontale, ovvero nel senso della profondità, dall’obiettivo al fondo della macchina. In pratica, la parte superficiale di ciascuna cella è sensibile al blu, la parte centrale al verde e quella in profondità al rosso. Si potrebbe intendere questa tecnologia come quella che permette di costruire tre celle una sopra l’altra, una per ciascun colore. E naturalmente si tratta di una soluzione più pratica ed economica di quella classica, che prevede tre sensori completi affiancati.
Davanti a questa soluzione vi è chi grida al miracolo. Si tratta certo di una soluzione eccellente, in grado di rivoluzionare la qualità della fotografia digitale, aprendo una nuova era. Ma attenzione a non cadere in un facile tranello, in cui sono caduti anche tecnici ed esperti: non si aumenta la definizione dell’immagine (dovuta al segnale di “luminanza”, ovvero al segnale in bianco e nero) ma alla qualità del colore, che viene così liberato da una serie di interferenze e approssimazioni dovute alla sua gestione approssimativa nel sistema precedente. Quindi, questa tecnologia permette in buona sostanza un eccellente miglioramento del colore, senza dover ricorrere a tre sensori distinti.


 


 
Tuttavia un CCD con molti fotodiodi produce un’immagine più pregiata, con più dettagli.
Una immagine catturata da un sensore con pochi pixel è per forza approssimativa, perché ciascun elemento di base scarica nel segnale la media delle cariche generate dalla parte di immagine che colpisce la sua superficie. Ecco un caso esagerato, in cui l’immagine corrispondente ad un dispositivo che ha solo 14 x 11 pixel.
L’immagine successiva corrisponde ad un sensore con un numero di pixel superiore, e (come si vede) la situazione è in netto miglioramento. 
Infine, con un sensore dotato di un numero di pixel sufficienti (nel caso della stampa, con un numero di pixel uguale o superiore alla frequenza del retino usato in tipografia) la foto appare nitida, ricca di dettagli e priva di queste scalettature