Micro e nanotecnologia/Microtecnologia/Esempi/Sensori di immagine

Wikibooks, manuali e libri di testo liberi.
Indice del libro

Un sensore di immagine è un dispositivo elettronico capace di convertire in segnale elettronico (in genere digitale), l'immagine che viene proiettata su di esso. Il principio base di funzionamento è il seguente: l'immagine viene focalizzata su una griglia composta da una miriade di piccoli sensori puntiformi i quali convertono singolarmente la luminosità rilevata.



Una immagine a colori, si può considerare come una distribuzione bidimensionale dello spettro visibile dell'intensità luminosa. Quest'ultima è funzione delle coordinate x,y, e λ ove la lunghezza d'onda appartiene all'intervallo [400,700] nm. Supponiamo di avere una certa superficie di larghezza W ed altezza H, all'interno della quale cade la nostra immagine da “catturare”:



In ogni punto della superficie dell'immagine, incide una radiazione luminosa, con una certa caratteristica spettrale che ricade nel visibile. Dunque “catturare” una immagine, non significa dover registrare l'intero spettro in ogni elemento della superficie di larghezza W e altezza H, bensì si deve considerare il campionamento spaziale ed il campionamento spettrale.

Campionamento spaziale[modifica]

Il campionamento spaziale fa si che la superficie che contiene l'immagine, sia suddiviso in un numero finito di elementi, i pixel (contrazione della locuzione inglese picture element).

Una risoluzione di 5 Mpix si raggiunge con W x H pari rispettivamente a 2048 x 1536. La diagonale (dell'area W x H) misurata in frazioni di pollice, costituisce l' optical format. Ovviamente la risoluzione del sensore (misurata in Mpix) e l'optical format determinano la dimensione dei pixel (pixel size).

Come si realizza un pixel[modifica]

Un pixel non è altro che una giunzione p-n la cui capacità si scarica in base al numero di elettroni fotogenerati che fluiscono trascinati dal campo elettrico. Come ben sappiamo, il silicio, ha le proprietà di generare coppie elettrone/lacuna, in seguito all' assorbimento di fotoni aventi una certa frequenza (quindi una certa energia) maggiore del gap di energia tra la banda di valenza e la banda di conduzione (vedi figura di seguito).

L'energy gap nel silicio è pari a 1.12 eV a temperatura ambiente. Dunque se il fotone arriva con una certa energia E = hν (h costante di Planck e ν la frequenza), maggiore di Eg, esiste una probabilità diversa da zero che il fotone venga assorbito e crei una coppia elettrone/lacuna.Il silicio è capace di assorbire le lunghezze d’ onda inferiori a circa 1.1 μm, quindi, è un buon candidato per la realizzazione dei sensori di immagine (infatti siamo interessati a lunghezze d’onda comprese tra 0.4 e 0.7 μm). L' espressione E = hν può essere riscritta come E = 1.24/λ. Consideriamo uno spessore x di silicio ed incidiamo con una certa energia E = 1.24/λ:

Chiamiamo con Φ(x) il flusso di fotoni in funzione dello spessore x del silicio. L'andamento di Φ(x) è un andamento esponenziale, perché entra in gioco il coefficiente di assorbimento α(λ). Infatti all' interfaccia con il silicio, avremo il massimo flusso di fotoni, poi, al crescere dello spessore del silicio, il flusso di fotoni diminuirà con legge esponenziale dipendente dal coefficiente di assorbimento e naturalmente dallo spessore x. Inoltre il coefficiente di assorbimento dipende dalla lunghezza d' onda e quindi non tutte le lunghezze d' onda vengono assorbite allo stesso modo. Per capirci meglio, l' assorbimento della luce blu, risulterà maggiore dell'assorbimento della luce verde, maggiore della luce rossa e così via. Si dimostra che per lunghezze d' onda inferiori a 1100 nm il coefficiente di assorbimento diventa zero ed il silicio quindi diventa trasparente (non assorbe più).

Una volta che si è generata una coppia elettrone/lacuna, applicando una tensione inversa Vr ad una giunzione p-n, riesco a separare tale coppia elettrone/lacuna perché riesco a caricare la capacità della giunzione. In altre parole, il campo elettrico presente nelle zone svuotate separa lacuna ed elettrone, quindi, la lacuna va verso massa e l' elettrone va verso la superficie diminuendo la caduta di tensione (dV) ai capi della capacità. Maggiore è il numero di elettroni fotogenerati nelle zone svuotate, maggiore sarà la riduzione della caduta di potenziale. Tale potenziale sarà pari al rapporto tra la carica fotogenerata e la capacità della giunzione. Mentre le coppie elettrone/lacuna generate al di sotto delle zone svuotate, si ricombineranno dopo un certo tempo. Un semplice pixel sarà così composto:

Quindi ricapitolando, un pixel in generale funzionerà nel seguente modo:

  1. Si polarizza inversamente una giunzione p-n (fotodiodo)
  2. Si espone il fotodiodo alla luce e si aspetta un certo tempo di esposizione per accumulare gli elettroni nel fotodiodo (si deve accumulare carica fotogenerata).
  3. Si deve poi procedere nella lettura del pixel (in realtà non si avrà un semplice pixel ma un array di pixel) che avviene andando a convertire il segnale sotto forma di carica fotogenerata, in un segnale in tensione.

Secondo le considerazioni appena fatte, possiamo definire il pixel come una giunzione p-n la cui capacità si scarica in ragione del numero di elettroni fotogenerati, che fluiscono trascinati dal campo elettrico. Nel caso della giunzione p-n, la capacità è dovuta alle cariche spaziali contrapposte, formatesi per la migrazione (per diffusione) delle lacune verso la zona n, e degli elettroni verso la zona p.



Quando un fotone viene assorbito nella zona svuotata, fa saltare un elettrone dalla banda di conduzione a quella di valenza. L'elettrone e la lacuna vengono poi trascinati dal campo elettrico in direzioni opposte, neutralizzando la contrapposta carica spaziale.



Il risultato è che la tensione ai capi della giunzione p-n è minore, poiché minore è la carica spaziale contrapposta. Quanto appena detto è il motivo per cui la fotoconversione ha "scaricato" la capacità. In seguito si vedrà che l'utilizzo di una giunzione p-n come fotodiodo in una matrice di pixel non garntisce un'accettabile qualità dell'immagine.

Campionamento spettrale[modifica]

Per ogni pixel, conservo il vettore dei valori d' intensità per ogni lunghezza d' onda, costituito dalla terna di valori R,G, B. Questo perché ogni colore può essere rappresentato mediante tale terna di valori.

Figure di merito dei sensori di immagine[modifica]

Per fare avvenire la fotogenerazione, si deve accedere alla zona attiva del pixel. La superficie del pixel risulta essere maggiore della zona attiva perché una porzione di area del pixel servirà per transistor o ad esempio shift registers. Quindi si definisce fill factor il rapporto tra l'area attiva del fotodiodo e l' area del pixel (espressa in percentuale). Per aumentare il fill factor, si fa convergere l'intensità luminosa incidente l'area del pixel, nella sola area attiva tramite l'utilizzo di microlenti. Ciascuna microlente viene posizionata sul pixel in modo da convogliare tutti i fotoni incidenti, nella zona attiva. Per rendere l'immagine a colori, si devono utilizzare particolari filtri al di sopra di ciascun pixel in modo da selezionare le diverse componenti spettrali della luce.



Sensori di immagine CMOS[modifica]

I sensori dei immagine a stato solido attualmente in commercio, sono principalmente di due tipi, entrambi prodotti a partire da substrati di silicio:

CCD (Charge coupled device)

CMOS (complementary MOS)

Allo stato attuale, l'industria della fotografia digitale utilizza principalmente questi due tipi di sensori di immagine, i quali presentano caratteristiche diverse tra loro; principalmente però la scelta ricade sui sensori CMOS, i quali presentano una serie di vantaggi di seguito riportati:

  • La stragrande maggioranza dell'elettronica di consumo è basata sulla tecnologia CMOS. Quindi per produrre sensori CMOS si possono utilizzare gli impianti produttivi esistenti;
  • Il processo tecnologico CMOS, dato che è utilizzato per tutta l'elettronica digitale, consente di integrare perfettamente all'interno dello stesso chip sia il sensore di immagine che l'elettronica per il processamento dell'immagine. Questo non è possibile nei sensori CCD, in cui il processamento avviene in un chip separato dal sensore.
  • L'elettronica CMOS richiede tensioni di lavoro inferiori rispetto ai CCD. Questo fattore riduce la dissipazione di potenza, favorendone l'utilizzo su dispositivi mobili alimentati a batteria.
  • I sensori CMOS permettono il cosiddetto read-out "x-y", ovvero la possibilità di selezionare pixel a piacere all'interno dell'array- Questo permette ad esempio di leggere un determinato riquadro all'interno dell'array (windowing), oppure di leggere un pixel ogni 4 (skipping). Questo sottocampionamento è utile ad esempio per ridurre il consumo di energia in preview mode, poiché solo una parte dei pixel vengono effettivamente attivati. Tutto ciò non è possibile realizzarlo nei sensori CCD.