Micro e nanotecnologia/Microtecnologia/Statistica per tecnologia
Statistica in tecnologia
[modifica | modifica sorgente]Nei processi tecnologici di produzione, la statistica riveste un ruolo importante e molto utile. Analizzando il processo produttivo da un punto di vista statistico è, ad esempio, possibile stimare quanti pezzi (quanti wafer) saranno difettosi in un determinato lotto e, se il pezzo da produrre viene processato da più macchine, si potrà anche individuare, con una certa precisione, la macchina che ha prodotto l'errore. Le tecniche statistiche utilizzate nell'analisi dei processi produttivi sono diverse, tra queste troviamo le mappe di controllo, le tecnoche DoE, Run to Run (R2R) ecc.
Prima di parlare più nel dettaglio delle tecniche appena menzionate, si ritiene opportuno proporre alcuni richiami di calcolo delle probabilità.
Elementi di calcolo delle probabilità
[modifica | modifica sorgente]Variabile casuale normale
[modifica | modifica sorgente]
La funzione di distribuzione normale ha un ruolo centrale in statistica. Tale funzione rappresentata in figura come una campana attorno al suo valore medio
e con una varianza
La rappresentazione analitica di tale funzione è:
La funzione di ripartizione (l'integrale da a della
funzione normale) viene qui di lato mostrata:

Sia la densità di probabilità che la funzione di ripartizione sono due modi differenti di esprimere una probabilità. Si vede dalla figura A che la funzione normale è simmetrica rispetto alla media. La media rappresenta il valore atteso della variabile casuale, mentre la varianza mi dice come sono distribuiti i valori attorno alla media.
La deviazione standard o scarto quadratico medio è un indice di dispersione (vale a dire una misura di una variabile casuale) derivato direttamente dalla varianza, ha la stessa unità di misura dei valori osservati. La deviazione standard misura la dispersione dei dati intorno al valore atteso.
Modello statistico
[modifica | modifica sorgente]La costruzione di un modello statistico avviene per descrivere, comprendere, prevedere, simulare e controllare un fenomeno reale. Si utilizza ad esempio per fare previsioni, per determinare una certa teoria e così via. Un modello statistico è una rappresentazione semplificata della realtà.
Un modello si propone di trovare un legame tra una certa variabile di ingresso X ed una determinata variabile in uscita Y e verifica che tra queste due variabili vi sia un legame causa-effetto. Dimenticando per un attimo i processi produttivi si potrebbe porre, ad esempio, X=reddito e Y=consumo. In effetti il ragionamento da seguire, nell’analisi statistica di un qualsiasi processo, è indipendente dalla natura delle variabili in questione e segue lo schema in figura:

In primo luogo devono essere fissati gli obiettivi che si vogliono raggiungere: quali variabili devono essere legate tra loro, quale tipo di errore i vuole evitare (tale errore andrà minimizzato) ecc…
Si devono poi raccogliere delle informazioni. Le informazioni sono costituite da un campione rappresentativo della grandezza da analizzare; se, ad esempio, si vuole conoscere quanti wafer sono difettosi su un numero di lotti prodotti, si dovranno prendere in esame un certo numero di wafer presi a campione sui wafer totali.
Fatto ciò si sceglie il metodo statistico più ideoneo da utilizzare. Si otterranno dei risultati che andranno confrontati con gli obiettivi che ci si era prefissati. L’esito del confronto permette di capire se le richieste di produzione vengono o meno rispettate (ad esempio si potrebbe richiedere che non vi siano più di 2 wafer difettosi per ogni lotto).
Modello di regressione
[modifica | modifica sorgente]Il modello di regressione è un modello molto utilizzato nell’analisi statistica dei dati relativi a processi produttivi. Esso rappresenta il più semplice modello statistico che permette di studiare la relazione tra due variabili X e Y. Serve quindi per determinare una relazione di causa effetto tra una variabile esplicativa X e una variabile dipendente Y.
Esempio
[modifica | modifica sorgente]Supponiamo di voler depositare 10 nanometri di ossido di silicio perché dobbiamo fare l' isolamento di una certa regione di un dispositvo. I 10 nanometri rappresentano il nostro target e tramite il modello di regressione, in particolare tramite la retta di regressione, riusciamo a capire cosa devo andare a modificare per portare il processo di deposizione di ossido di silicio in target.
Retta di regressione
[modifica | modifica sorgente]La retta di regressione presenta la seguente equazione:
Dove indichiamo con Y la variabile dipendente (es. consumo), X la variabile indipendente (reddito), e il termine di errore che non posso eliminare (va ridotto) mentre con a e b coefficienti costanti. In particolare b rappresenta il coefficiente angolare della retta.
Per costruire la retta si considera un campione di n osservazioni (ad esempio un gruppo di persone), si mettono su un asse cartesiano tutti i punti (X,Y) trovati dall' analisi delle n osservazioni e si vanno a stimare i coefficienti a e b.
La retta di regressione è la retta che minimizza la somma dei quadrati degli errori. In figura si mostra un esempio di retta di regressione:

Costruzione della retta di regressione
[modifica | modifica sorgente]Vediamo come avviene la scelta di una determinata retta di regressione (tra le infinite possibili passanti per un punto del piano), in relazione ai coefficienti a e b, precedentemente definiti.
Come detto, la retta di regressione ottima è quella che minimizza la somma dei quadrati degli errori (si considerano i quadrati degli errori per eliminare il segno degli errori), e quindi:
dove
La stima dei coefficienti a e b avviene quindi attraverso la soluzione del seguente problema di minimo:
Il valore di minimo si ottiene annullando le due derivate parziali, che costituiscono un sistema di due equazioni in due incognite:
la risoluzione di tale sistema fornisce i seguenti valori calcolabili a partire dai dati iniziali:
dove e stanno ad indicare rispettivamente la media delle e delle .
dividendo numeratore e denominatore di b per n-1, otteniamo:
Dai risultati ottenuti si ha quindi che il coefficiente a () può essere interpretato come costante, mentre per il coefficiente b, che corrisponde al coefficiente angolare della retta di regressione, può essere interpretato come la misura della variazione di Y rispetto ad una variazione unitaria dell X data dal rapporto . Una volta calcolati i coefficienti a e b secondo il metodo appena illustrato, risulta individuata univocamente la retta di regressione ottimale.
Le carte di controllo
[modifica | modifica sorgente]Nei processi produttivi è di primaria importanza mantenere un'alta qualità dei prodotti riducendo i costi di produzione. I metodi statistici sono strumenti utili proprio per raggiungere questo obiettivo, essi infatti, consentono di monitorare i processi ed analizzare le possibili variazioni che si presentano. Ciò che interessa, in linea di massima, è ridurre la variabilità del processo in modo che i prodotti risultino conformi ad un certo standard. Se si vede il processo in termini di una funzione normale, quanto detto equivale a ridurre la varianza della gaussiana accentrando i valori intorno alla media, che rappresenta il target produttivo. Le carte (o mappe) di controllo sono una rappresentazione grafica dell'andamento del processo nel tempo e consentono di valutare in maniera immediata se i pezzi prodotti rispettano le specifiche richieste. Il metodo statistico alla base delle carte di controllo è il test delle ipotesi di cui si parlerà in seguito.
Nella mappa di processo viene riportato il target da raggiungere (valore centrale) ed i limiti entro i quali è accettata una certa variabilità del processo. I pezzi prodotti vengono rappresentati con dei punti più o meno vicini al target.

L'UCL (upper control limit) e il LCL (lower control limit) sono i limiti di controllo e vengono settati in termini statistici, un punto al di fuori di tali limiti indica che il processo è uscito fuori controllo. All'interno della mappa possono essere inseriti anche i limiti di specifica (USP e LSP) che rappresentano, invece, i limiti superiore ed inferiore relativi ai parametri di progetto e vengono quindi fissati in termini ingegneristici, un punto che si trovi al di fuori di tali limiti rappresenta un lotto non utilizzabile in quanto non funzionante in modo corretto.
Supponiamo che si voglia controllare una certa variabile, ad esempio lo spessore del resist depositato. Si effettuano delle misure e si riportano i dati ottenuti nella mappa di controllo. Se il risultato è come quello della figura sopra, allora il processo è controllato e lo spessore ottenuto è quello corretto. Se invece si ha una situazione del tipo:

allora il processo è fuori controllo. Ciò vuol dire che non si sta depositando il giusto spessore di resist. Sarà necessario innescare un meccanismo correttivo che riporti il processo sotto controllo eliminando le cause dell'errore (ci sono vari motivi per cui un processo può uscire fuori controllo, ad esempio l'usura di una delle macchine impiegate). L'azione di controllo su un processo produttivo deve essere continuata nel tempo, infatti, una volta controllato, il processo, se lasciato a se stesso, tenderebbe a derivare.
Test delle ipotesi
[modifica | modifica sorgente]Il test delle ipotesi è uno strumento di statistica inferenziale che, come precedentemente accennato, sta alla base delle carte di controllo. Tale test mette a confronto due diverse ipotesi e nel caso si parli di controllo di processo le due ipotesi sono:
- H0 (ipotesi nulla): m = target ossia la media del processo è in target dunque il processo è in controllo.
- H1 (ipotesi alternativa) : m ≠ target ossia la media del processo non è in target dunque il processo è fuori controllo.
Tramite questo test si vuole determinare, da un punto di vista statistico, se il processo è in controllo oppure fuori controllo. Il modo in cui si opera è il seguente:
si osserva un campione della popolazione da analizzare e, in base ai dati raccolti, si calcola una funzione statistica che descriva il processo in esame (può essere una gaussiana, una binomiale e così via). A partire dalla statistica scelta si calcola la probabilità che l'ipotesi H0 sia vera o falsa. In base al risultato ottenuto si sceglie se accettare o rifiutare l'ipotesi H0, questo comporta delle decisioni pratiche sulla gestione del processo produttivo.
Essendo il test delle ipotesi un metodo statistico, le decisioni sono prese in condizioni di incertezza, questo può portare a commettere degli errori.
Si distinguono due tipi di errore:
- errore di primo tipo: si accetta l'ipotesi H0 come vera mentre in realtà era falsa
- errore di secondo tipo: si rifiuta l'ipotesi H0 quando in realtà l'ipotesi era vera
Un errore di primo tipo viene detto rischio del produttore, infatti, tale errore indica la probabilità che un lotto di prodotti che rispettano le specifiche richieste venga scartato (con conseguente perdita economica del produttore). Un errore del secondo tipo è detto rischio dell'acquirente ed indica la probabilità di accettare (e quindi immettere sul mercato) un lotto con caratteristiche di bassa qualità. Ovviamente per un produttore, un errore del secondo tipo è più accettabile di uno del primo tipo.
Design of Experiments (DoE) nei processi di micro- e nano-fabbricazione
[modifica | modifica sorgente]Il Design of Experiments (DoE) è un insieme di metodi statistici che permette di progettare esperimenti in modo sistematico ed efficiente. Nei processi di micro- e nano-fabbricazione il DoE è essenziale perché i parametri di processo sono numerosi, interagiscono tra loro e anche piccole variazioni (dell’ordine di pochi nanometri o pochi gradi) possono influenzare significativamente il risultato finale. Il DoE consente di:
- capire quali parametri influenzano maggiormente il processo;
- individuare interazioni tra variabili che non emergerebbero con un approccio un parametro alla volta;
- creare modelli predittivi del processo;
- ridurre il numero di esperimenti necessari;
- ottimizzare qualità, resa e stabilità del processo.
I processi di microtecnologia e nanotecnologia presentano caratteristiche che rendono indispensabile l'uso del DoE a causa sia delcosto elevato degli esperimenti (litografia, deposizione, incisione), ma anche si ha un'alta sensibilità alle variazioni (ad esempio ±1 nm può cambiare la funzionalità di un dispositivo). Vi sono molteplici parametri (temperatura, pressione, potenza RF, gas) che interagiscono tra di loro maniera complessa. Il Doe si rende necessario per ottimizzare uniformità e ripetibilità su scala wafer-to-wafer e lot-to-lot. Un approccio sperimentale tradizionale, che varia un parametro alla volta (One Factor At a Time), non è sufficiente: non rivela interazioni, richiede molti esperimenti e non permette l’ottimizzazione globale del processo.
Struttura generale di un DoE
[modifica | modifica sorgente]Un DoE ben progettato segue tipicamente queste fasi:
- definizione del problema e della risposta da ottimizzare;
- identificazione dei fattori (variabili indipendenti);
- scelta dei livelli sperimentali;
- selezione del tipo di DoE (screening, ottimizzazione, robustezza);
- esecuzione degli esperimenti;
- analisi statistica (ANOVA, modelli lineari o quadratici);
- validazione del modello;
- individuazione del punto ottimale o della regione operativa robusta.
Tipi di DoE più comuni nella micro/nanofabbricazione
[modifica | modifica sorgente]DoE fattoriali (full factorial e fractional factorial)
[modifica | modifica sorgente]I fattoriali completi testano tutte le combinazioni dei parametri. Sono utili per processi con pochi fattori (2–3) e consentono di valutare:
- effetti principali;
- interazioni a due fattori;
- risposta media e variabilità.
I fattoriali frazionari, invece, riducono il numero di esperimenti mantenendo gran parte dell’informazione. Sono fondamentali nelle fasi di screening, quando sono presenti molti parametri.
Tale metodo statistico è utilizzato soprattutto per sviluppare processi robusti. Le matrici Taguchi (come L9, L16, L27) permettono di valutare molti fattori con pochi esperimenti e includono il concetto di rumore, identificano le condizioni operative che riducono la sensibilità a disturbi esterni migliorando ripetibilità e stabilità del processo. Sono impiegate spesso nella fabbricazione di MEMS, per le deposizioni e il packaging.
La RSM è usata per ottimizzare il processo una volta identificati i fattori importanti. Include sia Central Composite Design che il Box-Behnken Design La RSM permette di descrivere la risposta tramite modelli non lineari (quadratici) generando superfici di risposta e mappe 3D che permettono di trovare sia il punto ottimale del processo che le regioni operative robuste. È usata, per esempio, nell’ottimizzazione della litografia, del PECVD, del RIE e dell’etching con plasma.
Esempi applicati alla micro/nanofabbricazione
[modifica | modifica sorgente]1) Ottimizzazione della litografia
[modifica | modifica sorgente]Fattori tipici:
- dose UV
- tempo di PEB (Post-Exposure Bake)
- temperatura di PEB
- tempo di sviluppo
Risposte:
- dimensione critica (CD)
- uniformità intra-wafer
Il DoE evidenzia interazioni significative, come dose × temperatura PEB, spesso invisibili negli approcci tradizionali.
2) Deposizione PECVD di ossidi o nitruri
[modifica | modifica sorgente]Fattori:
- potenza RF
- pressione
- percentuali dei gas
- temperatura del wafer
Risposte:
- spessore depositato
- stress del film
- uniformità wafer-to-wafer
Il DoE permette di bilanciare uniformità e stress, obiettivo fondamentale nei film sottili in microelettronica.
3) Etching con RIE
[modifica | modifica sorgente]Fattori:
- potenza RF
- flusso dei gas reattivi
- pressione di processo
- bias elettrico
- tempo di etching
Risposte:
- tasso di etching
- anisotropia
- selettività
- rugosità delle pareti laterali
Il DoE rende possibile identificare condizioni che massimizzano l'anisotropia mantenendo una buona selettività verso la maschera.
Integrazione del DoE con il controllo di processo
[modifica | modifica sorgente]Una volta ottimizzato il processo tramite DoE, esso viene integrato con:
- Statistical Process Control: per monitorare stabilità e variazioni;
- Run-to-Run (R2R) control[1]: per aggiornare automaticamente i set-point da un wafer/lotto all’altro;
- modelli predittivi usati per la regolazione continua.
Questo approccio combinato costituisce il cuore del controllo di processo nelle industrie di microelettronica avanzata.
Note
[modifica | modifica sorgente]- ↑ Il Run-to-Run control è una tecnica di controllo automatico dei processi usata nelle fabbriche di micro- e nano-fabbricazione. Consiste nell’aggiornare i parametri di processo dopo ogni wafer o ogni lotto, utilizzando le misure ottenute dal wafer precedente.
BIBLIOGRAFIA
[modifica | modifica sorgente]- John Oakland e John S. Oakland; Statistical process control; Routledge; (2007).