Architetture dei processori/Evoluzioni future

Wikibooks, manuali e libri di testo liberi.
Jump to navigation Jump to search
Architettura Blue Gene/L

Attualmente il più promettente campo per incrementare le prestazioni dei processori è l'elaborazione parallela.

Le strade legate alle altre tecnologie come cache e pipeline sono state intensamente studiate e significativi aumenti di prestazioni seguendo queste strade sembrano improbabili. Incrementi di frequenza dei processori diventano sempre più difficili per limiti tecnologici e fisici, le attuali tecniche litografiche infatti riescono a ridurre le dimensioni dei transistor ma non ad innalzarne le frequenze in modo rilevante sia per problemi di produzione sia per problemi di consumo e di dissipazione, processori che consumano 100 Watt sono difficili da dissipare e da integrare in macchine a basso consumo. Quindi l'unica strada percorribile rimane appunto l'elaborazione parallela cioè l'integrazione in un unico integrato di più processori in grado di eseguire uno o più processi contemporaneamente.

Allo stato attuale (maggio 2006) esistono in commercio per applicazioni domestiche processori con due nuclei di calcolo indipendenti e ogni unità di calcolo è in grado di eseguire due processi indipendenti e quindi il processore è in sostanza in grado di eseguire quattro programmi contemporaneamente.

Per applicazioni professionali società come la Sun Microsystems hanno presentato processori in grado di eseguire decine di processi in contemporanea come l'UltraSPARC T1 un processore con 8 unità di calcolo e con ogni unità in grado di eseguire 4 processi per un totale di 32 processi in contemporanea. Lo stato dell'arte di questo settore è detenuto dall'IBM che con l'architettura Blue Gene domina il settore dei supercomputer. Il Blue Gene/L è dotato di 131.072 processori con ogni processore dotato di due unità di calcolo per un totale 262.144 unità di calcolo indipendenti. Le attuali ricerche riguardanti le architetture dei processori infatti riguardano l'integrazione delle varie unità in modo efficiente, veloce e con ridotti consumi energetici dato che l'integrazione di molte unità di calcolo in uno spazio ridotto pone seri problemi di dissipazione e di consumi energetici dato che i supercomputer possono consumare anche diversi megawatt di potenza.