Usare le GPGPU nei Supercomputer: la Sfida di nVidia


Di generazione in generazione le schede video sono sempre più potenti ed allo stesso tempo più piccole.
Allo stesso tempo, le CPU stanno dietro, anzi arrancano.

Si è iniziato a parlare infatti di CPU limited, che rappresenta una situazione in cui la CPU frena la potenza della GPU.
È possibile “aggirare” il problema, magari overcloccando il processore, o cambiare CPU.

A seguito di queste notizie, i tecnici hanno capito che le GPU non servono solo al “ludico”, ma anche in moltissimi altri settori, specie in ambito scientifico.
È stato ampliato il concetto GPU, portandolo a GPGPU, dove GP sta per “General Purpose”.

David Kirk, Chief Scientist di nVidia, durante la Games Developer Conference ha dichiarato come entro il 2012, tre dei cinque supercomputer più potenti al mondo integreranno processori grafici in parallelo per il calcolo di dati”.

Il primo passo che nVidia ha compiuto verso questo campo è stato con le schede video della serie 8 e in particolare con il linguaggio di programmazione CUDA (senza dimenticare Tesla), in grado di aprire la GPU a calcoli non prettamente grafici.

La dimostrazione della flessibilità del linguaggio è stato resto lampante grazie al recente annuncio: grazie a CUDA, le schede GeForce 8 potranno eseguire i calcoli fisici una volta confinati alle schede di AGEIA, azienda recentemente acquisita da nVidia.
Questo lavoro sul calcolo parallelo che nVidia sta portando avanti (ma non dimentichiamoci che anche AMD è della partita) si estenderà in futuro anche all’ambito desktop, in cui l’esecuzione di alcuni calcoli – come la scansione antivirus – potrà essere effettuata dalla GPU in piena autonomia rispetto al processore, risparmiando tempo e risorse di calcolo.

Per far sì che ciò avvenga al meglio, non solo le GPU dovranno essere sempre più potenti e progettate come vere e proprie unità macina dati, ma anche la parte software deve essere all’altezza.
E questo è forse il punto più importante di tutta la filiera.


Lascia un Commento!