Nvidia veu un futur d’un bilió de dòlars en codi obert i paral·lel • El registre

Els processadors gràfics s’estan convertint en un imprescindible en informàtica, de manera que Nvidia està intensificant el seu treball amb estàndards i comunitats de codi obert per a tecnologies posteriors que abans en gran part exclusives de les eines de desenvolupament de l’empresa.

S’està treballant molt específicament al voltant de llenguatges de programació com C++ i Fortran, que es considera que es retarden en la implementació nativa per executar codi en sistemes altament paral·lels.

El pla és fer que els entorns informàtics genèrics i els compiladors siguin més productius i accessibles, va dir Timothy Costa, gerent de producte del grup per a la informàtica d’alt rendiment i la computació quàntica de Nvidia. El Registre.

“En última instància, el nostre objectiu amb la comunitat i la programació de codi obert és millorar la concurrència i el paral·lelisme per a tots. Ho dic perquè em refereixo a les CPU i les GPU”, va dir Costa.

Moltes de les tecnologies que s’obren i s’incorporen al corrent principal estan relacionades amb el treball passat realitzat per Nvidia en el seu marc de programació paral·lel CUDA, que combina biblioteques obertes i pròpies.

CUDA es va presentar l’any 2007 com un conjunt d’eines de programació i marcs per als programadors per escriure programes a les GPU. Però l’estratègia CUDA va canviar a mesura que l’ús de la GPU es va expandir a més aplicacions i sectors.

Nvidia és coneguda en gran mesura per dominar el mercat de les GPU, però CUDA es troba al centre de l’empresa que es reposiciona com a proveïdor de programari i serveis que persegueix una valoració de mercat d’un bilió de dòlars.

L’objectiu a llarg termini és que Nvidia sigui un proveïdor de pila completa orientada a dominis especialitzats que inclouen conducció autònoma, informàtica quàntica, assistència sanitària, robòtica, ciberseguretat i informàtica quàntica.

Nvidia ha creat biblioteques CUDA especialitzades en aquestes àrees i també ofereix el maquinari i els serveis als quals les empreses poden aprofitar.

L’estratègia de pila completa s’il·lustra millor amb el concepte de “fàbrica d’IA” presentat pel CEO Jensen Huang a la recent conferència sobre tecnologia de GPU. El concepte és que els clients poden deixar sol·licitar aplicacions als mega centres de dades de Nvidia, amb la sortida d’un model d’IA personalitzat que compleix els requisits específics del sector o de l’aplicació.

Nvidia té dues maneres de guanyar diners mitjançant conceptes com la fàbrica d’IA: mitjançant la utilització de la capacitat de la GPU o l’ús de biblioteques CUDA específiques del domini. Els programadors poden utilitzar marcs de programació paral·lel de codi obert que inclouen OpenCL a les GPU de Nvidia. Però per a aquells que vulguin invertir, CUDA oferirà aquest impuls addicional de l’última milla, ja que està ajustat per treballar estretament amb la GPU de Nvidia.

Paral·lel per a tots

Tot i que la programació paral·lela està molt estesa a HPC, l’objectiu de Nvidia és estandarditzar-la en la informàtica convencional. L’empresa està ajudant la comunitat a estandarditzar les millors eines de la seva classe per escriure codi paral·lel que sigui portàtil a través de plataformes de maquinari, independentment de la marca, el tipus d’accelerador o el marc de programació paral·lel.

“La complicació és que es pot mesurar tan senzillament com línies de codi. Si ho feu, si feu un rebot entre molts models de programació diferents, tindreu més línies de codi”, va dir Costa.

D’una banda, Nvidia està involucrada en un comitè de C++ que està establint la canonada que orquestra l’execució paral·lela de codi que és portàtil a través del maquinari. Un context pot ser un fil de CPU que fa principalment IO, o un fil de CPU o GPU que fa un càlcul intensiu. Nvidia està específicament activa per aportar vocabulari i marc estàndard per a l’asincronia i el paral·lelisme que els programadors de C++ exigeixen.

“Totes les institucions, tots els principals actors, tenen un compilador C++ i Fortran, així que seria una bogeria no fer-ho. A mesura que el llenguatge avança, arribem a un lloc on tenim veritables estàndards oberts amb portabilitat de rendiment entre plataformes”, ​​Costa. dit.

“Llavors, per descomptat, els usuaris sempre són capaços, si volen, d’optimitzar amb un model de programació específic del proveïdor que està lligat al maquinari. Crec que aquí estàvem arribant a una mena de meca de productivitat per als usuaris finals i desenvolupadors”, Costa. dit.

L’estandardització a nivell de llenguatge farà que la programació paral·lela sigui més accessible per als programadors, cosa que en última instància també podria impulsar l’adopció de marcs de programació paral·lel de codi obert com OpenCL, va opinar.

Per descomptat, el propi compilador de Nvidia extreu el millor rendiment i valor de les seves GPU, però és important eliminar els cèrcols per portar el paral·lelisme als estàndards d’idioma, independentment de la plataforma, va dir Costa.

“Enfocar-nos en els estàndards de llenguatge és com ens assegurem que tenim una veritable amplitud de compiladors i suport de plataformes per a la programació de models de rendiment”, va explicar, i va afegir que Nvidia ha treballat amb la comunitat durant més d’una dècada per fer canvis de baix nivell d’idiomes. pel paral·lelisme.

El treball inicial va ser al voltant del model de memòria, que s’incloïa a C++11, però s’havia d’avançar enrere quan el paral·lelisme i la concurrència van començar a consolidar-se. El model de memòria en C++11 es va centrar en l’execució simultània a través de xips multinucli, però no tenia els ganxos per a la programació paral·lela.

L’estàndard C++ 17 va introduir les bases per a les funcions de paral·lelisme de nivell superior, però la portabilitat real arribarà als estàndards futurs. L’estàndard actual és C++20, amb el C++23.

“El millor ara és perquè s’han col·locat les canonades, si comenceu a mirar les properes iteracions de l’estàndard, veureu cada cop més funcions productives i orientades als usuaris que s’introdueixen en aquests idiomes, que són realment portàtils de rendiment. Qualsevol arquitectura de maquinari a l’espai de la CPU i la GPU podrà aprofitar-les”, va prometre Costa. ®

Leave a Comment

Your email address will not be published. Required fields are marked *