Processament dedicat: la nova onada d’acceleració

A mesura que el big data creix de manera exponencial, la nostra capacitat per processar càrregues de treball complexes està minvant. Jonathan Friedmann, cofundador i CEO de Speedata, comparteix algunes de les càrregues de treball més habituals que fan les CPU i el maquinari necessari per accelerar-les.

2,5 quintilions diàriament es generen bytes de dades, i estimacions suggereixen que el big data continuarà creixent un 23% anual. Aquesta tendència té impregnat gairebé tots els racons de l’economia: empreses, des de companyies aèries, bancs i companyies d’assegurances fins a institucions governamentals, hospitals i empreses de telecomunicacions, han adoptat l’anàlisi de big data per millorar la intel·ligència empresarial, promoure el creixement i racionalitzar l’eficiència.

A mesura que el big data només creix, les eines utilitzades per analitzar totes aquestes dades s’han d’escalar. No obstant això, els xips d’ordinador que s’utilitzen actualment per gestionar càrregues de treball grans o complexes no estan a l’alçada, i en requereixen tants que els costos superen els beneficis i dificulten l’eficiència informàtica.

Per tant, malgrat tots els seus avantatges, l’explosió de dades crea múltiples reptes per a la indústria d’alta tecnologia. La clau per superar aquest repte és reforçar la potència de processament des de tots els angles.

Per fer-ho, s’ha desenvolupat una onada d’acceleradors especialitzats específics de domini per descarregar les càrregues de treball de la CPU, el cavall de batalla tradicional dels xips informàtics. Aquests acceleradors “alternatius” estan dissenyats per a tasques específiques, intercanviant la flexibilitat i les habilitats de propòsit general de la computació de CPU estàndard a canvi d’un rendiment millor i accelerat per a aquestes tasques designades.

A continuació es mostra una breu guia d’algunes de les àrees destacades d’acceleració i els seus corresponents acceleradors.

Maquinari per a càrregues de treball d’IA i ML

La intel·ligència artificial està canviant la manera com calculem i, per tant, com vivim. Però les primeres analítiques d’IA es van veure obligades a executar-se en xips de CPU que s’adaptaven molt millor als treballs d’un sol fil i, certament, no estaven dissenyats per a la multitasca paral·lela que demandava la IA.

Introduïu: Unitats de processament gràfic (GPU).

Les GPU es van originar a la indústria dels jocs per accelerar les càrregues de treball gràfiques. Una única GPU combina diversos nuclis especialitzats que funcionen en tàndem, la qual cosa li permet suportar programes paral·lels amb un flux de control senzill. Això és perfecte per a càrregues de treball gràfics, és a dir, jocs d’ordinador, ja que contenen imatges amb milions de píxels, que s’havien de calcular en paral·lel, de manera independent. El processament d’aquests píxels també requereix multiplicacions de coma flotant vectoritzades que la GPU va ser dissenyada per processar molt bé.

El descobriment que les GPU també es podrien utilitzar per processar càrregues de treball d’IA va obrir nous horitzons per a la manera com es gestionen les dades d’IA. Tot i que l’aplicació és molt diferent de les càrregues de treball gràfiques, les càrregues de treball d’AI / aprenentatge automàtic (ML) tenen, en molts aspectes, exigències computacionals similars, que requereixen una multiplicació eficient de matrius de coma flotant. Durant l’última dècada, a mesura que les càrregues de treball d’IA i ML es van disparar, les GPU han experimentat una millora substancial per adaptar-se encara més a aquesta creixent demanda.

Més tard, les empreses van desenvolupar circuits integrats específics d’aplicació (ASIC) dedicats per abordar aquesta important càrrega de treball en els intents d’introduir la segona onada d’acceleració de la IA. Els ASIC al capdavant de l’acceleració de la IA inclouen la TPU, la unitat de processament de tensors de Google que s’utilitza principalment per a la inferència; la UIP, la unitat de processament d’intel·ligència de Graphcore; i la RDU, la unitat de flux de dades reconfigurable de SambaNova.

Càrregues de treball de tractament de dades

Les unitats de processament de dades (DPU) són essencialment controladors d’interfície de xarxa (NIC), maquinari que connecta un dispositiu determinat a la xarxa digital. Aquests ASIC estan dissenyats explícitament per descarregar les funcions de xarxa del protocol de la CPU i el processament de capa superior, com ara el xifratge o les operacions relacionades amb l’emmagatzematge.

Les empreses han desenvolupat diverses DPU, com Mellanox, que va adquirir Nvidia, i Persando, que va adquirir AMD. Tot i que la seva arquitectura varia i el protocol de xarxa exacte de cada descàrrega és diferent, totes les variacions de la DPU tenen el mateix objectiu final d’accelerar el processament de dades i descarregar el protocol de xarxa de la CPU.

Tot i que la DPU d’Intel va rebre les seves sigles: IPU (Infrastructure Processing Unit), pertany a la família DPU. La IPU està dissenyada per millorar l’eficiència del centre de dades mitjançant la descàrrega de funcions que tradicionalment s’haurien executat en una CPU, com ara el control de xarxes, la gestió d’emmagatzematge i la seguretat.

Analítica de Big Data

Les bases de dades i el processament de dades analítiques són on les grans dades realment ofereixen informació útil. Igual que amb les càrregues de treball anteriors, les CPU es van considerar durant molt de temps com l’estàndard. Però a mesura que l’escala de les càrregues de treball d’anàlisi de dades continua creixent, aquestes funcions de la CPU s’han tornat exponencialment menys eficients.

Les càrregues de treball d’anàlisi de grans dades tenen moltes característiques úniques, que inclouen l’estructura i el format de les dades, la codificació de dades i els tipus d’operadors de processament, així com els requisits d’emmagatzematge intermedi, IO i memòria. Això permet un accelerador ASIC dedicat que està orientat a optimitzar les càrregues de treball amb aquestes característiques específiques per proporcionar una acceleració significativa a un cost més barat que les CPU tradicionals. Malgrat aquest potencial, en els últims deu anys no ha sorgit cap xip com a successor natural de la CPU per a càrregues de treball analítiques. El resultat: fins ara, els acceleradors dedicats no han servit per l’anàlisi de big data.

Les càrregues de treball analítiques es programen normalment amb un llenguatge de consulta estructurat (SQL), però també són molt comuns altres llenguatges d’alt nivell. Els motors analítics que processen aquestes càrregues de treball són abundants i inclouen motors de codi obert com Spark i Presto, així com serveis gestionats com Databricks, Redshift i Big Query.

Speedata ha creat una unitat de processament analític (APU) per accelerar les càrregues de treball analítiques. Amb l’explosió de dades, els coneixements derivats d’aquestes eines emergents tenen el potencial de desbloquejar un valor increïble en totes les indústries.

Veure més: Com els Chatbots simplifiquen el consum d’anàlisi de dades per als qui prenen decisions

Respectar el procés

No hi ha una solució “única per a tots” per a les necessitats informàtiques actuals.

En canvi, la CPU, una vegada omnipresent, està evolucionant cap a un “controlador del sistema” que passa càrregues de treball complexes: anàlisi de dades, IA/ML, gràfics, processament de vídeo, etc. – desplaçament a unitats especialitzades i acceleradors.

Les empreses, al seu torn, estan adaptant els seus centres de dades amb aquestes unitats de processament adaptades estratègicament a les seves necessitats de càrrega de treball. Aquest nivell més elevat de personalització no només millorarà l’eficàcia i l’eficiència dels centres de dades, sinó que també reduirà els costos, reduirà el consum d’energia i reduirà les necessitats immobiliàries.

Per a l’anàlisi, un processament més ràpid també permetrà obtenir més informació sobre una quantitat més gran de dades, obrint noves oportunitats. Amb més opcions de processament i noves oportunitats, l’era del big data tot just comença.

Com creus que el processament dedicat pot simplificar el procés de gestió de càrregues de treball de dades complexes? Comparteix amb nosaltres a Facebook, Twitteri LinkedIn. Ens agradaria saber-ho!

Font de la imatge: Shutterstock

MÉS SOBRE L’ANALÍTICA DE DADES

Leave a Comment

Your email address will not be published. Required fields are marked *