Når AI tar av, er det en veldig etterspørsel etter GPUer
Kunstig intelligens erstatter menneskelig blod, svette og tårer i utallige næringer over hele verden, men dette kommer ikke som noen overraskelse. Datamaskiner kan etterligne den menneskelige hjerne – men raskere og mer omfattende – ved å behandle store sett med visuelle, talte eller numeriske data og gjenkjenne årsak og virkning mønstre med større nøyaktighet. Implikasjonene for en faktisk AI-drevet maskin som har studert tusenvis av CT-skanninger fra for eksempel friske og kreftpasienter, er enorme. Denne maskinen og andre (kreftpåvisning er et vanlig formål for AI) kan gjenkjenne med 95% nøyaktighet små svulster i en skanning, men lær også å bestemme hvilke svulster som sannsynligvis vil være godartede og hvilke som ikke er det.
AI har den samme akselererende effekten på andre sektorer som økonomi, som benytter den til formål med prediktiv markedsanalyse og andre profittdrevne bestrebelser. Genetikere stoler også på AI og dyp læring for å trekke nye konklusjoner basert på endeløse, kronglete data lagret i genomene til planter og dyr. Ved å bruke en datadrevet hjerne til å studere genetiske basepar, deres mønstre og resulterende egenskaper, hjelper AI til tegne tegningen for nye farmasøytiske legemidler og medisiner. Det er tydelig at STEM-eksperter og andre bransjeledere er avhengige av AI for å presse raskere innovasjon, men det har kostet.
En forsterket etterspørsel etter AI betyr også en økning i beregningskraften som kreves av maskiner som er vert for disse kunstige intelligensene. Ettersom det kommer en massiv tilstrømning av data overalt takket være begrepet “å gå digital”, har det en interessant effekt på cloud computing og chip maker-industrien. For å skape mer kostnadseffektiv kraft, spesielt for AI-egnede oppgaver, er GPU – eller grafikkbehandlingsenhet – nå standard chiptype for industrien.
Hvorfor GPUer?
Den forskjellige arkitekturen til en GPU fra en CPU er det som gjør førstnevnte mer egnet for dyplæring og AI, som forfølger mangesidige og komplekse mål i stedet for enkle – for eksempel å laste inn en webside. I stedet for å løse problemer sekvensielt, krever AI rask parallellbehandling. Selv for en AI for å lære å kjenne igjen en hund på et bilde, må den utføre seriøst kompliserte beregninger parallelt. Denne AI kan se på et bilde av en hund, konvertere den til svart-hvitt og tildele hver piksel et tall basert på nivået på lyshet eller mørke, og skape det som ser ut som en gigantisk matrise av tall. Siden det flere ganger blir matet tusenvis av bilder og gitt den riktige definisjonen av hvert, lærer det over tid å gjenkjenne mønstre som betyr “hund” og vil nøyaktig plukke ut hundene i hvert bilde det ser.
For å oppnå dette må en AI henvise til millioner av datapunkter for å finne de som korrelerer med det den “ser” på. Dette krever intensiv parallellbehandling, en enkel oppgave for en gjennomsnittlig detaljhandel-GPU, som vanligvis har hundrevis av ganger like mange kjerner, mer minnebåndbredde og ti ganger databehandlingseffektiviteten som en industriell CPU fra Intel. Mens prosessorer fremdeles er nødvendige for oppgaver som krever sekvensielle datamodeller og kan brukes til bedre resultater i forbindelse med GPUer, er sistnevnte nå den nye standard arbeidshesten for databehandlingen..
Produserende selskaper som Nvidia har tjent mye på overgangen til GPU-teknologi, i likhet med større cloud computing-leverandører som Amazon og Google, som nå tilbyr virtuelle maskinmiljøer som kjører på GPU-strøm. Bedrifter som spesialiserer seg på grafisk animasjon og gjengivelse, AI dyp læring og kryptokurvering, bruker store budsjetter til dette behovet. De mest populære Cloud GPU-plattformene tilbyr månedlige og til og med timebaserte databehandlingsabonnementer for å tilfredsstille denne etterspørselen, men det er ikke nok å tilby praktiske salgsmodeller eller sentralisere store banker med GPU-kraft. Ny, tilpasset infrastruktur bygges også for å øke kostnadseffektiviteten til grafikkbasert databehandling.
Hva kan Blockchain gjøre for GPUer?
Fremveksten av AI tvinger en tvungen utvidelse av verdens beregningskapasitet. I den tidlige fasen har dette resultert i en bevegelse mot GPU-kraft over CPUer, men den andre fasen vil se en bevegelse mot desentralisert kraft. Selv om sentralisert organisering av GPU-datasentre er god nok for nå, er det ikke kostnadseffektivt. Blockchain hovedbøker ha muligheten til enkelt å spore og organisere et potensielt uendelig antall distribuerte kraftbidragere. Innovatører ser derfor på blockchain som en bedre leveringsmetode for kraft, både for mer naturlig energiområde og prisoppdagelse, men også for dens evne til å låse opp tomgang GPU-kraft fanget i detaljhandelsmaskiner..
Tatau er et av de første blockchain-selskapene som adresserer denne unike ideen, og det lar alle med PC koble til og begynne å tilby datamaskinens strøm til nettverket. Blockchain som brukes av Tatau, betegner GPU-strømmen som strømmer fra brukerens PC-er i tokens og betaler dem for strømmen den trekker. Som en markedsplass forbinder Tataus blockchain primært de som trenger GPU-strøm til en bestemt pris, og grupper av brukere som er villige til å levere den.
”Markedsetterspørselen etter AI-beregning dobles hver 3,5 måned, men tilbudet holder ikke. Leverandører bruker pris som en spak for å kontrollere bruken, og disse dynamikkene holder tilbake innovasjon, ” skrev Andrew Fraser, administrerende direktør i Tatau.
Andre blockchain-baserte selskaper har også kapitalisert på ideen om tokenisert energibesettelse og formidling. Mange nye spillere hjelper brukere med å bidra med underutnyttet kraft fra sine ellers inaktive PC-er, og den nyere industrien blir for tiden skåret opp av selskaper som spesialiserer seg i å levere strøm til spesifikke bransjer som gjengivelse og animasjon. Selv om det er sant det gjengivelse av en animert film er en oppgave som er mye mer egnet for desentralisert GPU-kraft, det er den potensielt endeløse kilden til etterspørsel etter AI-drevet fremgang som er den virkelige katalysatoren.