När AI tar fart, är en mycket efterfrågan på GPU: er
Artificiell intelligens ersätter mänskligt blod, svett och tårar i otaliga industrier runt om i världen, men det är ingen överraskning. Datorer kan efterlikna den mänskliga hjärnan – men snabbare och mer omfattande – genom att bearbeta stora uppsättningar visuella, talade eller numeriska data och känna igen orsak och effekt-mönster med större noggrannhet. Konsekvenserna för en verklig AI-driven maskin som har studerat tusentals CT-skanningar från till exempel både friska och cancerpatienter är enorma. Denna maskin och andra (cancerdetektering är ett vanligt syfte för AI) kan känner igen med 95% noggrannhet små tumörer i en skanning, men lär dig också att avgöra vilka tumörer som sannolikt kommer att vara godartade och vilka inte.
AI har samma accelererande effekt på andra sektorer som finans, som använder den i syfte att förutsäga marknadsanalys och andra vinstdrivna strävanden. Genetiker förlitar sig också på AI och djupinlärning för att dra nya slutsatser baserat på oändliga, krångliga data som lagras i genom och växter och djur. Genom att använda en datordriven hjärna för att studera genetiska baspar, deras mönster och resulterande egenskaper hjälper AI till rita ritningen för nya läkemedel och läkemedel. Det är uppenbart att STEM-experter och andra branschledare litar på AI för att driva på snabbare innovation, men det har kostat.
En förstärkt efterfrågan på AI innebär också en ökning av den beräkningskraft som krävs av maskiner som är värd för dessa artificiella intelligenser. Eftersom en massiv tillströmning av data sker överallt tack vare begreppet “att gå digitalt”, har det en intressant effekt på molndator- och chiptillverkningsindustrin. För att skapa mer kostnadseffektiv effekt, särskilt för AI-anpassade uppgifter, är GPU – eller grafikbehandlingsenheten – nu standardchipstypen för industrin.
Varför GPU: er?
Den olika arkitekturen hos en GPU från en CPU är det som gör den förra mer lämplig för djupinlärning och AI, som strävar efter mångfacetterade och komplexa mål snarare än enkla – till exempel att ladda en webbsida. I stället för att lösa problem i följd kräver AI snabb parallellbehandling. Även för att en AI ska lära sig hur man på ett tillförlitligt sätt känner igen en hund i en bild måste den utföra allvarligt komplicerade beräkningar parallellt. Denna AI kan titta på en bild av en hund, konvertera den till svartvitt och tilldela varje pixel ett nummer baserat på dess nivå av ljushet eller mörker, vilket skapar det som ser ut som en jätte matris av siffror. Eftersom det upprepade gånger matas in tusentals bilder och får den korrekta definitionen av varje, lär det sig med tiden att känna igen mönster som betyder “hund” och kommer att plocka ut hundarna i varje bild det ser.
För att åstadkomma detta måste en AI hänvisa till miljontals datapunkter för att hitta de som korrelerar med vad den “tittar på”. Detta kräver intensiv parallell bearbetning, en enkel uppgift för en genomsnittlig detaljhandels-GPU, vilket vanligtvis har hundratals gånger lika många kärnor, mer minnesbandbredd och tio gånger datoreffektiviteten som en industriell processor från Intel. Medan processorer fortfarande är nödvändiga för uppgifter som kräver sekventiella datormodeller och kan användas för bättre resultat i kombination med grafikprocessorer, är den senare nu den nya standardhästen för datorindustrin.
Tillverkningsföretag som Nvidia har gynnats avsevärt av övergången till GPU-teknik, liksom större molndatorleverantörer som Amazon och Google, som nu erbjuder virtuella maskinmiljöer som drivs med GPU-kraft. Företag som är specialiserade på grafikanimering och-rendering, AI-djupinlärning och kryptovalutautvinning ägnar stora budgetar åt detta behov. De mest populära moln-GPU-plattformarna erbjuder månads- och till och med tim-till-timme-datorabonnemang för att tillgodose denna efterfrågan, men det är inte tillräckligt att erbjuda bekväma försäljningsmodeller eller centralisera massiva banker med GPU-kraft. Ny anpassad infrastruktur byggs också för att öka kostnadseffektiviteten för grafikbaserad databehandling.
Vad kan Blockchain göra för GPU: er?
Ökningen av AI tvingar en tvingad expansion av världens beräkningskapacitet. I det tidiga skedet har detta resulterat i ett steg mot GPU-kraft över processorer, men det andra steget kommer att se ett steg mot decentraliserad kraft. Även om centraliserad organisation av GPU-datacenter är tillräckligt bra för nu är det inte kostnadseffektivt. Blockchain-huvudböcker ha förmågan att enkelt spåra och organisera ett potentiellt oändligt antal distribuerade kraftbidragare. Innovatörer ser därför på blockchain som en bättre leveransmetod för kraft, både för mer naturlig energivärde och prisupptäckt, men också för dess förmåga att låsa upp den inaktiva GPU-kraften som fångas i detaljhandelsmaskiner..
Tatau är ett av de första blockchainföretagen som tar itu med den här unika idén, och det tillåter alla med en PC att ansluta och börja erbjuda sin dators ström till nätverket. Blockkedjan som används av Tatau betecknar GPU-strömmen som streamas från användarnas datorer i tokens och betalar dem för den kraft den drar. Som en marknadsplats ansluter Tataus blockchain främst dem som behöver GPU-ström till ett visst pris och grupper av användare som är villiga att leverera den.
”Marknadsefterfrågan på AI-beräkning fördubblas var 3,5: e månad, men utbudet följer inte. Leverantörer använder priset som en hävstång för att kontrollera användningen, och denna dynamik hindrar innovation, ” skrev Andrew Fraser, vd för Tatau.
Andra blockchain-baserade företag har också utnyttjat tanken på tokeniserad energibeteckning och spridning. Många nya spelare hjälper användare att bidra med underutnyttjad kraft från sina annars inaktiva datorer, och den nyblivna industrin huggas för närvarande upp av företag som specialiserar sig på att tillhandahålla kraft till specifika branscher som rendering och animering. Även om det är sant det gör en animerad film är en uppgift som är mycket mer lämpad för decentraliserad GPU-kraft, det är den potentiellt oändliga källan till efterfrågan på AI-driven framsteg som är den sanna katalysatorn.