SAN FRANCISCO —
Det hetaste inom tekniken är en ointressant kiselbit som är nära besläktad med chipsen som driver videospelsgrafik. Det är ett artificiell intelligenschip, designat speciellt för att göra konstruktion av AI-system som ChatGPT snabbare och billigare.
Sådana chip har plötsligt tagit en central plats i vad vissa experter anser vara en AI-revolution som skulle kunna omforma tekniksektorn – och möjligen världen tillsammans med den. Aktier i Nvidia, den ledande designern av AI-chips, raket upp nästan 25 % i torsdags efter att företaget förutspådde ett enormt hopp i intäkter som analytiker sa indikerade skyhög försäljning av dess produkter. Företaget var kortvarigt värt mer än 1 biljon dollar på tisdag.
SÅ VAD ÄR AI-chips?
Det är ingen lätt fråga att svara på. ”Det finns verkligen inte en helt överenskommen definition av AI-chips”, säger Hannah Dohmen, en forskningsanalytiker vid Center for Security and Emerging Technology.
Men i allmänhet omfattar termen datorhårdvara som är specialiserad för att hantera AI-arbetsbelastningar – till exempel genom att ”träna” AI-system för att hantera svåra problem som kan kväva konventionella datorer.
URSPRUNG FÖR VIDEOSPEL
Tre entreprenörer grundade Nvidia 1993 för att tänja på gränserna för beräkningsgrafik. Inom några år hade företaget utvecklat ett nytt chip kallat en grafikprocessor, eller GPU, som dramatiskt snabbade upp både utveckling och spel av videospel genom att utföra flera komplexa grafikberäkningar samtidigt.
Den tekniken, formellt känd som parallell bearbetning, skulle visa sig vara nyckeln till utvecklingen av både spel och AI. Två doktorander vid University of Toronto använde ett GPU-baserat neuralt nätverk för att vinna en prestigefylld AI-tävling 2012 kallad ImageNet genom att identifiera fotobilder med mycket lägre felfrekvenser än konkurrenterna.
Vinsten satte igång intresset för AI-relaterad parallell bearbetning, vilket öppnade en ny affärsmöjlighet för Nvidia och dess rivaler samtidigt som forskarna fick kraftfulla verktyg för att utforska gränserna för AI-utveckling.
MODERNA AI-chips
Elva år senare är Nvidia den dominerande leverantören av chips för att bygga och uppdatera AI-system. En av dess senaste produkter, H100 GPU, packas in 80 miljarder transistorer — cirka 13 miljoner mer än Apples senaste avancerade processorn för sin MacBook Pro laptop. Föga överraskande är den här tekniken inte billig; hos en onlineåterförsäljare, H100-listorna för $30 000.
Nvidia tillverkar inte dessa komplexa GPU-chips själv, en uppgift som skulle kräva enorma investeringar i nya fabriker. Istället förlitar man sig på asiatiska chipgjuterier som Taiwan Semiconductor Manufacturing Co. och Koreas Samsung Electronics.
Några av de största kunderna för AI-chips är molntjänster som de som drivs av Amazon och Microsoft. Genom att hyra ut sin AI-datorkraft gör dessa tjänster det möjligt för mindre företag och grupper som inte hade råd att bygga sina egna AI-system från grunden för att använda molnbaserade verktyg för att hjälpa till med uppgifter som kan sträcka sig från läkemedelsupptäckt till kundhantering .
ANDRA ANVÄNDNINGAR OCH TÄVLING
Parallell bearbetning har många användningsområden utanför AI. För några år sedan, till exempel, var Nvidia-grafikkort en bristvara eftersom gruvarbetare i kryptovaluta, som satte upp banker med datorer för att lösa svåra matematiska problem för bitcoin-belöningar, hade snappat upp de flesta av dem. Det problemet bleknade när kryptovalutamarknaden kollapsade i början av 2022.
Analytiker säger att Nvidia oundvikligen kommer att möta hårdare konkurrens. En potentiell rival är Advanced Micro Devices, som redan möter Nvidia på marknaden för datorgrafikkretsar. AMD har nyligen vidtagit åtgärder för att stärka sin egen lineup av AI-chips.
Nvidia är baserat i Santa Clara, Kalifornien. Medgrundaren Jensen Huang förblir företagets vd och verkställande direktör.
Inlägget AI-chips är heta. Här är vad de är, vad de är till för och varför investerare ser guld dök upp först Opartisk Press.
.