Revolutionær NPU -teknologi: 60% hurtigere AI med 44% mindre energi!
Revolutionær NPU -teknologi: 60% hurtigere AI med 44% mindre energi!
Tokio, Japan - Hvad er der i verden af kunstig intelligens? På et spændende punkt i teknologien er omdrejningen forskerne ved Korea Advanced Institute of Science and Technology (KAIST). De har udviklet en ny, energieffektiv NPU-teknologi, der øger ydelsen af generative AI-modeller med imponerende 60%, mens energiforbruget reduceres med 44%. [CloudComputing-News.net] rapporterer om de fremskridt, der blev opnået som en del af denne forskning ledet af professor Jongseok Park, i samarbejde med Hyperaccel Inc ..
Aktuelle store AI-modeller som OpenAis Chatgpt-4 og Google Gemini 2.5 er ægte aritmetiske monstre, der kræver en høj opbevaringskapacitet og båndbredde. Det er ikke underligt, at virksomheder som Microsoft og Google køber hundreder af tusinder fra NVIDIA GPU'er for at imødekomme disse krav. Men det kan ændre sig, fordi den nye NPU -teknologi sigter mod at løse eksisterende flaskehalse i AI -infrastrukturen og holder energiforbruget i skak.
fremskridt gennem specialiseret hardware
I kernen i denne innovation er optimering af lagringsstyring ved hjælp af en specialiseret hardwarearkitektur. Minsu Kim og Dr. Seongmin Hong fra Hyperaccel Inc. arbejdede sammen om forskning, hvis resultater blev præsenteret i Tokyo på International Symposium on Computer Architecture (ISCA 2025). Forskningsarbejdet har titlen "Oaken: Hurtig og effektiv LLM-servering med online offline hybrid KV-cache-kvantisering" og fokuserer stærkt på KV-cache-kvantiseringen, der udgør en enorm del af hukommelsesforbruget i generative AI-systemer. Med denne teknologi kan den samme ydelse opnås med færre NPU -enheder, som ikke kun sænker omkostningerne, men også beskytter miljøet.
Ved at implementere en tre -track -kvantiseringsalgoritme kan ingeniører minimalt holde tabet af nøjagtighed under inferensen. Dette inkluderer bekæmpelsesstrategier såsom tærskelbaseret online offline hybridkvantisering, gruppeskiftende kvantisering og en fusioneret densitet og sparsom kodning. Disse tilgange er designet til optimalt at håndtere det begrænsede rækkevidde og kapacitet i de nuværende systemer og dermed til at fremme levetiden for AI -infrastrukturen.
et skridt ind i den bæredygtige fremtid
Imidlertid kanenergieffektivitet i AI ikke udføres med en enkelt løsning. Generelt repræsenterer forskning en betydelig fremgang i retning af bæredygtig AI -infrastruktur, hvis virkninger kun er korrekt udviklet med skalering og implementering i kommercielle miljøer. CO2-fodaftrykket af AI-Cloud-tjenester kunne reducere den nye udvikling markant. Den aktuelle forskning på andre teknikker spiller også en rolle her, der sigter mod at reducere energiforbruget, såsom omskærelse af model, kvantisering eller effektive arkitekturer. Forskere og virksomheder er forpligtet til at bringe disse mål i harmoni med stigende krav til præstationer.
Men hvad er nøglen til fremtiden for AI -energieffektivitet? Ifølge [focalx.ai] kræves ikke kun innovative hardware og specialiserede algoritmer, men øgede også samarbejdet mellem teknikere og virksomheder for at skabe bæredygtige løsninger. Udfordringerne er forskellige: fra balancen mellem ydeevne og effektivitet til mulige hardwarebegrænsninger.
Generelt står vi over for en spændende udvikling, der kan vise os, hvor kraftfuld, energifraktiske infrastrukturer kan implementeres i AI. Det er tilbage at se, hvilke impulser denne nye NPU -teknologi vil indstille i branchen, og hvordan det kan hjælpe med at reducere de økologiske fodaftryk for virksomhederne.
SåVi husker udviklingen - fremtiden lyder lovende!
Details | |
---|---|
Ort | Tokio, Japan |
Quellen |
Kommentare (0)