Revolutionär NPU -teknik: 60% snabbare AI med 44% mindre energi!
Revolutionär NPU -teknik: 60% snabbare AI med 44% mindre energi!
Tokio, Japan - Vad finns i världen av konstgjord intelligens? Vid en spännande punkt i tekniken är forskarna vid Korea Advanced Institute of Science and Technology (KAIST). De har utvecklat en ny, energieffektiv NPU-teknik som ökar prestandan för generativa AI-modeller med imponerande 60%, medan energiförbrukningen minskas med 44%. [Cloudcomputing-News.Net] rapporter om de framsteg som uppnåddes som en del av denna forskning som leddes av professor Jongseok Park, i samarbete med Hyperaccel Inc ..
Aktuella stora AI-modeller som OpenAis Chatgpt-4 och Google Gemini 2.5 är riktiga aritmetiska monster som kräver en hög lagringskapacitet och bandbredd. Det är inte konstigt att företag som Microsoft och Google köper hundratusentals från NVIDIA GPU för att uppfylla dessa krav. Men det kan förändras, eftersom den nya NPU -tekniken syftar till att lösa befintliga flaskhalsar i AI -infrastrukturen och håller energiförbrukningen i schack.
framsteg genom specialiserad hårdvara
I kärnan i denna innovation är optimeringen av lagringshantering genom användning av en specialiserad hårdvaruarkitektur. Minsu Kim och Dr. Seongmin Hong från Hyperaccel Inc. arbetade tillsammans med forskning, vars resultat presenterades i Tokyo om International Symposium on Computer Architecture (ISCA 2025). Forskningsarbetet har titeln "Oaken: snabb och effektiv LLM som tjänar med online offline hybrid KV-cache-kvantisering" och fokuserar starkt på KV-cache-kvantiseringen, som utgör en enorm del av minnesförbrukningen i generativa AI-system. Med denna teknik kan samma prestanda uppnås med färre NPU -enheter, som inte bara sänker kostnaderna utan också skyddar miljön.
Genom att implementera en tre -spårkvantiseringsalgoritm kan ingenjörer minimalt hålla förlusten av noggrannhet under slutsatsen. Detta inkluderar stridsstrategier som tröskelbaserad online offline hybridkvantisering, gruppskiftningskvantisering och en sammanslagd densitet och gles kodning. Dessa tillvägagångssätt är utformade för att optimalt hantera det begränsade intervallet och kapaciteten för de nuvarande systemen och därmed främja AI -infrastrukturens livslängd.
ett steg in i den hållbara framtiden
energieffektivitet i AI kan emellertid inte göras med en enda lösning. Sammantaget representerar forskning en betydande framsteg i riktning mot hållbar AI -infrastruktur, vars effekter endast är korrekt utvecklade med skalning och implementering i kommersiella miljöer. CO2-fotavtrycket för AI-Cloud-tjänster kan minska den nya utvecklingen avsevärt. Den nuvarande forskningen om andra tekniker spelar också en roll här som syftar till att minska energiförbrukningen, till exempel omskärelse, kvantisering eller effektiva arkitekturer. Forskare och företag måste föra dessa mål i harmoni med ökande krav på prestanda.
Men vad är nyckeln till framtiden för AI -energieffektivitet? Enligt [focalx.ai] krävs inte bara innovativ hårdvara och specialiserade algoritmer, utan också ökat samarbete mellan tekniker och företag för att skapa hållbara lösningar. Utmaningarna är olika: från balansen mellan prestanda och effektivitet till möjliga hårdvarubegränsningar.
Sammantaget står vi inför en spännande utveckling som kan visa oss hur kraftfulla, energieffektiva infrastrukturer kan implementeras i AI. Det återstår att se som impulser denna nya NPU -teknik kommer att ställa in i branschen och hur den kan bidra till att minska företagens ekologiska fotavtryck.
SåVi tänker på utvecklingen - framtiden låter lovande!
Details | |
---|---|
Ort | Tokio, Japan |
Quellen |
Kommentare (0)