Revolutionaire NPU -technologie: 60% snellere AI met 44% minder energie!
Revolutionaire NPU -technologie: 60% snellere AI met 44% minder energie!
Tokio, Japan - Wat is er in de wereld van kunstmatige intelligentie? Op een opwindend punt van de technologische turnaround zijn de onderzoekers van het Korea Advanced Institute of Science and Technology (KAIST). Ze hebben een nieuwe, energie-efficiënte NPU-technologie ontwikkeld die de prestaties van generatieve AI-modellen met indrukwekkende 60%verhoogt, terwijl het energieverbruik met 44%wordt verminderd. [CloudComputing-Ews.net] Rapporten over de vooruitgang die werd geboekt als onderdeel van dit onderzoek onder leiding van professor Jongseok Park, in samenwerking met HyperAccel Inc ..
Huidige grote AI-modellen zoals OpenAis Chatgpt-4 en Google Gemini 2.5 zijn echte rekenmetmeters die een hoge opslagcapaciteit en bandbreedte vereisen. Het is geen wonder dat bedrijven als Microsoft en Google honderdduizenden kopen van Nvidia GPU's om aan deze vereisten te voldoen. Maar dat zou kunnen veranderen, omdat de nieuwe NPU -technologie tot doel heeft bestaande knelpunten in de AI -infrastructuur op te lossen en het energieverbruik in schaken houdt.
Voortgang door gespecialiseerde hardware
In de kern van deze innovatie is de optimalisatie van opslagbeheer door het gebruik van een gespecialiseerde hardware -architectuur. Minsu Kim en Dr. Seongmin Hong van Hyperaccel Inc. werkten samen aan onderzoek, waarvan de resultaten in Tokio werden gepresenteerd op het International Symposium on Computer Architecture (ISCA 2025). Het onderzoekswerk is getiteld "Oaken: snelle en efficiënte LLM die dient met online offline hybride KV-cache-kwantisatie" en richt zich sterk op de KV-cache-kwantisatie, die een enorm onderdeel vormt van geheugenverbruik in generatieve AI-systemen. Met deze technologie kunnen dezelfde prestaties worden bereikt met minder NPU -apparaten, die niet alleen de kosten verlaagt, maar ook het milieu beschermt.
Door een kwantisatie -algoritme met drie tracks te implementeren, kunnen ingenieurs het verlies van nauwkeurigheid tijdens de gevolgtrekking minimaal behouden. Dit omvat vechtstrategieën zoals op drempel gebaseerde online offline hybride kwantisatie, kwantisatie van groepsverschuiving en een samengevoegde dichtheid en schaarse codering. Deze benaderingen zijn ontworpen om optimaal om te gaan met het beperkte bereik en de capaciteit van de huidige systemen en dus om de levensduur van de AI -infrastructuur te bevorderen.
Een stap in de duurzame toekomst
energie -efficiëntie in de AI kan echter niet worden gedaan met een enkele oplossing. Over het algemeen vormt onderzoek een aanzienlijke vooruitgang in de richting van duurzame AI -infrastructuur, waarvan de effecten alleen correct zijn ontwikkeld met de schaal en implementatie in commerciële omgevingen. De CO2-voetafdruk van AI-Cloud-services zou de nieuwe ontwikkelingen aanzienlijk kunnen verminderen. Het huidige onderzoek naar andere technieken speelt hier ook een rol die gericht is op het verminderen van het energieverbruik, zoals modelbesnijdenis, kwantisatie of efficiënte architecturen. Wetenschappers en bedrijven moeten deze doelen in harmonie brengen met toenemende eisen aan prestaties.
Maar wat is de sleutel tot de toekomst van AI -energie -efficiëntie? Volgens [focalx.ai] zijn niet alleen innovatieve hardware- en gespecialiseerde algoritmen vereist, maar ook een verhoogde samenwerking tussen technici en bedrijven om duurzame oplossingen te creëren. De uitdagingen zijn divers: van de balans tussen prestaties en efficiëntie tot mogelijke hardwarebeperkingen.
Over het algemeen worden we geconfronteerd met een opwindende ontwikkeling die ons zou kunnen laten zien hoe krachtig, energie -efficiënte infrastructuren kunnen worden geïmplementeerd in de AI. Het valt nog te bezien welke impulsen deze nieuwe NPU -technologie in de industrie zal vestigen en hoe het kan helpen de ecologische voetafdrukken van de bedrijven te verminderen.
DusWe houden rekening met de ontwikkelingen - de toekomst klinkt veelbelovend!
Details | |
---|---|
Ort | Tokio, Japan |
Quellen |
Kommentare (0)