تقنية NPU الثورية: 60 ٪ أسرع من الذكاء الاصطناعي مع 44 ٪ طاقة أقل!

تقنية NPU الثورية: 60 ٪ أسرع من الذكاء الاصطناعي مع 44 ٪ طاقة أقل!

Tokio, Japan - ماذا يوجد في عالم الذكاء الاصطناعي؟ في نقطة مثيرة من تحول التكنولوجيا ، يوجد الباحثون في معهد كوريا المتقدم للعلوم والتكنولوجيا (KAIST). لقد طوروا تقنية NPU جديدة موفرة للطاقة تزيد من أداء نماذج الذكاء الاصطناعى التوليدي بنسبة 60 ٪ مثيرة للإعجاب ، بينما يتم تقليل استهلاك الطاقة بنسبة 44 ٪. [CloudComputing-news.net] تقارير عن التقدم الذي تم تحقيقه كجزء من هذا البحث بقيادة البروفيسور جونجسيوك بارك ، بالتعاون مع Hyperaccel Inc ..

نماذج الذكاء الاصطناعي الحالي مثل Openais ChatGPT-4 و Google Gemini 2.5 وحوش حسابية حقيقية تتطلب سعة تخزين عالية وعرض النطاق الترددي. لا عجب في شراء شركات مثل Microsoft و Google مئات الآلاف من وحدات معالجة الرسومات Nvidia لتلبية هذه المتطلبات. ولكن قد يتغير ذلك ، لأن تقنية NPU الجديدة تهدف إلى حل الاختناقات الحالية في البنية التحتية لمنظمة العفو الدولية وتبقي استهلاك الطاقة في لعبة الشطرنج.

التقدم من خلال الأجهزة المتخصصة

في قلب هذا الابتكار ، فإن تحسين إدارة التخزين هو من خلال استخدام بنية الأجهزة المتخصصة. عمل مينسو كيم والدكتور سيونغمين هونغ من شركة Hyperaccel Inc. على الأبحاث ، والتي تم تقديم نتائجها في طوكيو في الندوة الدولية حول بنية الكمبيوتر (ISCA 2025). بعنوان "العمل البحثي" بعنوان "Oaken: LLM السريع والفعال الذي يخدم مع كمية ذاكرة التخزين المؤقت KV Hybrid Hybrid Hybrid Offline Online" ويركز بشكل كبير على كمية KV-Cache ، والتي تشكل جزءًا هائلاً من استهلاك الذاكرة في أنظمة الذكاء الاصطناعي. مع هذه التكنولوجيا ، يمكن تحقيق نفس الأداء مع عدد أقل من أجهزة NPU ، مما لا يقلل من التكاليف فحسب ، بل يحمي البيئة أيضًا.

من خلال تنفيذ خوارزمية قياس الكميات المكونة من ثلاثة -يمكن للمهندسين الحفاظ على فقدان الدقة أثناء الاستدلال. ويشمل ذلك الاستراتيجيات القتالية مثل القياس الهجينة على الإنترنت المستندة إلى العتبة على الإنترنت ، والتشكيل الكمي للتجميع ، والكثافة المدمجة والترميز المتناثر. تم تصميم هذه الأساليب للتعامل مع النطاق المحدود والقدرة على الأنظمة الحالية على النحو الأمثل ، وبالتالي لتعزيز طول طول البنية التحتية لمنظمة العفو الدولية.

خطوة في المستقبل المستدام

ومع ذلك ، لا يمكن إجراء

كفاءة الطاقة في الذكاء الاصطناعي بحل واحد. بشكل عام ، يمثل البحث تقدمًا كبيرًا في اتجاه البنية التحتية المستدامة لمنظمة العفو الدولية ، والتي يتم تطوير آثارها بشكل صحيح فقط مع التحجيم والتنفيذ في البيئات التجارية. يمكن أن تقلل بصمة ثاني أكسيد الكربون لخدمات AI-Cloud بشكل كبير من التطورات الجديدة. يلعب البحث الحالي حول التقنيات الأخرى أيضًا دورًا هنا يهدف إلى تقليل استهلاك الطاقة ، مثل ختان النموذج أو القياس الكمي أو البنية الفعالة. يتعين على العلماء والشركات إحضار هذه الأهداف إلى وئام مع متطلبات متزايدة على الأداء.

ولكن ما هو مفتاح مستقبل كفاءة طاقة الذكاء الاصطناعي؟ وفقًا لـ [coCalx.ai] ، لا يلزم فقط الأجهزة المبتكرة والخوارزميات المتخصصة ، ولكن أيضًا زيادة التعاون بين الفنيين والشركات من أجل إنشاء حلول مستدامة. التحديات متنوعة: من التوازن بين الأداء والكفاءة إلى قيود الأجهزة المحتملة.

بشكل عام ، نواجه تطورًا مثيرًا يمكن أن يوضح لنا مدى قوة البنية التحتية التي يمكن أن يتم تنفيذها في الذكاء الاصطناعي. يبقى أن نرى أي من اندفاع تقنية NPU الجديدة التي ستحددها هذه الصناعة وكيف يمكن أن تساعد في تقليل آثار أقدام الشركات.

لذلك

نضع في اعتبارنا التطورات - الأصوات المستقبلية واعدة!

Details
OrtTokio, Japan
Quellen

Kommentare (0)