اختر اللغة

Splitwise: الاستدلال الفعال للنماذج اللغوية الكبيرة باستخدام التقسيم المرحلي

يحسن Splitwise استدلال النماذج اللغوية الكبيرة بتقسيم مراحل حساب المطالبات وتوليد الرموز على أجهزة منفصلة، محققًا إنتاجية أعلى وتكلفة/استهلاك طاقة أقل.
computingpowercoin.org | PDF Size: 2.6 MB
التقييم: 4.5/5
تقييمك
لقد قيمت هذا المستند مسبقاً
غلاف مستند PDF - Splitwise: الاستدلال الفعال للنماذج اللغوية الكبيرة باستخدام التقسيم المرحلي

جدول المحتويات

1. المقدمة

أحدثت النماذج اللغوية الكبيرة التوليدية (LLMs) ثورة في معالجة اللغة الطبيعية، لكن متطلباتها الحسابية تشكل تحديات كبيرة للاستدلال الفعال. يتعامل نهج Splitwise مع هذه التحديات من خلال التعرف على الخصائص الحسابية المميزة للمرحلتين الرئيسيتين في استدلال النماذج اللغوية الكغيرة والاستفادة منها.

2. الخلفية والدافع

2.1 مراحل استدلال النماذج اللغوية الكبيرة

يتكون استدلال النماذج اللغوية الكبيرة من مرحلتين متميزتين:

  • مرحلة حساب المطالبة: معالجة متوازية مكثفة حسابيًا لجميع الرموز المدخلة
  • مرحلة توليد الرموز: توليد تسلسلي كثيف الذاكرة للرموز المخرجة

2.2 قيود العتاد

مقارنة مواصفات وحدة معالجة الرسومات

مقارنة A100 مقابل H100: زيادة في الحساب بمقدار 3.43× لكن تحسن في عرض النطاق الترددي للذاكرة بمقدار 1.64× فقط

تُظهر وحدات معالجة الرسومات الحديثة تدرجًا غير متناسب بين القوة الحسابية وإمكانيات الذاكرة، مما يخلق عدم كفاءة في استدلال النماذج اللغوية الكبيرة.

3. تصميم Splitwise

3.1 نظرة عامة على البنية

ينشر Splitwise حساب المطالبة وتوليد الرموز على أجهزة منفصلة مُحسنة لمتطلبات كل مرحلة.

3.2 إدارة الموارد الخاصة بكل مرحلة

وحدات معالجة رسومات عالية الحساب (H100) لمرحلة المطالبة، ووحدات معالجة رسومات فعالة من حيث التكلفة لمرحلة توليد الرموز.

4. التنفيذ التقني

4.1 الأساس الرياضي

يمكن تمثيل آلية الانتباه في المحولات (transformers) على النحو التالي:

$Attention(Q, K, V) = softmax(\\frac{QK^T}{\\sqrt{d_k}})V$

حيث تمثل $Q$، $K$، $V$ الاستفسارات والمفاتيح والقيم على التوالي، و$d_k$ هو بُعد المفاتيح.

4.2 التنفيذ البرمجي

class SplitwiseScheduler:
    def schedule_request(self, request):
        if request.phase == "prompt":
            return self.assign_to_prompt_machine(request)
        else:
            return self.assign_to_token_machine(request)
    
    def transfer_state(self, prompt_output, token_machine):
        # نقل حالة فعال باستخدام RDMA
        return token_machine.load_state(prompt_output)

5. النتائج التجريبية

يحقق Splitwise:

  • إنتاجية أعلى بمقدار 1.4× بتكلفة أقل بنسبة 20%
  • إنتاجية أكثر بمقدار 2.35× تحت نفس ميزانيات الطاقة والتكلفة
  • تحسين في اتساق زمن الاستجابة واستخدام الموارد

6. التحليل والنقاش

يمثل Splitwise تقدمًا كبيرًا في تحسين استدلال النماذج اللغوية الكبيرة من خلال معالجة عدم التوافق الأساسي بين المتطلبات الحسابية وإمكانيات العتاد. يستلهم النهج مبادئ الأنظمة الموزعة المشابهة لتلك المستخدمة في MapReduce وأطر المعالجة المتوازية الأخرى. من خلال إدراك أن مرحلة توليد الرموز مقيدة بالذاكرة وليست مقيدة بالحساب، يمكن لـ Splitwise تخصيص الموارد بكفاءة أكبر بما يتوافق مع المتطلبات الحسابية الفعلية لكل مرحلة استدلال.

يبني هذا العمل على مبادئ راسخة في بنية الحاسوب، وخاصة مشكلة جدار الذاكرة التي حددها Wulf و McKee في عام 1995، والتي سلطت الضوء على الفجوة المتزايدة بين سرعة المعالج وأداء الذاكرة. تخلق آلية الانتباه في بنية المحولات، التي قدمها لأول مرة Vaswani وآخرون في ورقة 2017 "Attention is All You Need"، بشكل طبيعي هاتين المرحلتين الحسابيتين المتميزتين، لكن جهود التحسين السابقة ركزت بشكل أساسي على ضغط النموذج والتكميم بدلاً من الفصل المعماري.

مقارنة بالنشر الأحادي التقليدي، يوضح نهج الفصل المرحلي لـ Splitwise كيف يمكن استخدام العتاد المتخصص بشكل أكثر فعالية، على غرار كيفية تحسين مجموعات معالجات TPU من Google لأحمال عمل ML محددة. إن تحسين الإنتاجية بمقدار 1.4× وخفض التكلفة بنسبة 20% مهمان بشكل خاص نظرًا للحجم الهائل لنشر النماذج اللغوية الكبيرة الحديثة، حيث تترجم حتى التحسينات النسبية الصغيرة إلى وفورات تشغيلية كبيرة.

تتوافق المنهجية مع الاتجاهات الحديثة في الحوسبة غير المتجانسة، حيث تجمع الأنظمة بين أنواع مختلفة من المعالجات المحسنة لمهام محددة. مع استمرار نمو النماذج اللغوية الكبيرة في الحجم والتعقيد، ستصبح منهجيات مثل Splitwise ذات أهمية متزايدة للنشر المستدام للذكاء الاصطناعي، معالجةً المخاوف الاقتصادية والبيئية المرتبطة باستدلال النماذج واسعة النطاق.

7. التطبيقات المستقبلية

تشمل الاتجاهات المستقبلية:

  • تحسين استدلال النماذج متعددة الوسائط
  • نشرات الحوسبة الطرفية
  • تخصيص موارد تكيفي في الوقت الفعلي
  • التكامل مع البنى التحتية للعتاد الناشئة

8. المراجع

  1. Vaswani, A., et al. "Attention is All You Need." NeurIPS 2017.
  2. Brown, T., et al. "Language Models are Few-Shot Learners." NeurIPS 2020.
  3. Wulf, W. A., & McKee, S. A. "Hitting the memory wall: implications of the obvious." ACM SIGARCH Computer Architecture News, 1995.
  4. NVIDIA Corporation. "NVIDIA H100 Tensor Core GPU Architecture." 2022.
  5. Dean, J., & Ghemawat, S. "MapReduce: Simplified data processing on large clusters." OSDI 2004.