الأسبوع الماضي أطلقنا c3-llamacpp، وهو حاوية لـ llama.cpp مع محمل hf سريع. هذا الأسبوع، c3-vllm. هذا يقوم بتهيئة vLLM، الزعيم النهائي لخوادم واجهة برمجة التطبيقات LLM.

FAST6.87%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 3
  • مشاركة
تعليق
0/400
UncleWhalevip
· 08-03 01:51
هذا الحاوية تناسبني جميعًا ، انطلق
شاهد النسخة الأصليةرد0
TrustlessMaximalistvip
· 08-03 01:50
ليس سيئًا على vllm على السلسلة
شاهد النسخة الأصليةرد0
PumpAnalystvip
· 08-03 01:44
لا يمكن أن يكون هناك مطاردة السعر بشكل أعمى حتى مع المعلومات المفضلة من الناحية الفنية، كن حذرًا من أن تتحول إلى قطع الذراع.
شاهد النسخة الأصليةرد0
  • تثبيت