Skip to content

Commit

Permalink
💄 style: support to show token usages (#6693)
Browse files Browse the repository at this point in the history
* update

* support token streaming

* fix tests

* fix lint
  • Loading branch information
arvinxx authored Mar 4, 2025
1 parent ccb56cd commit 71a638e
Show file tree
Hide file tree
Showing 81 changed files with 2,248 additions and 57 deletions.
29 changes: 29 additions & 0 deletions locales/ar/chat.json
Original file line number Diff line number Diff line change
Expand Up @@ -79,6 +79,35 @@
"deleteDisabledByThreads": "يوجد موضوعات فرعية، لا يمكن الحذف",
"regenerate": "إعادة الإنشاء"
},
"messages": {
"modelCard": {
"credit": "نقاط",
"creditPricing": "التسعير",
"creditTooltip": "لتسهيل العد، نقوم بتحويل 1$ إلى 1M نقطة، على سبيل المثال، 3$/M رموز تعني 3 نقاط/رمز",
"pricing": {
"inputCachedTokens": "مدخلات مخزنة {{amount}}/نقطة · ${{amount}}/M",
"inputCharts": "${{amount}}/M حرف",
"inputMinutes": "${{amount}}/دقيقة",
"inputTokens": "مدخلات {{amount}}/نقطة · ${{amount}}/M",
"outputTokens": "مخرجات {{amount}}/نقطة · ${{amount}}/M"
}
},
"tokenDetails": {
"input": "مدخلات",
"inputAudio": "مدخلات صوتية",
"inputCached": "مدخلات مخزنة",
"inputText": "مدخلات نصية",
"inputTitle": "تفاصيل المدخلات",
"inputUncached": "مدخلات غير مخزنة",
"output": "مخرجات",
"outputAudio": "مخرجات صوتية",
"outputText": "مخرجات نصية",
"outputTitle": "تفاصيل المخرجات",
"reasoning": "تفكير عميق",
"title": "تفاصيل التوليد",
"total": "الإجمالي المستهلك"
}
},
"newAgent": "مساعد جديد",
"pin": "تثبيت",
"pinOff": "إلغاء التثبيت",
Expand Down
48 changes: 48 additions & 0 deletions locales/ar/models.json
Original file line number Diff line number Diff line change
Expand Up @@ -8,6 +8,12 @@
"01-ai/Yi-1.5-9B-Chat-16K": {
"description": "Yi-1.5 9B يدعم 16K توكن، ويوفر قدرة توليد لغوية فعالة وسلسة."
},
"01-ai/yi-1.5-34b-chat": {
"description": "Zero One Everything، أحدث نموذج مفتوح المصدر تم تعديله، يحتوي على 34 مليار معلمة، ويدعم تعديلات متعددة لمشاهد الحوار، مع بيانات تدريب عالية الجودة تتماشى مع تفضيلات البشر."
},
"01-ai/yi-1.5-9b-chat": {
"description": "Zero One Everything، أحدث نموذج مفتوح المصدر تم تعديله، يحتوي على 9 مليار معلمة، ويدعم تعديلات متعددة لمشاهد الحوار، مع بيانات تدريب عالية الجودة تتماشى مع تفضيلات البشر."
},
"360gpt-pro": {
"description": "360GPT Pro كعضو مهم في سلسلة نماذج 360 AI، يلبي احتياجات معالجة النصوص المتنوعة بفعالية، ويدعم فهم النصوص الطويلة والحوار المتعدد الجولات."
},
Expand Down Expand Up @@ -503,6 +509,9 @@
"aya:35b": {
"description": "Aya 23 هو نموذج متعدد اللغات أطلقته Cohere، يدعم 23 لغة، مما يسهل التطبيقات اللغوية المتنوعة."
},
"baichuan/baichuan2-13b-chat": {
"description": "Baichuan-13B هو نموذج لغوي كبير مفتوح المصدر قابل للاستخدام التجاري تم تطويره بواسطة Baichuan Intelligence، ويحتوي على 13 مليار معلمة، وقد حقق أفضل النتائج في المعايير الصينية والإنجليزية."
},
"charglm-3": {
"description": "CharGLM-3 مصمم خصيصًا للأدوار التفاعلية والمرافقة العاطفية، يدعم ذاكرة متعددة الجولات طويلة الأمد وحوارات مخصصة، ويستخدم على نطاق واسع."
},
Expand Down Expand Up @@ -683,9 +692,30 @@
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 يعزز بشكل كبير من قدرة النموذج على الاستدلال في ظل وجود بيانات محدودة جدًا. قبل تقديم الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B هو نموذج لغوي كبير يعتمد على Llama3.3 70B، حيث يحقق أداءً تنافسيًا مماثلاً للنماذج الرائدة الكبيرة من خلال استخدام التعديلات المستندة إلى مخرجات DeepSeek R1."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B هو نموذج لغوي كبير مكرر يعتمد على Llama-3.1-8B-Instruct، تم تدريبه باستخدام مخرجات DeepSeek R1."
},
"deepseek/deepseek-r1-distill-qwen-14b": {
"description": "DeepSeek R1 Distill Qwen 14B هو نموذج لغوي كبير مكرر يعتمد على Qwen 2.5 14B، تم تدريبه باستخدام مخرجات DeepSeek R1. لقد تفوق هذا النموذج في العديد من اختبارات المعايير على نموذج OpenAI o1-mini، محققًا أحدث الإنجازات التقنية في النماذج الكثيفة. فيما يلي بعض نتائج اختبارات المعايير:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nتصنيف CodeForces: 1481\nأظهر هذا النموذج أداءً تنافسيًا مماثلاً للنماذج الرائدة الأكبر حجمًا من خلال التعديل المستند إلى مخرجات DeepSeek R1."
},
"deepseek/deepseek-r1-distill-qwen-32b": {
"description": "DeepSeek R1 Distill Qwen 32B هو نموذج لغوي كبير مكرر يعتمد على Qwen 2.5 32B، تم تدريبه باستخدام مخرجات DeepSeek R1. لقد تفوق هذا النموذج في العديد من اختبارات المعايير على نموذج OpenAI o1-mini، محققًا أحدث الإنجازات التقنية في النماذج الكثيفة. فيما يلي بعض نتائج اختبارات المعايير:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nتصنيف CodeForces: 1691\nأظهر هذا النموذج أداءً تنافسيًا مماثلاً للنماذج الرائدة الأكبر حجمًا من خلال التعديل المستند إلى مخرجات DeepSeek R1."
},
"deepseek/deepseek-r1/community": {
"description": "DeepSeek R1 هو أحدث نموذج مفتوح المصدر أطلقه فريق DeepSeek، ويتميز بأداء استدلال قوي للغاية، خاصة في المهام الرياضية والبرمجة والاستدلال، حيث وصل إلى مستوى مماثل لنموذج OpenAI o1."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 يعزز بشكل كبير من قدرة النموذج على الاستدلال في ظل وجود بيانات محدودة جدًا. قبل تقديم الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
},
"deepseek/deepseek-v3": {
"description": "حقق DeepSeek-V3 تقدمًا كبيرًا في سرعة الاستدلال مقارنة بالنماذج السابقة. يحتل المرتبة الأولى بين النماذج المفتوحة المصدر، ويمكن مقارنته بأحدث النماذج المغلقة على مستوى العالم. يعتمد DeepSeek-V3 على بنية الانتباه المتعدد الرؤوس (MLA) وبنية DeepSeekMoE، والتي تم التحقق منها بشكل شامل في DeepSeek-V2. بالإضافة إلى ذلك، قدم DeepSeek-V3 استراتيجية مساعدة غير مدمرة للتوازن في الحمل، وحدد أهداف تدريب متعددة التسمية لتحقيق أداء أقوى."
},
"deepseek/deepseek-v3/community": {
"description": "حقق DeepSeek-V3 تقدمًا كبيرًا في سرعة الاستدلال مقارنة بالنماذج السابقة. يحتل المرتبة الأولى بين النماذج المفتوحة المصدر، ويمكن مقارنته بأحدث النماذج المغلقة على مستوى العالم. يعتمد DeepSeek-V3 على بنية الانتباه المتعدد الرؤوس (MLA) وبنية DeepSeekMoE، والتي تم التحقق منها بشكل شامل في DeepSeek-V2. بالإضافة إلى ذلك، قدم DeepSeek-V3 استراتيجية مساعدة غير مدمرة للتوازن في الحمل، وحدد أهداف تدريب متعددة التسمية لتحقيق أداء أقوى."
},
"doubao-1.5-lite-32k": {
"description": "دو باو 1.5 لايت هو نموذج الجيل الجديد الخفيف، مع سرعة استجابة قصوى، حيث يصل الأداء والوقت المستغرق إلى مستوى عالمي."
},
Expand Down Expand Up @@ -1253,6 +1283,9 @@
"meta-llama/llama-3.2-11b-vision-instruct": {
"description": "تم تصميم LLaMA 3.2 لمعالجة المهام التي تجمع بين البيانات البصرية والنصية. إنه يتفوق في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة والاستدلال البصري."
},
"meta-llama/llama-3.2-3b-instruct": {
"description": "meta-llama/llama-3.2-3b-instruct"
},
"meta-llama/llama-3.2-90b-vision-instruct": {
"description": "تم تصميم LLaMA 3.2 لمعالجة المهام التي تجمع بين البيانات البصرية والنصية. إنه يتفوق في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة والاستدلال البصري."
},
Expand Down Expand Up @@ -1517,9 +1550,21 @@
"qwen-vl-v1": {
"description": "نموذج تم تدريبه باستخدام نموذج Qwen-7B اللغوي، مع إضافة نموذج الصور، بدقة إدخال الصور 448."
},
"qwen/qwen-2-7b-instruct": {
"description": "Qwen2 هو سلسلة جديدة من نماذج اللغة الكبيرة Qwen. Qwen2 7B هو نموذج يعتمد على بنية transformer، ويظهر أداءً ممتازًا في فهم اللغة، والقدرات متعددة اللغات، والبرمجة، والرياضيات، والاستدلال."
},
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 هو سلسلة جديدة من نماذج اللغة الكبيرة، تتمتع بقدرات فهم وتوليد أقوى."
},
"qwen/qwen-2-vl-72b-instruct": {
"description": "Qwen2-VL هو الإصدار الأحدث من نموذج Qwen-VL، وقد حقق أداءً متقدمًا في اختبارات الفهم البصري، بما في ذلك MathVista وDocVQA وRealWorldQA وMTVQA. يمكن لـ Qwen2-VL فهم مقاطع الفيديو التي تزيد مدتها عن 20 دقيقة، مما يتيح إجابات عالية الجودة على الأسئلة المستندة إلى الفيديو، والمحادثات، وإنشاء المحتوى. كما يتمتع بقدرات استدلال واتخاذ قرارات معقدة، ويمكن دمجه مع الأجهزة المحمولة والروبوتات، مما يتيح التشغيل التلقائي بناءً على البيئة البصرية والتعليمات النصية. بالإضافة إلى الإنجليزية والصينية، يدعم Qwen2-VL الآن فهم النصوص بلغات مختلفة في الصور، بما في ذلك معظم اللغات الأوروبية واليابانية والكورية والعربية والفيتنامية."
},
"qwen/qwen-2.5-72b-instruct": {
"description": "Qwen2.5-72B-Instruct هو أحد أحدث نماذج اللغة الكبيرة التي أصدرتها Alibaba Cloud. يتمتع هذا النموذج 72B بقدرات محسنة بشكل ملحوظ في مجالات الترميز والرياضيات. كما يوفر النموذج دعمًا متعدد اللغات، يغطي أكثر من 29 لغة، بما في ذلك الصينية والإنجليزية. وقد حقق النموذج تحسينات ملحوظة في اتباع التعليمات وفهم البيانات الهيكلية وتوليد المخرجات الهيكلية (خاصة JSON)."
},
"qwen/qwen2.5-32b-instruct": {
"description": "Qwen2.5-32B-Instruct هو أحد أحدث نماذج اللغة الكبيرة التي أصدرتها Alibaba Cloud. يتمتع هذا النموذج 32B بقدرات محسنة بشكل ملحوظ في مجالات الترميز والرياضيات. كما يوفر النموذج دعمًا متعدد اللغات، يغطي أكثر من 29 لغة، بما في ذلك الصينية والإنجليزية. وقد حقق النموذج تحسينات ملحوظة في اتباع التعليمات وفهم البيانات الهيكلية وتوليد المخرجات الهيكلية (خاصة JSON)."
},
"qwen/qwen2.5-7b-instruct": {
"description": "نموذج لغوي موجه للغة الصينية والإنجليزية، يستهدف مجالات اللغة، والبرمجة، والرياضيات، والاستدلال، وغيرها."
},
Expand Down Expand Up @@ -1667,6 +1712,9 @@
"text-embedding-3-small": {
"description": "نموذج التضمين من الجيل الجديد، فعال واقتصادي، مناسب لاسترجاع المعرفة وتطبيقات RAG وغيرها."
},
"thudm/glm-4-9b-chat": {
"description": "الإصدار المفتوح من الجيل الأحدث من نموذج GLM-4 الذي أطلقته Zhizhu AI."
},
"togethercomputer/StripedHyena-Nous-7B": {
"description": "StripedHyena Nous (7B) يوفر قدرة حسابية معززة من خلال استراتيجيات فعالة وهندسة نموذجية."
},
Expand Down
3 changes: 3 additions & 0 deletions locales/ar/providers.json
Original file line number Diff line number Diff line change
Expand Up @@ -89,6 +89,9 @@
"perplexity": {
"description": "Perplexity هي شركة رائدة في تقديم نماذج توليد الحوار، تقدم مجموعة من نماذج Llama 3.1 المتقدمة، تدعم التطبيقات عبر الإنترنت وغير المتصلة، وتناسب بشكل خاص مهام معالجة اللغة الطبيعية المعقدة."
},
"ppio": {
"description": "تقدم PPIO بايو السحابية خدمات واجهة برمجة التطبيقات لنماذج مفتوحة المصدر مستقرة وذات تكلفة فعالة، تدعم جميع سلسلة DeepSeek، وLlama، وQwen، وغيرها من النماذج الكبيرة الرائدة في الصناعة."
},
"qwen": {
"description": "Qwen هو نموذج لغة ضخم تم تطويره ذاتيًا بواسطة Alibaba Cloud، يتمتع بقدرات قوية في فهم وتوليد اللغة الطبيعية. يمكنه الإجابة على مجموعة متنوعة من الأسئلة، وكتابة المحتوى، والتعبير عن الآراء، وكتابة الشيفرات، ويؤدي دورًا في مجالات متعددة."
},
Expand Down
29 changes: 29 additions & 0 deletions locales/bg-BG/chat.json
Original file line number Diff line number Diff line change
Expand Up @@ -79,6 +79,35 @@
"deleteDisabledByThreads": "Съществуват подтеми, не можете да изтриете.",
"regenerate": "Прегенерирай"
},
"messages": {
"modelCard": {
"credit": "Кредити",
"creditPricing": "Ценообразуване",
"creditTooltip": "За удобство при броенето, 1$ се преобразува в 1M кредити, например $3/M токени се преобразува в 3 кредита/token",
"pricing": {
"inputCachedTokens": "Кеширани входящи {{amount}}/кредити · ${{amount}}/M",
"inputCharts": "${{amount}}/M символи",
"inputMinutes": "${{amount}}/минута",
"inputTokens": "Входящи {{amount}}/кредити · ${{amount}}/M",
"outputTokens": "Изходящи {{amount}}/кредити · ${{amount}}/M"
}
},
"tokenDetails": {
"input": "Вход",
"inputAudio": "Аудио вход",
"inputCached": "Кеширан вход",
"inputText": "Текстов вход",
"inputTitle": "Детайли за входа",
"inputUncached": "Некеширан вход",
"output": "Изход",
"outputAudio": "Аудио изход",
"outputText": "Текстов изход",
"outputTitle": "Детайли за изхода",
"reasoning": "Дълбочинно разсъждение",
"title": "Детайли за генериране",
"total": "Общо разходи"
}
},
"newAgent": "Нов агент",
"pin": "Закачи",
"pinOff": "Откачи",
Expand Down
Loading

0 comments on commit 71a638e

Please sign in to comment.