diff --git a/CHANGELOG.md b/CHANGELOG.md index 42da437e2897..0adc22845978 100644 --- a/CHANGELOG.md +++ b/CHANGELOG.md @@ -2,6 +2,156 @@ # Changelog +### [Version 1.19.15](https://github.com/lobehub/lobe-chat/compare/v1.19.14...v1.19.15) + +Released on **2024-09-20** + +#### 💄 Styles + +- **misc**: Improve i18n in discover. + +
+ +
+Improvements and Fixes + +#### Styles + +- **misc**: Improve i18n in discover, closes [#4049](https://github.com/lobehub/lobe-chat/issues/4049) ([8170889](https://github.com/lobehub/lobe-chat/commit/8170889)) + +
+ +
+ +[![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top) + +
+ +### [Version 1.19.14](https://github.com/lobehub/lobe-chat/compare/v1.19.13...v1.19.14) + +Released on **2024-09-20** + +#### 🐛 Bug Fixes + +- **misc**: Pin `shiki@1.17.7` to fix code highlight. + +
+ +
+Improvements and Fixes + +#### What's fixed + +- **misc**: Pin `shiki@1.17.7` to fix code highlight, closes [#4047](https://github.com/lobehub/lobe-chat/issues/4047) ([d12bf4c](https://github.com/lobehub/lobe-chat/commit/d12bf4c)) + +
+ +
+ +[![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top) + +
+ +### [Version 1.19.13](https://github.com/lobehub/lobe-chat/compare/v1.19.12...v1.19.13) + +Released on **2024-09-20** + +#### 🐛 Bug Fixes + +- **misc**: Try to implement better ssrf-protect. + +
+ +
+Improvements and Fixes + +#### What's fixed + +- **misc**: Try to implement better ssrf-protect, closes [#4044](https://github.com/lobehub/lobe-chat/issues/4044) ([e960a23](https://github.com/lobehub/lobe-chat/commit/e960a23)) + +
+ +
+ +[![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top) + +
+ +### [Version 1.19.12](https://github.com/lobehub/lobe-chat/compare/v1.19.11...v1.19.12) + +Released on **2024-09-20** + +#### 💄 Styles + +- **misc**: Support webhooks for casdoor. + +
+ +
+Improvements and Fixes + +#### Styles + +- **misc**: Support webhooks for casdoor, closes [#3942](https://github.com/lobehub/lobe-chat/issues/3942) ([1f2f6a5](https://github.com/lobehub/lobe-chat/commit/1f2f6a5)) + +
+ +
+ +[![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top) + +
+ +### [Version 1.19.11](https://github.com/lobehub/lobe-chat/compare/v1.19.10...v1.19.11) + +Released on **2024-09-20** + +#### 🐛 Bug Fixes + +- **misc**: Custom model initialization not taking effect error. + +
+ +
+Improvements and Fixes + +#### What's fixed + +- **misc**: Custom model initialization not taking effect error, closes [#4038](https://github.com/lobehub/lobe-chat/issues/4038) ([0e0d208](https://github.com/lobehub/lobe-chat/commit/0e0d208)) + +
+ +
+ +[![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top) + +
+ +### [Version 1.19.10](https://github.com/lobehub/lobe-chat/compare/v1.19.9...v1.19.10) + +Released on **2024-09-20** + +#### 💄 Styles + +- **misc**: Add qwen2.5 math and coder model for siliconcloud provider. + +
+ +
+Improvements and Fixes + +#### Styles + +- **misc**: Add qwen2.5 math and coder model for siliconcloud provider, closes [#4043](https://github.com/lobehub/lobe-chat/issues/4043) ([d16578f](https://github.com/lobehub/lobe-chat/commit/d16578f)) + +
+ +
+ +[![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top) + +
+ ### [Version 1.19.9](https://github.com/lobehub/lobe-chat/compare/v1.19.8...v1.19.9) Released on **2024-09-20** diff --git a/locales/ar/models.json b/locales/ar/models.json index 252f9474383d..4daff54a3189 100644 --- a/locales/ar/models.json +++ b/locales/ar/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B، يقدم أداءً ممتازًا في التطبيقات الصناعية بفضل مجموعة التدريب الغنية." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 هو الإصدار المطور من سلسلة Yi، ويتميز بتدريب مسبق عالي الجودة وبيانات تعديل غنية." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B يدعم 16K توكن، ويوفر قدرة توليد لغوية فعالة وسلسة." }, @@ -47,41 +44,56 @@ "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B) يوفر مخرجات لغوية محسنة وإمكانيات تطبيق متنوعة." }, + "Phi-3-5-mini-instruct": { + "description": "تحديث لنموذج Phi-3-mini." + }, + "Phi-3-medium-128k-instruct": { + "description": "نموذج Phi-3-medium نفسه، ولكن مع حجم سياق أكبر لـ RAG أو التوجيه القليل." + }, + "Phi-3-medium-4k-instruct": { + "description": "نموذج بحجم 14B، يثبت جودة أفضل من Phi-3-mini، مع التركيز على البيانات الكثيفة في التفكير عالية الجودة." + }, + "Phi-3-mini-128k-instruct": { + "description": "نموذج Phi-3-mini نفسه، ولكن مع حجم سياق أكبر لـ RAG أو التوجيه القليل." + }, + "Phi-3-mini-4k-instruct": { + "description": "أصغر عضو في عائلة Phi-3. مُحسّن لكل من الجودة وزمن الاستجابة المنخفض." + }, + "Phi-3-small-128k-instruct": { + "description": "نموذج Phi-3-small نفسه، ولكن مع حجم سياق أكبر لـ RAG أو التوجيه القليل." + }, + "Phi-3-small-8k-instruct": { + "description": "نموذج بحجم 7B، يثبت جودة أفضل من Phi-3-mini، مع التركيز على البيانات الكثيفة في التفكير عالية الجودة." + }, "Pro-128k": { "description": "Spark Pro-128K مزود بقدرة معالجة سياق ضخمة، يمكنه التعامل مع معلومات سياق تصل إلى 128K، مما يجعله مثاليًا للمحتوى الطويل الذي يتطلب تحليلًا شاملًا ومعالجة علاقات منطقية طويلة الأمد، ويمكنه تقديم منطق سلس ودقيق ودعم متنوع للاقتباسات في التواصل النصي المعقد." }, "Qwen/Qwen1.5-110B-Chat": { "description": "كنموذج تجريبي لـ Qwen2، يستخدم Qwen1.5 بيانات ضخمة لتحقيق وظائف حوارية أكثر دقة." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5 تم تدريبه على مجموعة بيانات ضخمة، ويتفوق في المهام اللغوية المعقدة." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 يمتلك القدرة على الإجابة على الأسئلة في مجالات متعددة وتوليد النصوص." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) يوفر استجابة سريعة وقدرة على الحوار الطبيعي، مناسب للبيئات متعددة اللغات." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 يعزز قدرة التعبير الحواري من خلال دمج التدريب المسبق المتقدم والتعديل." + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 هو نموذج لغوي عام متقدم، يدعم أنواع متعددة من التعليمات." }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية." + "Qwen/Qwen2.5-14B-Instruct": { + "description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية." }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 هو سلسلة جديدة، حيث يظهر نموذج 57B A14B أداءً ممتازًا في المهام الإرشادية." + "Qwen/Qwen2.5-32B-Instruct": { + "description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية." }, - "Qwen/Qwen2-72B-Instruct": { - "description": "Qwen2 هو نموذج لغوي عام متقدم، يدعم أنواع متعددة من التعليمات." + "Qwen/Qwen2.5-72B-Instruct": { + "description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تتمتع بقدرات أقوى في الفهم والتوليد." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 هو سلسلة جديدة من نماذج اللغة الكبيرة، تتمتع بقدرات فهم وتوليد أقوى." + "Qwen/Qwen2.5-7B-Instruct": { + "description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية." }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math يركز على حل المشكلات في مجال الرياضيات، ويقدم إجابات احترافية للأسئلة الصعبة." + "Qwen/Qwen2.5-Coder-7B-Instruct": { + "description": "Qwen2.5-Coder يركز على كتابة الشيفرة." }, - "THUDM/chatglm3-6b": { - "description": "كنموذج لغوي للحوار ثنائي اللغة، يمكن لـ ChatGLM3 معالجة مهام تحويل اللغة بين الصينية والإنجليزية." + "Qwen/Qwen2.5-Math-72B-Instruct": { + "description": "Qwen2.5-Math يركز على حل المشكلات في مجال الرياضيات، ويقدم إجابات احترافية للأسئلة الصعبة." }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B هو إصدار مفتوح المصدر، يوفر تجربة حوار محسنة لتطبيقات الحوار." @@ -158,6 +170,15 @@ "accounts/yi-01-ai/models/yi-large": { "description": "نموذج Yi-Large، يتمتع بقدرة معالجة لغوية ممتازة، يمكن استخدامه في جميع أنواع مهام توليد وفهم اللغة." }, + "ai21-jamba-1.5-large": { + "description": "نموذج متعدد اللغات بحجم 398B (94B نشط)، يقدم نافذة سياق طويلة بحجم 256K، واستدعاء وظائف، وإخراج منظم، وتوليد مستند." + }, + "ai21-jamba-1.5-mini": { + "description": "نموذج متعدد اللغات بحجم 52B (12B نشط)، يقدم نافذة سياق طويلة بحجم 256K، واستدعاء وظائف، وإخراج منظم، وتوليد مستند." + }, + "ai21-jamba-instruct": { + "description": "نموذج LLM يعتمد على Mamba، مصمم لتحقيق أفضل أداء وكفاءة من حيث الجودة والتكلفة." + }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnet يرفع المعايير في الصناعة، حيث يتفوق على نماذج المنافسين وClaude 3 Opus، ويظهر أداءً ممتازًا في تقييمات واسعة، مع سرعة وتكلفة تتناسب مع نماذجنا المتوسطة." }, @@ -254,6 +275,12 @@ "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22B هو نموذج مصمم للامتثال للتعليمات، والحوار، والبرمجة." }, + "cohere-command-r": { + "description": "نموذج توليدي قابل للتوسع يستهدف RAG واستخدام الأدوات لتمكين الذكاء الاصطناعي على نطاق الإنتاج للمؤسسات." + }, + "cohere-command-r-plus": { + "description": "نموذج RAG محسّن من الطراز الأول مصمم للتعامل مع أحمال العمل على مستوى المؤسسات." + }, "command-r": { "description": "Command R هو نموذج LLM محسن لمهام الحوار والسياقات الطويلة، مناسب بشكل خاص للتفاعل الديناميكي وإدارة المعرفة." }, @@ -263,12 +290,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct يوفر قدرة معالجة تعليمات موثوقة، يدعم تطبيقات متعددة الصناعات." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 مصمم لمهام البرمجة، يركز على توليد الأكواد بكفاءة." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 يحتوي على 6.7 مليار معلمة، ويدعم معالجة النصوص بالإنجليزية والصينية." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 يجمع بين الميزات الممتازة للإصدارات السابقة، ويعزز القدرات العامة والترميز." }, @@ -467,6 +488,8 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 يوفر حلول حوار ذكية في عدة سيناريوهات." }, + "jamba-1.5-large": {}, + "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "نموذج Llama 3.1 70B للتعليمات، يتمتع بـ 70B من المعلمات، قادر على تقديم أداء ممتاز في مهام توليد النصوص الكبيرة والتعليمات." }, @@ -530,6 +553,21 @@ "mathstral": { "description": "MathΣtral مصمم للبحث العلمي والاستدلال الرياضي، يوفر قدرة حسابية فعالة وتفسير النتائج." }, + "meta-llama-3-70b-instruct": { + "description": "نموذج قوي بحجم 70 مليار معلمة يتفوق في التفكير، والترميز، وتطبيقات اللغة الواسعة." + }, + "meta-llama-3-8b-instruct": { + "description": "نموذج متعدد الاستخدامات بحجم 8 مليار معلمة، مُحسّن لمهام الحوار وتوليد النصوص." + }, + "meta-llama-3.1-405b-instruct": { + "description": "نموذج Llama 3.1 المُعدل للتعليمات، مُحسّن لاستخدامات الحوار متعددة اللغات ويتفوق على العديد من نماذج الدردشة المفتوحة والمغلقة المتاحة في المعايير الصناعية الشائعة." + }, + "meta-llama-3.1-70b-instruct": { + "description": "نموذج Llama 3.1 المُعدل للتعليمات، مُحسّن لاستخدامات الحوار متعددة اللغات ويتفوق على العديد من نماذج الدردشة المفتوحة والمغلقة المتاحة في المعايير الصناعية الشائعة." + }, + "meta-llama-3.1-8b-instruct": { + "description": "نموذج Llama 3.1 المُعدل للتعليمات، مُحسّن لاستخدامات الحوار متعددة اللغات ويتفوق على العديد من نماذج الدردشة المفتوحة والمغلقة المتاحة في المعايير الصناعية الشائعة." + }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B) يوفر قدرة ممتازة على معالجة اللغة وتجربة تفاعلية رائعة." }, @@ -539,9 +577,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) يوفر دعمًا متعدد اللغات، ويغطي مجموعة واسعة من المعرفة في المجالات." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 يدعم توليد نصوص كبيرة وفهم التعليمات." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite مناسب للبيئات التي تتطلب أداءً عاليًا وزمن استجابة منخفض." }, @@ -620,12 +655,21 @@ "mistral-large": { "description": "Mixtral Large هو النموذج الرائد من Mistral، يجمع بين قدرات توليد الشيفرة، والرياضيات، والاستدلال، ويدعم نافذة سياق تصل إلى 128k." }, + "mistral-large-2407": { + "description": "Mistral Large (2407) هو نموذج لغة كبير متقدم (LLM) يتمتع بقدرات متطورة في التفكير والمعرفة والترميز." + }, "mistral-large-latest": { "description": "Mistral Large هو النموذج الرائد، يتفوق في المهام متعددة اللغات، والاستدلال المعقد، وتوليد الشيفرة، وهو الخيار المثالي للتطبيقات الراقية." }, "mistral-nemo": { "description": "Mistral Nemo تم تطويره بالتعاون بين Mistral AI وNVIDIA، وهو نموذج 12B عالي الأداء." }, + "mistral-small": { + "description": "يمكن استخدام Mistral Small في أي مهمة تعتمد على اللغة تتطلب كفاءة عالية وزمن استجابة منخفض." + }, + "mistral-small-latest": { + "description": "Mistral Small هو خيار فعال من حيث التكلفة وسريع وموثوق، مناسب لمهام الترجمة، والتلخيص، وتحليل المشاعر." + }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instruct معروف بأدائه العالي، مناسب لمهام لغوية متعددة." }, @@ -713,20 +757,29 @@ "phi3:14b": { "description": "Phi-3 هو نموذج مفتوح خفيف الوزن أطلقته Microsoft، مناسب للتكامل الفعال واستدلال المعرفة على نطاق واسع." }, + "pixtral-12b-2409": { + "description": "نموذج Pixtral يظهر قدرات قوية في فهم الرسوم البيانية والصور، والإجابة على الأسئلة المتعلقة بالمستندات، والاستدلال متعدد الوسائط، واتباع التعليمات، مع القدرة على إدخال الصور بدقة طبيعية ونسبة عرض إلى ارتفاع، بالإضافة إلى معالجة عدد غير محدود من الصور في نافذة سياق طويلة تصل إلى 128K توكن." + }, + "qwen-coder-turbo-latest": { + "description": "نموذج Qwen للبرمجة." + }, "qwen-long": { "description": "نموذج Qwen العملاق للغة، يدعم سياقات نصية طويلة، بالإضافة إلى وظائف الحوار المستندة إلى الوثائق الطويلة والعديد من الوثائق." }, - "qwen-max": { - "description": "نموذج Qwen العملاق للغة بمستوى تريليوني، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية، وهو النموذج API وراء إصدار Qwen 2.5." + "qwen-math-plus-latest": { + "description": "نموذج Qwen الرياضي مصمم خصيصًا لحل المسائل الرياضية." }, - "qwen-max-longcontext": { - "description": "نموذج Qwen العملاق للغة بمستوى تريليوني، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية، ويوسع نافذة السياق." + "qwen-math-turbo-latest": { + "description": "نموذج Qwen الرياضي مصمم خصيصًا لحل المسائل الرياضية." }, - "qwen-plus": { - "description": "نموذج Qwen العملاق للغة المعزز، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية." + "qwen-max-latest": { + "description": "نموذج لغة ضخم من Qwen بمستوى تريليونات، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية، وهو النموذج API وراء إصدار Qwen 2.5." }, - "qwen-turbo": { - "description": "نموذج Qwen العملاق للغة، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية." + "qwen-plus-latest": { + "description": "نسخة محسنة من نموذج لغة Qwen الضخم، تدعم إدخال لغات مختلفة مثل الصينية والإنجليزية." + }, + "qwen-turbo-latest": { + "description": "نموذج لغة ضخم من Qwen، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية." }, "qwen-vl-chat-v1": { "description": "نموذج Qwen العملاق للغة البصرية يدعم طرق تفاعل مرنة، بما في ذلك الصور المتعددة، والأسئلة والأجوبة المتعددة، والإبداع." @@ -746,17 +799,32 @@ "qwen2": { "description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة." }, - "qwen2-57b-a14b-instruct": { - "description": "نموذج Qwen2 بحجم 57B مع 14B من معلمات MOE مفتوح المصدر." + "qwen2.5-14b-instruct": { + "description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 14B." + }, + "qwen2.5-32b-instruct": { + "description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 32B." + }, + "qwen2.5-72b-instruct": { + "description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 72B." + }, + "qwen2.5-7b-instruct": { + "description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 7B." + }, + "qwen2.5-coder-1.5b-instruct": { + "description": "نسخة مفتوحة المصدر من نموذج Qwen للبرمجة." + }, + "qwen2.5-coder-7b-instruct": { + "description": "نسخة مفتوحة المصدر من نموذج Qwen للبرمجة." }, - "qwen2-72b-instruct": { - "description": "نموذج Qwen2 بحجم 72B مفتوح المصدر." + "qwen2.5-math-1.5b-instruct": { + "description": "نموذج Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية." }, - "qwen2-7b-instruct": { - "description": "نموذج Qwen2 بحجم 7B مفتوح المصدر." + "qwen2.5-math-72b-instruct": { + "description": "نموذج Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية." }, - "qwen2-math-72b-instruct": { - "description": "نموذج Qwen2-Math يتمتع بقدرات قوية في حل المسائل الرياضية." + "qwen2.5-math-7b-instruct": { + "description": "نموذج Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية." }, "qwen2:0.5b": { "description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة." diff --git a/locales/ar/providers.json b/locales/ar/providers.json index 45fb63774abb..9daacf2d1fa6 100644 --- a/locales/ar/providers.json +++ b/locales/ar/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "AI 360 هي منصة نماذج وخدمات الذكاء الاصطناعي التي أطلقتها شركة 360، تقدم مجموعة متنوعة من نماذج معالجة اللغة الطبيعية المتقدمة، بما في ذلك 360GPT2 Pro و360GPT Pro و360GPT Turbo و360GPT Turbo Responsibility 8K. تجمع هذه النماذج بين المعلمات الكبيرة والقدرات متعددة الوسائط، وتستخدم على نطاق واسع في توليد النصوص، وفهم المعاني، وأنظمة الحوار، وتوليد الشيفرات. من خلال استراتيجيات تسعير مرنة، تلبي AI 360 احتياجات المستخدمين المتنوعة، وتدعم المطورين في التكامل، مما يعزز الابتكار والتطوير في التطبيقات الذكية." }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AI هي شركة رائدة في تقديم خدمات نماذج اللغة المتقدمة، تركز على استدعاء الوظائف والمعالجة متعددة الوسائط. نموذجها الأحدث Firefunction V2 مبني على Llama-3، مُحسّن لاستدعاء الوظائف، والحوار، واتباع التعليمات. يدعم نموذج اللغة البصرية FireLLaVA-13B إدخال الصور والنصوص المختلطة. تشمل النماذج البارزة الأخرى سلسلة Llama وسلسلة Mixtral، مما يوفر دعمًا فعالًا لاتباع التعليمات وتوليدها بلغات متعددة." }, + "github": { + "description": "مع نماذج GitHub، يمكن للمطورين أن يصبحوا مهندسي ذكاء اصطناعي ويبنون باستخدام نماذج الذكاء الاصطناعي الرائدة في الصناعة." + }, "google": { "description": "سلسلة Gemini من Google هي نماذج الذكاء الاصطناعي الأكثر تقدمًا وشمولية، تم تطويرها بواسطة Google DeepMind، مصممة خصيصًا لتكون متعددة الوسائط، تدعم الفهم والمعالجة السلسة للنصوص، والشيفرات، والصور، والصوت، والفيديو. تناسب مجموعة متنوعة من البيئات، من مراكز البيانات إلى الأجهزة المحمولة، مما يعزز بشكل كبير كفاءة نماذج الذكاء الاصطناعي وانتشار استخدامها." }, diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json index 8d01aebe881e..171c21806eb4 100644 --- a/locales/bg-BG/models.json +++ b/locales/bg-BG/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B предлага отлични резултати в индустриалните приложения с богат набор от обучителни примери." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 е еволюционна версия на серията Yi, с високо качество на предварителното обучение и богати данни за фино настройване." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B поддържа 16K токена, предоставяйки ефективни и плавни способности за генериране на език." }, @@ -47,41 +44,56 @@ "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B) предлага оптимизирани езикови изходи и разнообразни възможности за приложение." }, + "Phi-3-5-mini-instruct": { + "description": "Обновление на модела Phi-3-mini." + }, + "Phi-3-medium-128k-instruct": { + "description": "Същият модел Phi-3-medium, но с по-голям размер на контекста за RAG или малко подканване." + }, + "Phi-3-medium-4k-instruct": { + "description": "Модел с 14B параметри, предлагащ по-добро качество от Phi-3-mini, с акцент върху висококачествени, плътни на разсъждения данни." + }, + "Phi-3-mini-128k-instruct": { + "description": "Същият модел Phi-3-mini, но с по-голям размер на контекста за RAG или малко подканване." + }, + "Phi-3-mini-4k-instruct": { + "description": "Най-малкият член на семейството Phi-3. Оптимизиран както за качество, така и за ниска латентност." + }, + "Phi-3-small-128k-instruct": { + "description": "Същият модел Phi-3-small, но с по-голям размер на контекста за RAG или малко подканване." + }, + "Phi-3-small-8k-instruct": { + "description": "Модел с 7B параметри, предлагащ по-добро качество от Phi-3-mini, с акцент върху висококачествени, плътни на разсъждения данни." + }, "Pro-128k": { "description": "Spark Pro-128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочни логически връзки, предоставяйки плавна и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации." }, "Qwen/Qwen1.5-110B-Chat": { "description": "Като тестова версия на Qwen2, Qwen1.5 използва големи данни за постигане на по-точни диалогови функции." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5 е обучен с големи набори от данни и е специализиран в сложни езикови задачи." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 притежава способности за отговори на въпроси в множество области и генериране на текст." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) предлага бързи отговори и естествени диалогови способности, подходящи за многоезични среди." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 подобрява способността за диалогово изразяване чрез комбиниране на напреднало предварително обучение и фино настройване." + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 е напреднал универсален езиков модел, поддържащ множество типове инструкции." }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 е нова серия от големи езикови модели, предназначена за оптимизиране на обработката на инструкции." + "Qwen/Qwen2.5-14B-Instruct": { + "description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции." }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 е нова серия, при която моделът 57B A14B показва отлични резултати в задачите с инструкции." + "Qwen/Qwen2.5-32B-Instruct": { + "description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции." }, - "Qwen/Qwen2-72B-Instruct": { - "description": "Qwen2 е напреднал универсален езиков модел, поддържащ множество типове инструкции." + "Qwen/Qwen2.5-72B-Instruct": { + "description": "Qwen2.5 е нова серия от големи езикови модели с по-силни способности за разбиране и генериране." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 е нова серия от големи езикови модели с по-силни способности за разбиране и генериране." + "Qwen/Qwen2.5-7B-Instruct": { + "description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции." }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math се фокусира върху решаването на проблеми в математическата област, предоставяйки професионални отговори на трудни задачи." + "Qwen/Qwen2.5-Coder-7B-Instruct": { + "description": "Qwen2.5-Coder се фокусира върху писането на код." }, - "THUDM/chatglm3-6b": { - "description": "Като двуезичен разговорен езиков модел, ChatGLM3 може да обработва задачи за превод между китайски и английски." + "Qwen/Qwen2.5-Math-72B-Instruct": { + "description": "Qwen2.5-Math се фокусира върху решаването на математически проблеми, предоставяйки професионални отговори на трудни задачи." }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B е отворен код версия, предоставяща оптимизирано изживяване в разговорните приложения." @@ -158,6 +170,15 @@ "accounts/yi-01-ai/models/yi-large": { "description": "Yi-Large модел, предлагащ изключителни способности за многоезична обработка, подходящ за различни задачи по генериране и разбиране на език." }, + "ai21-jamba-1.5-large": { + "description": "Многоезичен модел с 398B параметри (94B активни), предлагащ контекстен прозорец с дължина 256K, извикване на функции, структурирани изходи и генериране на основа." + }, + "ai21-jamba-1.5-mini": { + "description": "Многоезичен модел с 52B параметри (12B активни), предлагащ контекстен прозорец с дължина 256K, извикване на функции, структурирани изходи и генериране на основа." + }, + "ai21-jamba-instruct": { + "description": "Модел на базата на Mamba, проектиран за постигане на най-добри резултати, качество и ефективност на разходите." + }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надвишаваща конкурентните модели и Claude 3 Opus, с отлични резултати в широки оценки, като същевременно предлага скорост и разходи на нашите модели от средно ниво." }, @@ -254,6 +275,12 @@ "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22B е модел, проектиран за следване на инструкции, диалози и програмиране." }, + "cohere-command-r": { + "description": "Command R е мащабируем генеративен модел, насочен към RAG и използване на инструменти, за да позволи AI на производствено ниво за предприятия." + }, + "cohere-command-r-plus": { + "description": "Command R+ е модел, оптимизиран за RAG, проектиран да се справя с натоварвания на ниво предприятие." + }, "command-r": { "description": "Command R е LLM, оптимизиран за диалогови и дълги контекстуални задачи, особено подходящ за динамично взаимодействие и управление на знания." }, @@ -263,12 +290,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct предлага висока надеждност в обработката на инструкции, поддържаща приложения в множество индустрии." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 е проектиран за кодови задачи, с фокус върху ефективното генериране на код." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 разполага с 6.7 милиарда параметри и поддържа обработка на текст на английски и китайски." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 обединява отличителните характеристики на предишните версии, подобрявайки общите и кодиращите способности." }, @@ -467,6 +488,8 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 предлага интелигентни решения за диалог в множество сценарии." }, + "jamba-1.5-large": {}, + "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "Llama 3.1 70B Instruct модел, с 70B параметри, способен да предоставя изключителна производителност в задачи за генериране на текст и инструкции." }, @@ -530,6 +553,21 @@ "mathstral": { "description": "MathΣtral е проектиран за научни изследвания и математически разсъждения, предоставяйки ефективни изчислителни способности и интерпретация на резултати." }, + "meta-llama-3-70b-instruct": { + "description": "Мощен модел с 70 милиарда параметри, отличаващ се в разсъждения, кодиране и широки езикови приложения." + }, + "meta-llama-3-8b-instruct": { + "description": "Универсален модел с 8 милиарда параметри, оптимизиран за диалогови и текстови генериращи задачи." + }, + "meta-llama-3.1-405b-instruct": { + "description": "Моделите на Llama 3.1, настроени за инструкции, са оптимизирани за многоезични диалогови случаи на употреба и надминават много от наличните модели с отворен код и затворени чат модели на общи индустриални стандарти." + }, + "meta-llama-3.1-70b-instruct": { + "description": "Моделите на Llama 3.1, настроени за инструкции, са оптимизирани за многоезични диалогови случаи на употреба и надминават много от наличните модели с отворен код и затворени чат модели на общи индустриални стандарти." + }, + "meta-llama-3.1-8b-instruct": { + "description": "Моделите на Llama 3.1, настроени за инструкции, са оптимизирани за многоезични диалогови случаи на употреба и надминават много от наличните модели с отворен код и затворени чат модели на общи индустриални стандарти." + }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B) предлага отлични способности за обработка на език и изключителен интерактивен опит." }, @@ -539,9 +577,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) предлага многоезична поддръжка, обхващаща богати области на знание." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 поддържа генериране на големи обеми текст и анализ на инструкции." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite е подходящ за среди, изискващи висока производителност и ниска латентност." }, @@ -620,12 +655,21 @@ "mistral-large": { "description": "Mixtral Large е флагманският модел на Mistral, комбиниращ способности за генериране на код, математика и разсъждение, поддържащ контекстен прозорец от 128k." }, + "mistral-large-2407": { + "description": "Mistral Large (2407) е напреднал модел на езика (LLM) с най-съвременни способности за разсъждение, знание и кодиране." + }, "mistral-large-latest": { "description": "Mistral Large е флагманският модел, специализиран в многоезични задачи, сложни разсъждения и генериране на код, идеален за висококачествени приложения." }, "mistral-nemo": { "description": "Mistral Nemo е 12B модел, разработен в сътрудничество между Mistral AI и NVIDIA, предлагащ ефективна производителност." }, + "mistral-small": { + "description": "Mistral Small може да се използва за всяка езикова задача, която изисква висока ефективност и ниска латентност." + }, + "mistral-small-latest": { + "description": "Mistral Small е икономически ефективен, бърз и надежден вариант, подходящ за случаи на употреба като превод, резюме и анализ на настроението." + }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instruct е известен с високата си производителност, подходящ за множество езикови задачи." }, @@ -713,20 +757,29 @@ "phi3:14b": { "description": "Phi-3 е лек отворен модел, представен от Microsoft, подходящ за ефективна интеграция и мащабно знание разсъждение." }, + "pixtral-12b-2409": { + "description": "Моделът Pixtral демонстрира силни способности в задачи като разбиране на графики и изображения, отговори на документи, многомодално разсъждение и следване на инструкции, способен да приема изображения с естествено разрешение и съотношение на страните, както и да обработва произволен брой изображения в контекстен прозорец с дължина до 128K токена." + }, + "qwen-coder-turbo-latest": { + "description": "Моделът на кода Qwen." + }, "qwen-long": { "description": "Qwen е мащабен езиков модел, който поддържа дълги текстови контексти и диалогови функции, базирани на дълги документи и множество документи." }, - "qwen-max": { - "description": "Qwen е мащабен езиков модел с ниво на 100 милиарда параметри, който поддържа вход на различни езици, включително китайски и английски, в момента е API моделът зад версията на продукта Qwen 2.5." + "qwen-math-plus-latest": { + "description": "Математическият модел Qwen е специално проектиран за решаване на математически задачи." }, - "qwen-max-longcontext": { - "description": "Qwen е мащабен езиков модел с ниво на 100 милиарда параметри, който поддържа вход на различни езици, включително китайски и английски, разширявайки контекстуалния прозорец." + "qwen-math-turbo-latest": { + "description": "Математическият модел Qwen е специално проектиран за решаване на математически задачи." }, - "qwen-plus": { - "description": "Qwen е подобрена версия на мащабния езиков модел, която поддържа вход на различни езици, включително китайски и английски." + "qwen-max-latest": { + "description": "Qwen Max е езиков модел с мащаб от стотици милиарди параметри, който поддържа вход на различни езици, включително китайски и английски. В момента е основният API модел зад версията на продукта Qwen 2.5." }, - "qwen-turbo": { - "description": "Qwen е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски." + "qwen-plus-latest": { + "description": "Разширената версия на Qwen Turbo е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски." + }, + "qwen-turbo-latest": { + "description": "Моделът на езика Qwen Turbo е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски." }, "qwen-vl-chat-v1": { "description": "Qwen VL поддържа гъвкави интерактивни методи, включително множество изображения, многократни въпроси и отговори, творчество и др." @@ -746,17 +799,32 @@ "qwen2": { "description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения." }, - "qwen2-57b-a14b-instruct": { - "description": "Qwen2 е отворен модел с 57B параметри и 14B активирани параметри в MOE модела." + "qwen2.5-14b-instruct": { + "description": "Модел с мащаб 14B, отворен за обществеността от Qwen 2.5." + }, + "qwen2.5-32b-instruct": { + "description": "Модел с мащаб 32B, отворен за обществеността от Qwen 2.5." + }, + "qwen2.5-72b-instruct": { + "description": "Модел с мащаб 72B, отворен за обществеността от Qwen 2.5." + }, + "qwen2.5-7b-instruct": { + "description": "Модел с мащаб 7B, отворен за обществеността от Qwen 2.5." + }, + "qwen2.5-coder-1.5b-instruct": { + "description": "Отворената версия на модела на кода Qwen." + }, + "qwen2.5-coder-7b-instruct": { + "description": "Отворената версия на модела на кода Qwen." }, - "qwen2-72b-instruct": { - "description": "Qwen2 е отворен модел с 72B параметри." + "qwen2.5-math-1.5b-instruct": { + "description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи." }, - "qwen2-7b-instruct": { - "description": "Qwen2 е отворен модел с 7B параметри." + "qwen2.5-math-72b-instruct": { + "description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи." }, - "qwen2-math-72b-instruct": { - "description": "Qwen2-Math моделът разполага с мощни способности за решаване на математически задачи." + "qwen2.5-math-7b-instruct": { + "description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи." }, "qwen2:0.5b": { "description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения." diff --git a/locales/bg-BG/providers.json b/locales/bg-BG/providers.json index 4dec79830cbf..3dc565accb89 100644 --- a/locales/bg-BG/providers.json +++ b/locales/bg-BG/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "360 AI е платформа за AI модели и услуги, предлагана от компания 360, предлагаща множество напреднали модели за обработка на естествен език, включително 360GPT2 Pro, 360GPT Pro, 360GPT Turbo и 360GPT Turbo Responsibility 8K. Тези модели комбинират голям брой параметри и мултимодални способности, широко използвани в текстово генериране, семантично разбиране, диалогови системи и генериране на код. Чрез гъвкава ценова стратегия, 360 AI отговаря на разнообразни потребителски нужди, поддържайки интеграция за разработчици и насърчавайки иновации и развитие на интелигентни приложения." }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AI е водещ доставчик на напреднали езикови модели, фокусирайки се върху извикване на функции и мултимодална обработка. Най-новият им модел Firefunction V2, базиран на Llama-3, е оптимизиран за извикване на функции, диалози и следване на инструкции. Визуалният езиков модел FireLLaVA-13B поддържа смесени входове от изображения и текст. Други забележителни модели включват серията Llama и серията Mixtral, предлагащи ефективна поддръжка за многоезично следване на инструкции и генериране." }, + "github": { + "description": "С моделите на GitHub разработчиците могат да станат AI инженери и да изграждат с водещите AI модели в индустрията." + }, "google": { "description": "Серията Gemini на Google е най-напредналият и универсален AI модел, разработен от Google DeepMind, проектиран за мултимодално разбиране и обработка на текст, код, изображения, аудио и видео. Подходящ за различни среди, от центрове за данни до мобилни устройства, значително увеличава ефективността и приложимостта на AI моделите." }, diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json index 61c7035c90d8..383bf120facc 100644 --- a/locales/de-DE/models.json +++ b/locales/de-DE/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B bietet mit umfangreichen Trainingsbeispielen überlegene Leistungen in der Branchenanwendung." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 ist die evolutionäre Version der Yi-Serie mit hochwertigem Vortraining und umfangreichen Feinabstimmungsdaten." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B unterstützt 16K Tokens und bietet effiziente, flüssige Sprachgenerierungsfähigkeiten." }, @@ -47,41 +44,56 @@ "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B) bietet optimierte Sprachausgaben und vielfältige Anwendungsmöglichkeiten." }, + "Phi-3-5-mini-instruct": { + "description": "Aktualisierung des Phi-3-mini-Modells." + }, + "Phi-3-medium-128k-instruct": { + "description": "Das gleiche Phi-3-medium-Modell, jedoch mit einer größeren Kontextgröße für RAG oder Few-Shot-Prompting." + }, + "Phi-3-medium-4k-instruct": { + "description": "Ein Modell mit 14 Milliarden Parametern, das eine bessere Qualität als Phi-3-mini bietet und sich auf qualitativ hochwertige, reasoning-dense Daten konzentriert." + }, + "Phi-3-mini-128k-instruct": { + "description": "Das gleiche Phi-3-mini-Modell, jedoch mit einer größeren Kontextgröße für RAG oder Few-Shot-Prompting." + }, + "Phi-3-mini-4k-instruct": { + "description": "Das kleinste Mitglied der Phi-3-Familie. Optimiert für Qualität und geringe Latenz." + }, + "Phi-3-small-128k-instruct": { + "description": "Das gleiche Phi-3-small-Modell, jedoch mit einer größeren Kontextgröße für RAG oder Few-Shot-Prompting." + }, + "Phi-3-small-8k-instruct": { + "description": "Ein Modell mit 7 Milliarden Parametern, das eine bessere Qualität als Phi-3-mini bietet und sich auf qualitativ hochwertige, reasoning-dense Daten konzentriert." + }, "Pro-128k": { "description": "Spark Pro-128K ist mit einer extrem großen Kontextverarbeitungsfähigkeit ausgestattet, die bis zu 128K Kontextinformationen verarbeiten kann, besonders geeignet für lange Texte, die eine umfassende Analyse und langfristige logische Verknüpfung erfordern, und bietet in komplexen Textkommunikationen flüssige und konsistente Logik sowie vielfältige Zitationsunterstützung." }, "Qwen/Qwen1.5-110B-Chat": { "description": "Als Testversion von Qwen2 bietet Qwen1.5 präzisere Dialogfunktionen durch den Einsatz großer Datenmengen." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5 ist durch das Training mit umfangreichen Datensätzen in der Lage, komplexe Sprachaufgaben zu bewältigen." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 verfügt über Fähigkeiten in der Beantwortung von Fragen aus mehreren Bereichen und der Textgenerierung." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) bietet schnelle Antworten und natürliche Dialogfähigkeiten, die sich für mehrsprachige Umgebungen eignen." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 verbessert die Dialogausdrucksfähigkeit durch die Kombination von fortgeschrittenem Vortraining und Feinabstimmung." + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 ist ein fortschrittliches allgemeines Sprachmodell, das eine Vielzahl von Anweisungsarten unterstützt." }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 ist eine neue Serie großer Sprachmodelle, die darauf abzielt, die Verarbeitung von Anweisungsaufgaben zu optimieren." + "Qwen/Qwen2.5-14B-Instruct": { + "description": "Qwen2.5 ist eine brandneue Serie von großen Sprachmodellen, die darauf abzielt, die Verarbeitung von Anweisungsaufgaben zu optimieren." }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 ist eine neue Serie, bei der das 57B A14B-Modell in Anweisungstasks herausragende Leistungen zeigt." + "Qwen/Qwen2.5-32B-Instruct": { + "description": "Qwen2.5 ist eine brandneue Serie von großen Sprachmodellen, die darauf abzielt, die Verarbeitung von Anweisungsaufgaben zu optimieren." }, - "Qwen/Qwen2-72B-Instruct": { - "description": "Qwen2 ist ein fortschrittliches allgemeines Sprachmodell, das eine Vielzahl von Anweisungsarten unterstützt." + "Qwen/Qwen2.5-72B-Instruct": { + "description": "Qwen2.5 ist eine brandneue Serie von großen Sprachmodellen mit verbesserter Verständnis- und Generierungsfähigkeit." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 ist eine neue Serie großer Sprachmodelle mit stärkeren Verständnis- und Generierungsfähigkeiten." + "Qwen/Qwen2.5-7B-Instruct": { + "description": "Qwen2.5 ist eine brandneue Serie von großen Sprachmodellen, die darauf abzielt, die Verarbeitung von Anweisungsaufgaben zu optimieren." }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math konzentriert sich auf die Problemlösung im Bereich Mathematik und bietet professionelle Antworten auf schwierige Aufgaben." + "Qwen/Qwen2.5-Coder-7B-Instruct": { + "description": "Qwen2.5-Coder konzentriert sich auf die Programmierung." }, - "THUDM/chatglm3-6b": { - "description": "Als zweisprachiges Konversationssprachmodell kann ChatGLM3 Aufgaben zur Umwandlung zwischen Chinesisch und Englisch verarbeiten." + "Qwen/Qwen2.5-Math-72B-Instruct": { + "description": "Qwen2.5-Math konzentriert sich auf die Problemlösung im Bereich Mathematik und bietet professionelle Lösungen für schwierige Aufgaben." }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B ist die Open-Source-Version, die ein optimiertes Dialogerlebnis für Konversationsanwendungen bietet." @@ -158,6 +170,15 @@ "accounts/yi-01-ai/models/yi-large": { "description": "Das Yi-Large-Modell bietet hervorragende mehrsprachige Verarbeitungsfähigkeiten und kann für verschiedene Sprachgenerierungs- und Verständnisaufgaben eingesetzt werden." }, + "ai21-jamba-1.5-large": { + "description": "Ein mehrsprachiges Modell mit 398 Milliarden Parametern (94 Milliarden aktiv), das ein 256K langes Kontextfenster, Funktionsaufrufe, strukturierte Ausgaben und fundierte Generierung bietet." + }, + "ai21-jamba-1.5-mini": { + "description": "Ein mehrsprachiges Modell mit 52 Milliarden Parametern (12 Milliarden aktiv), das ein 256K langes Kontextfenster, Funktionsaufrufe, strukturierte Ausgaben und fundierte Generierung bietet." + }, + "ai21-jamba-instruct": { + "description": "Ein produktionsreifes Mamba-basiertes LLM-Modell, das eine erstklassige Leistung, Qualität und Kosteneffizienz erreicht." + }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnet hebt den Branchenstandard an, übertrifft die Konkurrenzmodelle und Claude 3 Opus und zeigt in umfassenden Bewertungen hervorragende Leistungen, während es die Geschwindigkeit und Kosten unserer mittleren Modelle beibehält." }, @@ -254,6 +275,12 @@ "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22B ist ein Modell, das für die Befolgung von Anweisungen, Dialoge und Programmierung entwickelt wurde." }, + "cohere-command-r": { + "description": "Command R ist ein skalierbares generatives Modell, das auf RAG und Tool-Nutzung abzielt, um KI in Produktionsgröße für Unternehmen zu ermöglichen." + }, + "cohere-command-r-plus": { + "description": "Command R+ ist ein hochmodernes, RAG-optimiertes Modell, das für unternehmensgerechte Arbeitslasten konzipiert ist." + }, "command-r": { "description": "Command R ist ein LLM, das für Dialoge und Aufgaben mit langen Kontexten optimiert ist und sich besonders gut für dynamische Interaktionen und Wissensmanagement eignet." }, @@ -263,12 +290,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct bietet zuverlässige Anweisungsverarbeitungsfähigkeiten und unterstützt Anwendungen in verschiedenen Branchen." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 ist für Programmieraufgaben konzipiert und konzentriert sich auf effiziente Codegenerierung." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 hat 6,7 Milliarden Parameter und unterstützt die Verarbeitung von englischen und chinesischen Texten." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 vereint die hervorragenden Merkmale früherer Versionen und verbessert die allgemeinen und kodierenden Fähigkeiten." }, @@ -467,6 +488,8 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 bietet intelligente Dialoglösungen in mehreren Szenarien." }, + "jamba-1.5-large": {}, + "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "Das Llama 3.1 70B Instruct-Modell hat 70B Parameter und bietet herausragende Leistungen bei der Generierung großer Texte und Anweisungsaufgaben." }, @@ -530,6 +553,21 @@ "mathstral": { "description": "MathΣtral ist für wissenschaftliche Forschung und mathematische Schlussfolgerungen konzipiert und bietet effektive Rechenfähigkeiten und Ergebnisinterpretationen." }, + "meta-llama-3-70b-instruct": { + "description": "Ein leistungsstarkes Modell mit 70 Milliarden Parametern, das in den Bereichen Schlussfolgerungen, Programmierung und breiten Sprachanwendungen herausragt." + }, + "meta-llama-3-8b-instruct": { + "description": "Ein vielseitiges Modell mit 8 Milliarden Parametern, das für Dialog- und Textgenerierungsaufgaben optimiert ist." + }, + "meta-llama-3.1-405b-instruct": { + "description": "Die Llama 3.1-Modelle, die auf Anweisungen optimiert sind, sind für mehrsprachige Dialoganwendungen optimiert und übertreffen viele der verfügbaren Open-Source- und geschlossenen Chat-Modelle in gängigen Branchenbenchmarks." + }, + "meta-llama-3.1-70b-instruct": { + "description": "Die Llama 3.1-Modelle, die auf Anweisungen optimiert sind, sind für mehrsprachige Dialoganwendungen optimiert und übertreffen viele der verfügbaren Open-Source- und geschlossenen Chat-Modelle in gängigen Branchenbenchmarks." + }, + "meta-llama-3.1-8b-instruct": { + "description": "Die Llama 3.1-Modelle, die auf Anweisungen optimiert sind, sind für mehrsprachige Dialoganwendungen optimiert und übertreffen viele der verfügbaren Open-Source- und geschlossenen Chat-Modelle in gängigen Branchenbenchmarks." + }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B) bietet hervorragende Sprachverarbeitungsfähigkeiten und ein ausgezeichnetes Interaktionserlebnis." }, @@ -539,9 +577,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) bietet mehrsprachige Unterstützung und deckt ein breites Spektrum an Fachwissen ab." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 unterstützt die Generierung großer Textmengen und die Analyse von Anweisungen." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite ist für Umgebungen geeignet, die hohe Leistung und niedrige Latenz erfordern." }, @@ -620,12 +655,21 @@ "mistral-large": { "description": "Mixtral Large ist das Flaggschiff-Modell von Mistral, das die Fähigkeiten zur Codegenerierung, Mathematik und Schlussfolgerungen kombiniert und ein Kontextfenster von 128k unterstützt." }, + "mistral-large-2407": { + "description": "Mistral Large (2407) ist ein fortschrittliches großes Sprachmodell (LLM) mit modernsten Fähigkeiten in den Bereichen Schlussfolgerungen, Wissen und Programmierung." + }, "mistral-large-latest": { "description": "Mistral Large ist das Flaggschiff-Modell, das sich gut für mehrsprachige Aufgaben, komplexe Schlussfolgerungen und Codegenerierung eignet und die ideale Wahl für hochentwickelte Anwendungen ist." }, "mistral-nemo": { "description": "Mistral Nemo wurde in Zusammenarbeit mit Mistral AI und NVIDIA entwickelt und ist ein leistungsstarkes 12B-Modell." }, + "mistral-small": { + "description": "Mistral Small kann für jede sprachbasierte Aufgabe verwendet werden, die hohe Effizienz und geringe Latenz erfordert." + }, + "mistral-small-latest": { + "description": "Mistral Small ist eine kosteneffiziente, schnelle und zuverlässige Option für Anwendungsfälle wie Übersetzung, Zusammenfassung und Sentimentanalyse." + }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instruct ist bekannt für seine hohe Leistung und eignet sich für eine Vielzahl von Sprachaufgaben." }, @@ -713,20 +757,29 @@ "phi3:14b": { "description": "Phi-3 ist ein leichtgewichtiges offenes Modell von Microsoft, das für effiziente Integration und großangelegte Wissensschlüsse geeignet ist." }, + "pixtral-12b-2409": { + "description": "Das Pixtral-Modell zeigt starke Fähigkeiten in Aufgaben wie Diagramm- und Bildverständnis, Dokumentenfragen, multimodale Schlussfolgerungen und Befolgung von Anweisungen. Es kann Bilder in natürlicher Auflösung und Seitenverhältnis aufnehmen und in einem langen Kontextfenster von bis zu 128K Tokens beliebig viele Bilder verarbeiten." + }, + "qwen-coder-turbo-latest": { + "description": "Das Tongyi Qianwen Code-Modell." + }, "qwen-long": { "description": "Qwen ist ein groß angelegtes Sprachmodell, das lange Textkontexte unterstützt und Dialogfunktionen für verschiedene Szenarien wie lange Dokumente und mehrere Dokumente bietet." }, - "qwen-max": { - "description": "Qwen ist ein groß angelegtes Sprachmodell mit Billionen von Parametern, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt. Es ist das API-Modell hinter der aktuellen Version 2.5 von Qwen." + "qwen-math-plus-latest": { + "description": "Das Tongyi Qianwen Mathematikmodell ist speziell für die Lösung von mathematischen Problemen konzipiert." }, - "qwen-max-longcontext": { - "description": "Qwen ist ein groß angelegtes Sprachmodell mit Billionen von Parametern, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt und das Kontextfenster erweitert hat." + "qwen-math-turbo-latest": { + "description": "Das Tongyi Qianwen Mathematikmodell ist speziell für die Lösung von mathematischen Problemen konzipiert." }, - "qwen-plus": { - "description": "Qwen ist eine verbesserte Version des groß angelegten Sprachmodells, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt." + "qwen-max-latest": { + "description": "Der Tongyi Qianwen ist ein Sprachmodell mit einem Umfang von mehreren Billionen, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt und die API-Modelle hinter der aktuellen Version 2.5 von Tongyi Qianwen darstellt." }, - "qwen-turbo": { - "description": "Qwen ist ein groß angelegtes Sprachmodell, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt." + "qwen-plus-latest": { + "description": "Der Tongyi Qianwen ist die erweiterte Version eines groß angelegten Sprachmodells, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt." + }, + "qwen-turbo-latest": { + "description": "Der Tongyi Qianwen ist ein groß angelegtes Sprachmodell, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt." }, "qwen-vl-chat-v1": { "description": "Qwen VL unterstützt flexible Interaktionsmethoden, einschließlich Mehrbild-, Mehrfachfragen und kreativen Fähigkeiten." @@ -746,17 +799,32 @@ "qwen2": { "description": "Qwen2 ist das neue große Sprachmodell von Alibaba, das mit hervorragender Leistung eine Vielzahl von Anwendungsanforderungen unterstützt." }, - "qwen2-57b-a14b-instruct": { - "description": "Qwen2 ist ein 57B-Modell mit 14B aktivierten Parametern, das von Qwen2 öffentlich zugänglich gemacht wurde." + "qwen2.5-14b-instruct": { + "description": "Das 14B-Modell von Tongyi Qianwen 2.5 ist öffentlich zugänglich." + }, + "qwen2.5-32b-instruct": { + "description": "Das 32B-Modell von Tongyi Qianwen 2.5 ist öffentlich zugänglich." + }, + "qwen2.5-72b-instruct": { + "description": "Das 72B-Modell von Tongyi Qianwen 2.5 ist öffentlich zugänglich." + }, + "qwen2.5-7b-instruct": { + "description": "Das 7B-Modell von Tongyi Qianwen 2.5 ist öffentlich zugänglich." + }, + "qwen2.5-coder-1.5b-instruct": { + "description": "Die Open-Source-Version des Tongyi Qianwen Code-Modells." + }, + "qwen2.5-coder-7b-instruct": { + "description": "Die Open-Source-Version des Tongyi Qianwen Code-Modells." }, - "qwen2-72b-instruct": { - "description": "Qwen2 ist ein 72B-Modell, das von Qwen2 öffentlich zugänglich gemacht wurde." + "qwen2.5-math-1.5b-instruct": { + "description": "Das Qwen-Math-Modell verfügt über starke Fähigkeiten zur Lösung mathematischer Probleme." }, - "qwen2-7b-instruct": { - "description": "Qwen2 ist ein 7B-Modell, das von Qwen2 öffentlich zugänglich gemacht wurde." + "qwen2.5-math-72b-instruct": { + "description": "Das Qwen-Math-Modell verfügt über starke Fähigkeiten zur Lösung mathematischer Probleme." }, - "qwen2-math-72b-instruct": { - "description": "Das Qwen2-Math-Modell hat starke Fähigkeiten zur Lösung mathematischer Probleme." + "qwen2.5-math-7b-instruct": { + "description": "Das Qwen-Math-Modell verfügt über starke Fähigkeiten zur Lösung mathematischer Probleme." }, "qwen2:0.5b": { "description": "Qwen2 ist das neue große Sprachmodell von Alibaba, das mit hervorragender Leistung eine Vielzahl von Anwendungsanforderungen unterstützt." diff --git a/locales/de-DE/providers.json b/locales/de-DE/providers.json index fece067cb521..d1d14a6c5c29 100644 --- a/locales/de-DE/providers.json +++ b/locales/de-DE/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "360 AI ist die von der 360 Company eingeführte Plattform für KI-Modelle und -Dienste, die eine Vielzahl fortschrittlicher Modelle zur Verarbeitung natürlicher Sprache anbietet, darunter 360GPT2 Pro, 360GPT Pro, 360GPT Turbo und 360GPT Turbo Responsibility 8K. Diese Modelle kombinieren große Parameter mit multimodalen Fähigkeiten und finden breite Anwendung in den Bereichen Textgenerierung, semantisches Verständnis, Dialogsysteme und Codegenerierung. Durch flexible Preisstrategien erfüllt 360 AI die vielfältigen Bedürfnisse der Nutzer, unterstützt Entwickler bei der Integration und fördert die Innovation und Entwicklung intelligenter Anwendungen." }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AI ist ein führender Anbieter von fortschrittlichen Sprachmodellen, der sich auf Funktionsaufrufe und multimodale Verarbeitung spezialisiert hat. Ihr neuestes Modell, Firefunction V2, basiert auf Llama-3 und ist für Funktionsaufrufe, Dialoge und Befehlsbefolgung optimiert. Das visuelle Sprachmodell FireLLaVA-13B unterstützt gemischte Eingaben von Bildern und Text. Weitere bemerkenswerte Modelle sind die Llama-Serie und die Mixtral-Serie, die effiziente mehrsprachige Befehlsbefolgung und Generierungsunterstützung bieten." }, + "github": { + "description": "Mit GitHub-Modellen können Entwickler zu KI-Ingenieuren werden und mit den führenden KI-Modellen der Branche arbeiten." + }, "google": { "description": "Die Gemini-Serie von Google ist ihr fortschrittlichstes, universelles KI-Modell, das von Google DeepMind entwickelt wurde und speziell für multimodale Anwendungen konzipiert ist. Es unterstützt nahtlose Verständnis- und Verarbeitungsprozesse für Text, Code, Bilder, Audio und Video. Es ist für eine Vielzahl von Umgebungen geeignet, von Rechenzentren bis hin zu mobilen Geräten, und verbessert erheblich die Effizienz und Anwendbarkeit von KI-Modellen." }, diff --git a/locales/en-US/models.json b/locales/en-US/models.json index 12b365495b63..df47a33df229 100644 --- a/locales/en-US/models.json +++ b/locales/en-US/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B delivers superior performance in industry applications with a wealth of training samples." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 is an evolved version of the Yi series, featuring high-quality pre-training and rich fine-tuning data." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B supports 16K tokens, providing efficient and smooth language generation capabilities." }, @@ -47,41 +44,56 @@ "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B) provides optimized language output and diverse application possibilities." }, + "Phi-3-5-mini-instruct": { + "description": "An update of the Phi-3-mini model." + }, + "Phi-3-medium-128k-instruct": { + "description": "The same Phi-3-medium model, but with a larger context size for RAG or few-shot prompting." + }, + "Phi-3-medium-4k-instruct": { + "description": "A 14B parameter model that provides better quality than Phi-3-mini, focusing on high-quality, reasoning-dense data." + }, + "Phi-3-mini-128k-instruct": { + "description": "The same Phi-3-mini model, but with a larger context size for RAG or few-shot prompting." + }, + "Phi-3-mini-4k-instruct": { + "description": "The smallest member of the Phi-3 family, optimized for both quality and low latency." + }, + "Phi-3-small-128k-instruct": { + "description": "The same Phi-3-small model, but with a larger context size for RAG or few-shot prompting." + }, + "Phi-3-small-8k-instruct": { + "description": "A 7B parameter model that provides better quality than Phi-3-mini, focusing on high-quality, reasoning-dense data." + }, "Pro-128k": { "description": "Spark Pro-128K is configured with ultra-large context processing capabilities, able to handle up to 128K of contextual information, particularly suitable for long texts requiring comprehensive analysis and long-term logical connections, providing smooth and consistent logic and diverse citation support in complex text communication." }, "Qwen/Qwen1.5-110B-Chat": { "description": "As a beta version of Qwen2, Qwen1.5 utilizes large-scale data to achieve more precise conversational capabilities." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5 is trained on a large-scale dataset, excelling in complex language tasks." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 possesses capabilities for multi-domain Q&A and text generation." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) provides quick responses and natural conversational abilities, suitable for multilingual environments." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 enhances dialogue expression capabilities by combining advanced pre-training and fine-tuning." + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 is an advanced general-purpose language model that supports various types of instructions." }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 is a brand new large language model series aimed at optimizing the handling of instruction-based tasks." + "Qwen/Qwen2.5-14B-Instruct": { + "description": "Qwen2.5 is a brand new series of large language models designed to optimize the handling of instruction-based tasks." }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 is a new series, with the 57B A14B model excelling in instruction tasks." + "Qwen/Qwen2.5-32B-Instruct": { + "description": "Qwen2.5 is a brand new series of large language models designed to optimize the handling of instruction-based tasks." }, - "Qwen/Qwen2-72B-Instruct": { - "description": "Qwen2 is an advanced general-purpose language model that supports various types of instructions." + "Qwen/Qwen2.5-72B-Instruct": { + "description": "Qwen2.5 is a brand new series of large language models with enhanced understanding and generation capabilities." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 is a brand new large language model series with enhanced understanding and generation capabilities." + "Qwen/Qwen2.5-7B-Instruct": { + "description": "Qwen2.5 is a brand new series of large language models designed to optimize the handling of instruction-based tasks." }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math focuses on problem-solving in the field of mathematics, providing professional answers to high-difficulty questions." + "Qwen/Qwen2.5-Coder-7B-Instruct": { + "description": "Qwen2.5-Coder focuses on code writing." }, - "THUDM/chatglm3-6b": { - "description": "As a bilingual conversational language model, ChatGLM3 can handle Chinese and English conversion tasks." + "Qwen/Qwen2.5-Math-72B-Instruct": { + "description": "Qwen2.5-Math focuses on problem-solving in the field of mathematics, providing expert solutions for challenging problems." }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B is an open-source version that provides an optimized conversational experience for chat applications." @@ -158,6 +170,15 @@ "accounts/yi-01-ai/models/yi-large": { "description": "Yi-Large model, featuring exceptional multilingual processing capabilities, suitable for various language generation and understanding tasks." }, + "ai21-jamba-1.5-large": { + "description": "A 398B parameter (94B active) multilingual model, offering a 256K long context window, function calling, structured output, and grounded generation." + }, + "ai21-jamba-1.5-mini": { + "description": "A 52B parameter (12B active) multilingual model, offering a 256K long context window, function calling, structured output, and grounded generation." + }, + "ai21-jamba-instruct": { + "description": "A production-grade Mamba-based LLM model designed to achieve best-in-class performance, quality, and cost efficiency." + }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnet raises the industry standard, outperforming competitor models and Claude 3 Opus, excelling in a wide range of evaluations while maintaining the speed and cost of our mid-tier models." }, @@ -254,6 +275,12 @@ "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22B is a model designed for instruction following, dialogue, and programming." }, + "cohere-command-r": { + "description": "Command R is a scalable generative model targeting RAG and Tool Use to enable production-scale AI for enterprises." + }, + "cohere-command-r-plus": { + "description": "Command R+ is a state-of-the-art RAG-optimized model designed to tackle enterprise-grade workloads." + }, "command-r": { "description": "Command R is an LLM optimized for dialogue and long context tasks, particularly suitable for dynamic interactions and knowledge management." }, @@ -263,12 +290,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct provides highly reliable instruction processing capabilities, supporting applications across multiple industries." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 is designed for coding tasks, focusing on efficient code generation." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 has 6.7 billion parameters and supports English and Chinese text processing." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 combines the excellent features of previous versions, enhancing general and coding capabilities." }, @@ -467,6 +488,8 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 offers intelligent dialogue solutions across multiple scenarios." }, + "jamba-1.5-large": {}, + "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "Llama 3.1 70B Instruct model, featuring 70B parameters, delivers outstanding performance in large text generation and instruction tasks." }, @@ -530,6 +553,21 @@ "mathstral": { "description": "MathΣtral is designed for scientific research and mathematical reasoning, providing effective computational capabilities and result interpretation." }, + "meta-llama-3-70b-instruct": { + "description": "A powerful 70-billion parameter model excelling in reasoning, coding, and broad language applications." + }, + "meta-llama-3-8b-instruct": { + "description": "A versatile 8-billion parameter model optimized for dialogue and text generation tasks." + }, + "meta-llama-3.1-405b-instruct": { + "description": "The Llama 3.1 instruction-tuned text-only models are optimized for multilingual dialogue use cases and outperform many of the available open-source and closed chat models on common industry benchmarks." + }, + "meta-llama-3.1-70b-instruct": { + "description": "The Llama 3.1 instruction-tuned text-only models are optimized for multilingual dialogue use cases and outperform many of the available open-source and closed chat models on common industry benchmarks." + }, + "meta-llama-3.1-8b-instruct": { + "description": "The Llama 3.1 instruction-tuned text-only models are optimized for multilingual dialogue use cases and outperform many of the available open-source and closed chat models on common industry benchmarks." + }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B) offers excellent language processing capabilities and outstanding interactive experiences." }, @@ -539,9 +577,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) provides multilingual support, covering a rich array of domain knowledge." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 supports large-scale text generation and instruction parsing." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite is suitable for environments requiring high performance and low latency." }, @@ -620,12 +655,21 @@ "mistral-large": { "description": "Mixtral Large is Mistral's flagship model, combining capabilities in code generation, mathematics, and reasoning, supporting a 128k context window." }, + "mistral-large-2407": { + "description": "Mistral Large (2407) is an advanced Large Language Model (LLM) with state-of-the-art reasoning, knowledge, and coding capabilities." + }, "mistral-large-latest": { "description": "Mistral Large is the flagship model, excelling in multilingual tasks, complex reasoning, and code generation, making it an ideal choice for high-end applications." }, "mistral-nemo": { "description": "Mistral Nemo, developed in collaboration with Mistral AI and NVIDIA, is a high-performance 12B model." }, + "mistral-small": { + "description": "Mistral Small can be used for any language-based task that requires high efficiency and low latency." + }, + "mistral-small-latest": { + "description": "Mistral Small is a cost-effective, fast, and reliable option suitable for use cases such as translation, summarization, and sentiment analysis." + }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instruct is known for its high performance, suitable for various language tasks." }, @@ -713,20 +757,29 @@ "phi3:14b": { "description": "Phi-3 is a lightweight open model launched by Microsoft, suitable for efficient integration and large-scale knowledge reasoning." }, + "pixtral-12b-2409": { + "description": "The Pixtral model demonstrates strong capabilities in tasks such as chart and image understanding, document question answering, multimodal reasoning, and instruction following. It can ingest images at natural resolutions and aspect ratios and handle an arbitrary number of images within a long context window of up to 128K tokens." + }, + "qwen-coder-turbo-latest": { + "description": "The Tongyi Qianwen Coder model." + }, "qwen-long": { "description": "Qwen is a large-scale language model that supports long text contexts and dialogue capabilities based on long documents and multiple documents." }, - "qwen-max": { - "description": "Qwen is a large-scale language model with hundreds of billions of parameters, supporting input in various languages, including Chinese and English, currently the API model behind the Qwen 2.5 product version." + "qwen-math-plus-latest": { + "description": "The Tongyi Qianwen Math model is specifically designed for solving mathematical problems." }, - "qwen-max-longcontext": { - "description": "Qwen is a large-scale language model with hundreds of billions of parameters, supporting input in various languages, including Chinese and English, with an expanded context window." + "qwen-math-turbo-latest": { + "description": "The Tongyi Qianwen Math model is specifically designed for solving mathematical problems." }, - "qwen-plus": { - "description": "Qwen is an enhanced version of the large-scale language model that supports input in various languages, including Chinese and English." + "qwen-max-latest": { + "description": "Tongyi Qianwen Max is a large-scale language model with hundreds of billions of parameters, supporting input in various languages, including Chinese and English. It is the API model behind the current Tongyi Qianwen 2.5 product version." }, - "qwen-turbo": { - "description": "Qwen is a large-scale language model that supports input in various languages, including Chinese and English." + "qwen-plus-latest": { + "description": "Tongyi Qianwen Plus is an enhanced version of the large-scale language model, supporting input in various languages, including Chinese and English." + }, + "qwen-turbo-latest": { + "description": "Tongyi Qianwen is a large-scale language model that supports input in various languages, including Chinese and English." }, "qwen-vl-chat-v1": { "description": "Qwen VL supports flexible interaction methods, including multi-image, multi-turn Q&A, and creative capabilities." @@ -746,17 +799,32 @@ "qwen2": { "description": "Qwen2 is Alibaba's next-generation large-scale language model, supporting diverse application needs with excellent performance." }, - "qwen2-57b-a14b-instruct": { - "description": "Qwen2 is an open-source 57B scale model with 14B active parameters in the MOE model." + "qwen2.5-14b-instruct": { + "description": "The 14B model of Tongyi Qianwen 2.5 is open-sourced." + }, + "qwen2.5-32b-instruct": { + "description": "The 32B model of Tongyi Qianwen 2.5 is open-sourced." + }, + "qwen2.5-72b-instruct": { + "description": "The 72B model of Tongyi Qianwen 2.5 is open-sourced." + }, + "qwen2.5-7b-instruct": { + "description": "The 7B model of Tongyi Qianwen 2.5 is open-sourced." + }, + "qwen2.5-coder-1.5b-instruct": { + "description": "The open-source version of the Tongyi Qianwen Coder model." + }, + "qwen2.5-coder-7b-instruct": { + "description": "The open-source version of the Tongyi Qianwen Coder model." }, - "qwen2-72b-instruct": { - "description": "Qwen2 is an open-source 72B scale model." + "qwen2.5-math-1.5b-instruct": { + "description": "The Qwen-Math model possesses strong capabilities for solving mathematical problems." }, - "qwen2-7b-instruct": { - "description": "Qwen2 is an open-source 7B scale model." + "qwen2.5-math-72b-instruct": { + "description": "The Qwen-Math model possesses strong capabilities for solving mathematical problems." }, - "qwen2-math-72b-instruct": { - "description": "Qwen2-Math model has strong mathematical problem-solving capabilities." + "qwen2.5-math-7b-instruct": { + "description": "The Qwen-Math model possesses strong capabilities for solving mathematical problems." }, "qwen2:0.5b": { "description": "Qwen2 is Alibaba's next-generation large-scale language model, supporting diverse application needs with excellent performance." diff --git a/locales/en-US/providers.json b/locales/en-US/providers.json index 99f00a190e90..e1976ae0ad73 100644 --- a/locales/en-US/providers.json +++ b/locales/en-US/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "360 AI is an AI model and service platform launched by 360 Company, offering various advanced natural language processing models, including 360GPT2 Pro, 360GPT Pro, 360GPT Turbo, and 360GPT Turbo Responsibility 8K. These models combine large-scale parameters and multimodal capabilities, widely applied in text generation, semantic understanding, dialogue systems, and code generation. With flexible pricing strategies, 360 AI meets diverse user needs, supports developer integration, and promotes the innovation and development of intelligent applications." }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AI is a leading provider of advanced language model services, focusing on functional calling and multimodal processing. Its latest model, Firefunction V2, is based on Llama-3, optimized for function calling, conversation, and instruction following. The visual language model FireLLaVA-13B supports mixed input of images and text. Other notable models include the Llama series and Mixtral series, providing efficient multilingual instruction following and generation support." }, + "github": { + "description": "With GitHub Models, developers can become AI engineers and leverage the industry's leading AI models." + }, "google": { "description": "Google's Gemini series represents its most advanced, versatile AI models, developed by Google DeepMind, designed for multimodal capabilities, supporting seamless understanding and processing of text, code, images, audio, and video. Suitable for various environments from data centers to mobile devices, it significantly enhances the efficiency and applicability of AI models." }, diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json index fa53a67a480c..8f1f0778a0b7 100644 --- a/locales/es-ES/models.json +++ b/locales/es-ES/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B, con un rico conjunto de muestras de entrenamiento, ofrece un rendimiento superior en aplicaciones industriales." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 es la versión evolucionada de la serie Yi, con un preentrenamiento de alta calidad y un conjunto de datos de ajuste fino rico." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B soporta 16K Tokens, proporcionando una capacidad de generación de lenguaje eficiente y fluida." }, @@ -47,41 +44,56 @@ "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B) ofrece salidas de lenguaje optimizadas y diversas posibilidades de aplicación." }, + "Phi-3-5-mini-instruct": { + "description": "Actualización del modelo Phi-3-mini." + }, + "Phi-3-medium-128k-instruct": { + "description": "El mismo modelo Phi-3-medium, pero con un tamaño de contexto más grande para RAG o indicaciones de pocos disparos." + }, + "Phi-3-medium-4k-instruct": { + "description": "Un modelo de 14B parámetros, que demuestra mejor calidad que Phi-3-mini, con un enfoque en datos densos de razonamiento de alta calidad." + }, + "Phi-3-mini-128k-instruct": { + "description": "El mismo modelo Phi-3-mini, pero con un tamaño de contexto más grande para RAG o indicaciones de pocos disparos." + }, + "Phi-3-mini-4k-instruct": { + "description": "El miembro más pequeño de la familia Phi-3. Optimizado tanto para calidad como para baja latencia." + }, + "Phi-3-small-128k-instruct": { + "description": "El mismo modelo Phi-3-small, pero con un tamaño de contexto más grande para RAG o indicaciones de pocos disparos." + }, + "Phi-3-small-8k-instruct": { + "description": "Un modelo de 7B parámetros, que demuestra mejor calidad que Phi-3-mini, con un enfoque en datos densos de razonamiento de alta calidad." + }, "Pro-128k": { "description": "Spark Pro-128K está configurado con una capacidad de procesamiento de contexto extremadamente grande, capaz de manejar hasta 128K de información contextual, especialmente adecuado para contenido largo que requiere análisis completo y manejo de relaciones lógicas a largo plazo, proporcionando una lógica fluida y consistente y un soporte diverso de citas en comunicaciones de texto complejas." }, "Qwen/Qwen1.5-110B-Chat": { "description": "Como versión beta de Qwen2, Qwen1.5 utiliza datos a gran escala para lograr funciones de conversación más precisas." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5, entrenado con un conjunto de datos a gran escala, es experto en tareas de lenguaje complejas." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 tiene la capacidad de responder preguntas y generar textos en múltiples dominios." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) ofrece respuestas rápidas y capacidades de conversación natural, adecuado para entornos multilingües." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 mejora la capacidad de expresión en diálogos mediante la combinación de preentrenamiento avanzado y ajuste fino." + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 es un modelo de lenguaje general avanzado, que soporta múltiples tipos de instrucciones." }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 es una nueva serie de modelos de lenguaje de gran tamaño, diseñada para optimizar el manejo de tareas de instrucción." + "Qwen/Qwen2.5-14B-Instruct": { + "description": "Qwen2.5 es una nueva serie de modelos de lenguaje a gran escala, diseñada para optimizar el procesamiento de tareas de instrucción." }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 es una nueva serie, el modelo 57B A14B se destaca en tareas de instrucción." + "Qwen/Qwen2.5-32B-Instruct": { + "description": "Qwen2.5 es una nueva serie de modelos de lenguaje a gran escala, diseñada para optimizar el procesamiento de tareas de instrucción." }, - "Qwen/Qwen2-72B-Instruct": { - "description": "Qwen2 es un modelo de lenguaje general avanzado, que soporta múltiples tipos de instrucciones." + "Qwen/Qwen2.5-72B-Instruct": { + "description": "Qwen2.5 es una nueva serie de modelos de lenguaje a gran escala, con una mayor capacidad de comprensión y generación." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 es una nueva serie de modelos de lenguaje de gran tamaño, con una mayor capacidad de comprensión y generación." + "Qwen/Qwen2.5-7B-Instruct": { + "description": "Qwen2.5 es una nueva serie de modelos de lenguaje a gran escala, diseñada para optimizar el procesamiento de tareas de instrucción." }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math se centra en la resolución de problemas en el ámbito matemático, proporcionando respuestas profesionales a preguntas de alta dificultad." + "Qwen/Qwen2.5-Coder-7B-Instruct": { + "description": "Qwen2.5-Coder se centra en la escritura de código." }, - "THUDM/chatglm3-6b": { - "description": "Como modelo de lenguaje para conversaciones bilingües, ChatGLM3 puede manejar tareas de conversión entre chino e inglés." + "Qwen/Qwen2.5-Math-72B-Instruct": { + "description": "Qwen2.5-Math se centra en la resolución de problemas en el ámbito de las matemáticas, proporcionando respuestas profesionales a preguntas de alta dificultad." }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B es una versión de código abierto, que proporciona una experiencia de conversación optimizada para aplicaciones de diálogo." @@ -158,6 +170,15 @@ "accounts/yi-01-ai/models/yi-large": { "description": "El modelo Yi-Large ofrece una capacidad de procesamiento multilingüe excepcional, adecuado para diversas tareas de generación y comprensión de lenguaje." }, + "ai21-jamba-1.5-large": { + "description": "Un modelo multilingüe de 398B parámetros (94B activos), que ofrece una ventana de contexto larga de 256K, llamada a funciones, salida estructurada y generación fundamentada." + }, + "ai21-jamba-1.5-mini": { + "description": "Un modelo multilingüe de 52B parámetros (12B activos), que ofrece una ventana de contexto larga de 256K, llamada a funciones, salida estructurada y generación fundamentada." + }, + "ai21-jamba-instruct": { + "description": "Un modelo LLM basado en Mamba de calidad de producción para lograr un rendimiento, calidad y eficiencia de costos de primera clase." + }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a modelos competidores y a Claude 3 Opus, destacándose en evaluaciones amplias, mientras mantiene la velocidad y costo de nuestros modelos de nivel medio." }, @@ -254,6 +275,12 @@ "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22B es un modelo diseñado para seguir instrucciones, diálogos y programación." }, + "cohere-command-r": { + "description": "Command R es un modelo generativo escalable dirigido a RAG y uso de herramientas para habilitar IA a escala de producción para empresas." + }, + "cohere-command-r-plus": { + "description": "Command R+ es un modelo optimizado para RAG de última generación diseñado para abordar cargas de trabajo de nivel empresarial." + }, "command-r": { "description": "Command R es un LLM optimizado para tareas de diálogo y contexto largo, especialmente adecuado para interacciones dinámicas y gestión del conocimiento." }, @@ -263,12 +290,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct ofrece capacidades de procesamiento de instrucciones de alta fiabilidad, soportando aplicaciones en múltiples industrias." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 está diseñado para tareas de código, enfocándose en la generación de código eficiente." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 tiene 6.7 mil millones de parámetros y soporta el procesamiento de textos en inglés y chino." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 combina las excelentes características de versiones anteriores, mejorando la capacidad general y de codificación." }, @@ -467,6 +488,8 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 ofrece soluciones de diálogo inteligente en múltiples escenarios." }, + "jamba-1.5-large": {}, + "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "El modelo Llama 3.1 70B Instruct, con 70B de parámetros, puede ofrecer un rendimiento excepcional en tareas de generación de texto y de instrucciones a gran escala." }, @@ -530,6 +553,21 @@ "mathstral": { "description": "MathΣtral está diseñado para la investigación científica y el razonamiento matemático, proporcionando capacidades de cálculo efectivas y explicación de resultados." }, + "meta-llama-3-70b-instruct": { + "description": "Un poderoso modelo de 70 mil millones de parámetros que sobresale en razonamiento, codificación y amplias aplicaciones de lenguaje." + }, + "meta-llama-3-8b-instruct": { + "description": "Un modelo versátil de 8 mil millones de parámetros optimizado para tareas de diálogo y generación de texto." + }, + "meta-llama-3.1-405b-instruct": { + "description": "Los modelos de texto solo ajustados por instrucciones Llama 3.1 están optimizados para casos de uso de diálogo multilingüe y superan muchos de los modelos de chat de código abierto y cerrados disponibles en los benchmarks de la industria." + }, + "meta-llama-3.1-70b-instruct": { + "description": "Los modelos de texto solo ajustados por instrucciones Llama 3.1 están optimizados para casos de uso de diálogo multilingüe y superan muchos de los modelos de chat de código abierto y cerrados disponibles en los benchmarks de la industria." + }, + "meta-llama-3.1-8b-instruct": { + "description": "Los modelos de texto solo ajustados por instrucciones Llama 3.1 están optimizados para casos de uso de diálogo multilingüe y superan muchos de los modelos de chat de código abierto y cerrados disponibles en los benchmarks de la industria." + }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B) ofrece una excelente capacidad de procesamiento de lenguaje y una experiencia de interacción sobresaliente." }, @@ -539,9 +577,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) ofrece soporte multilingüe, abarcando un amplio conocimiento en diversos campos." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 soporta la generación de textos de gran capacidad y el análisis de instrucciones." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite es ideal para entornos que requieren alto rendimiento y baja latencia." }, @@ -620,12 +655,21 @@ "mistral-large": { "description": "Mixtral Large es el modelo insignia de Mistral, combinando capacidades de generación de código, matemáticas y razonamiento, soportando una ventana de contexto de 128k." }, + "mistral-large-2407": { + "description": "Mistral Large (2407) es un modelo de lenguaje grande (LLM) avanzado con capacidades de razonamiento, conocimiento y codificación de última generación." + }, "mistral-large-latest": { "description": "Mistral Large es el modelo insignia, especializado en tareas multilingües, razonamiento complejo y generación de código, ideal para aplicaciones de alta gama." }, "mistral-nemo": { "description": "Mistral Nemo, desarrollado en colaboración entre Mistral AI y NVIDIA, es un modelo de 12B de alto rendimiento." }, + "mistral-small": { + "description": "Mistral Small se puede utilizar en cualquier tarea basada en lenguaje que requiera alta eficiencia y baja latencia." + }, + "mistral-small-latest": { + "description": "Mistral Small es una opción rentable, rápida y confiable, adecuada para casos de uso como traducción, resumen y análisis de sentimientos." + }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instruct es conocido por su alto rendimiento, adecuado para diversas tareas de lenguaje." }, @@ -713,20 +757,29 @@ "phi3:14b": { "description": "Phi-3 es un modelo abierto ligero lanzado por Microsoft, adecuado para una integración eficiente y razonamiento de conocimiento a gran escala." }, + "pixtral-12b-2409": { + "description": "El modelo Pixtral muestra una fuerte capacidad en tareas como comprensión de gráficos e imágenes, preguntas y respuestas de documentos, razonamiento multimodal y seguimiento de instrucciones, capaz de ingerir imágenes en resolución y proporción natural, y manejar una cantidad arbitraria de imágenes en una ventana de contexto larga de hasta 128K tokens." + }, + "qwen-coder-turbo-latest": { + "description": "El modelo de código Tongyi Qwen." + }, "qwen-long": { "description": "Qwen es un modelo de lenguaje a gran escala que admite contextos de texto largos y funciones de conversación basadas en documentos largos y múltiples." }, - "qwen-max": { - "description": "Qwen es un modelo de lenguaje a gran escala de nivel de mil millones que admite entradas en diferentes idiomas, incluyendo chino e inglés, actualmente es el modelo API detrás de la versión del producto Qwen 2.5." + "qwen-math-plus-latest": { + "description": "El modelo de matemáticas Tongyi Qwen está diseñado específicamente para resolver problemas matemáticos." }, - "qwen-max-longcontext": { - "description": "Qwen es un modelo de lenguaje a gran escala de nivel de mil millones que admite entradas en diferentes idiomas, incluyendo chino e inglés, y ha ampliado su ventana de contexto." + "qwen-math-turbo-latest": { + "description": "El modelo de matemáticas Tongyi Qwen está diseñado específicamente para resolver problemas matemáticos." }, - "qwen-plus": { - "description": "Qwen es una versión mejorada del modelo de lenguaje a gran escala que admite entradas en diferentes idiomas, incluyendo chino e inglés." + "qwen-max-latest": { + "description": "El modelo de lenguaje a gran escala Tongyi Qwen de nivel de cientos de miles de millones, que admite entradas en diferentes idiomas como chino e inglés, es el modelo API detrás de la versión del producto Tongyi Qwen 2.5." }, - "qwen-turbo": { - "description": "Qwen es un modelo de lenguaje a gran escala que admite entradas en diferentes idiomas, incluyendo chino e inglés." + "qwen-plus-latest": { + "description": "La versión mejorada del modelo de lenguaje a gran escala Tongyi Qwen, que admite entradas en diferentes idiomas como chino e inglés." + }, + "qwen-turbo-latest": { + "description": "El modelo de lenguaje a gran escala Tongyi Qwen, que admite entradas en diferentes idiomas como chino e inglés." }, "qwen-vl-chat-v1": { "description": "Qwen VL admite formas de interacción flexibles, incluyendo múltiples imágenes, preguntas y respuestas en múltiples rondas, y capacidades creativas." @@ -746,17 +799,32 @@ "qwen2": { "description": "Qwen2 es el nuevo modelo de lenguaje a gran escala de Alibaba, que ofrece un rendimiento excepcional para satisfacer diversas necesidades de aplicación." }, - "qwen2-57b-a14b-instruct": { - "description": "Qwen2 es un modelo de 57B de código abierto con 14B de parámetros activados en MOE." + "qwen2.5-14b-instruct": { + "description": "El modelo de 14B de Tongyi Qwen 2.5, de código abierto." + }, + "qwen2.5-32b-instruct": { + "description": "El modelo de 32B de Tongyi Qwen 2.5, de código abierto." + }, + "qwen2.5-72b-instruct": { + "description": "El modelo de 72B de Tongyi Qwen 2.5, de código abierto." + }, + "qwen2.5-7b-instruct": { + "description": "El modelo de 7B de Tongyi Qwen 2.5, de código abierto." + }, + "qwen2.5-coder-1.5b-instruct": { + "description": "La versión de código abierto del modelo de código Tongyi Qwen." + }, + "qwen2.5-coder-7b-instruct": { + "description": "La versión de código abierto del modelo de código Tongyi Qwen." }, - "qwen2-72b-instruct": { - "description": "Qwen2 es un modelo de 72B de código abierto." + "qwen2.5-math-1.5b-instruct": { + "description": "El modelo Qwen-Math tiene una poderosa capacidad para resolver problemas matemáticos." }, - "qwen2-7b-instruct": { - "description": "Qwen2 es un modelo de 7B de código abierto." + "qwen2.5-math-72b-instruct": { + "description": "El modelo Qwen-Math tiene una poderosa capacidad para resolver problemas matemáticos." }, - "qwen2-math-72b-instruct": { - "description": "El modelo Qwen2-Math tiene una poderosa capacidad para resolver problemas matemáticos." + "qwen2.5-math-7b-instruct": { + "description": "El modelo Qwen-Math tiene una poderosa capacidad para resolver problemas matemáticos." }, "qwen2:0.5b": { "description": "Qwen2 es el nuevo modelo de lenguaje a gran escala de Alibaba, que ofrece un rendimiento excepcional para satisfacer diversas necesidades de aplicación." diff --git a/locales/es-ES/providers.json b/locales/es-ES/providers.json index e5117fb28ca1..37a5e6d2d856 100644 --- a/locales/es-ES/providers.json +++ b/locales/es-ES/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "360 AI es una plataforma de modelos y servicios de IA lanzada por la empresa 360, que ofrece una variedad de modelos avanzados de procesamiento del lenguaje natural, incluidos 360GPT2 Pro, 360GPT Pro, 360GPT Turbo y 360GPT Turbo Responsibility 8K. Estos modelos combinan parámetros a gran escala y capacidades multimodales, siendo ampliamente utilizados en generación de texto, comprensión semántica, sistemas de diálogo y generación de código. A través de una estrategia de precios flexible, 360 AI satisface diversas necesidades de los usuarios, apoyando la integración de desarrolladores y promoviendo la innovación y desarrollo de aplicaciones inteligentes." }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AI es un proveedor líder de servicios de modelos de lenguaje avanzados, enfocado en la llamada de funciones y el procesamiento multimodal. Su modelo más reciente, Firefunction V2, basado en Llama-3, está optimizado para llamadas de funciones, diálogos y seguimiento de instrucciones. El modelo de lenguaje visual FireLLaVA-13B admite entradas mixtas de imágenes y texto. Otros modelos notables incluyen la serie Llama y la serie Mixtral, que ofrecen un soporte eficiente para el seguimiento y generación de instrucciones multilingües." }, + "github": { + "description": "Con los Modelos de GitHub, los desarrolladores pueden convertirse en ingenieros de IA y construir con los modelos de IA líderes en la industria." + }, "google": { "description": "La serie Gemini de Google es su modelo de IA más avanzado y versátil, desarrollado por Google DeepMind, diseñado para ser multimodal, apoyando la comprensión y procesamiento sin fisuras de texto, código, imágenes, audio y video. Es adecuado para una variedad de entornos, desde centros de datos hasta dispositivos móviles, mejorando enormemente la eficiencia y la aplicabilidad de los modelos de IA." }, diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json index befc76bee1e8..ced79699400d 100644 --- a/locales/fr-FR/models.json +++ b/locales/fr-FR/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B, avec un ensemble d'échantillons d'entraînement riche, offre des performances supérieures dans les applications sectorielles." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 est une version évoluée de la série Yi, avec un pré-entraînement de haute qualité et un ensemble de données d'ajustement riche." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B supporte 16K Tokens, offrant une capacité de génération de langage efficace et fluide." }, @@ -47,41 +44,56 @@ "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B) offre une sortie linguistique optimisée et des possibilités d'application diversifiées." }, + "Phi-3-5-mini-instruct": { + "description": "Rafraîchissement du modèle Phi-3-mini." + }, + "Phi-3-medium-128k-instruct": { + "description": "Même modèle Phi-3-medium, mais avec une taille de contexte plus grande pour RAG ou un prompt à quelques exemples." + }, + "Phi-3-medium-4k-instruct": { + "description": "Un modèle de 14 milliards de paramètres, prouvant une meilleure qualité que Phi-3-mini, avec un accent sur des données denses en raisonnement de haute qualité." + }, + "Phi-3-mini-128k-instruct": { + "description": "Même modèle Phi-3-mini, mais avec une taille de contexte plus grande pour RAG ou un prompt à quelques exemples." + }, + "Phi-3-mini-4k-instruct": { + "description": "Le plus petit membre de la famille Phi-3. Optimisé pour la qualité et la faible latence." + }, + "Phi-3-small-128k-instruct": { + "description": "Même modèle Phi-3-small, mais avec une taille de contexte plus grande pour RAG ou un prompt à quelques exemples." + }, + "Phi-3-small-8k-instruct": { + "description": "Un modèle de 7 milliards de paramètres, prouvant une meilleure qualité que Phi-3-mini, avec un accent sur des données denses en raisonnement de haute qualité." + }, "Pro-128k": { "description": "Spark Pro-128K est configuré avec une capacité de traitement de contexte exceptionnel, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un support varié pour les références dans des communications textuelles complexes." }, "Qwen/Qwen1.5-110B-Chat": { "description": "En tant que version bêta de Qwen2, Qwen1.5 utilise des données à grande échelle pour réaliser des fonctionnalités de dialogue plus précises." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5, formé sur un ensemble de données massif, excelle dans des tâches linguistiques complexes." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 possède des capacités de questions-réponses multi-domaines et de génération de texte." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) offre des réponses rapides et des capacités de dialogue naturel, adapté aux environnements multilingues." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 améliore la capacité d'expression des dialogues en combinant un pré-entraînement avancé et un ajustement fin." + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 est un modèle de langage général avancé, prenant en charge divers types d'instructions." }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 est une toute nouvelle série de modèles de langage de grande taille, visant à optimiser le traitement des tâches d'instruction." + "Qwen/Qwen2.5-14B-Instruct": { + "description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, conçue pour optimiser le traitement des tâches d'instruction." }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 est une toute nouvelle série, le modèle 57B A14B se distingue dans les tâches d'instruction." + "Qwen/Qwen2.5-32B-Instruct": { + "description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, conçue pour optimiser le traitement des tâches d'instruction." }, - "Qwen/Qwen2-72B-Instruct": { - "description": "Qwen2 est un modèle de langage général avancé, prenant en charge divers types d'instructions." + "Qwen/Qwen2.5-72B-Instruct": { + "description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, avec une capacité de compréhension et de génération améliorée." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 est une toute nouvelle série de modèles de langage de grande taille, avec des capacités de compréhension et de génération renforcées." + "Qwen/Qwen2.5-7B-Instruct": { + "description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, conçue pour optimiser le traitement des tâches d'instruction." }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math se concentre sur la résolution de problèmes dans le domaine des mathématiques, fournissant des réponses professionnelles pour des questions difficiles." + "Qwen/Qwen2.5-Coder-7B-Instruct": { + "description": "Qwen2.5-Coder se concentre sur la rédaction de code." }, - "THUDM/chatglm3-6b": { - "description": "En tant que modèle de langage pour les conversations bilingues, ChatGLM3 peut traiter des tâches de conversion entre le chinois et l'anglais." + "Qwen/Qwen2.5-Math-72B-Instruct": { + "description": "Qwen2.5-Math se concentre sur la résolution de problèmes dans le domaine des mathématiques, fournissant des réponses professionnelles pour des questions de haute difficulté." }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B est une version open source, offrant une expérience de dialogue optimisée pour les applications de conversation." @@ -158,6 +170,15 @@ "accounts/yi-01-ai/models/yi-large": { "description": "Le modèle Yi-Large offre d'excellentes capacités de traitement multilingue, adapté à diverses tâches de génération et de compréhension de langage." }, + "ai21-jamba-1.5-large": { + "description": "Un modèle multilingue de 398 milliards de paramètres (94 milliards actifs), offrant une fenêtre de contexte longue de 256K, des appels de fonction, une sortie structurée et une génération ancrée." + }, + "ai21-jamba-1.5-mini": { + "description": "Un modèle multilingue de 52 milliards de paramètres (12 milliards actifs), offrant une fenêtre de contexte longue de 256K, des appels de fonction, une sortie structurée et une génération ancrée." + }, + "ai21-jamba-instruct": { + "description": "Un modèle LLM basé sur Mamba de qualité production pour atteindre des performances, une qualité et une efficacité de coût de premier ordre." + }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnet élève les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, avec d'excellentes performances dans une large gamme d'évaluations, tout en offrant la vitesse et le coût de nos modèles de niveau intermédiaire." }, @@ -254,6 +275,12 @@ "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22B est un modèle conçu pour le suivi des instructions, le dialogue et la programmation." }, + "cohere-command-r": { + "description": "Command R est un modèle génératif évolutif ciblant RAG et l'utilisation d'outils pour permettre une IA à l'échelle de la production pour les entreprises." + }, + "cohere-command-r-plus": { + "description": "Command R+ est un modèle optimisé RAG de pointe conçu pour traiter des charges de travail de niveau entreprise." + }, "command-r": { "description": "Command R est un LLM optimisé pour les tâches de dialogue et de long contexte, particulièrement adapté à l'interaction dynamique et à la gestion des connaissances." }, @@ -263,12 +290,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct offre des capacités de traitement d'instructions hautement fiables, prenant en charge des applications dans divers secteurs." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 est conçu pour les tâches de codage, se concentrant sur la génération de code efficace." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 possède 6,7 milliards de paramètres, supportant le traitement de texte en anglais et en chinois." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 intègre les excellentes caractéristiques des versions précédentes, renforçant les capacités générales et de codage." }, @@ -467,6 +488,8 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 fournit des solutions de dialogue intelligent dans divers scénarios." }, + "jamba-1.5-large": {}, + "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "Le modèle Llama 3.1 70B Instruct, avec 70B de paramètres, offre des performances exceptionnelles dans la génération de texte et les tâches d'instructions." }, @@ -530,6 +553,21 @@ "mathstral": { "description": "MathΣtral est conçu pour la recherche scientifique et le raisonnement mathématique, offrant des capacités de calcul efficaces et des interprétations de résultats." }, + "meta-llama-3-70b-instruct": { + "description": "Un puissant modèle de 70 milliards de paramètres excelling dans le raisonnement, le codage et les applications linguistiques larges." + }, + "meta-llama-3-8b-instruct": { + "description": "Un modèle polyvalent de 8 milliards de paramètres optimisé pour les tâches de dialogue et de génération de texte." + }, + "meta-llama-3.1-405b-instruct": { + "description": "Les modèles textuels uniquement ajustés par instruction Llama 3.1 sont optimisés pour les cas d'utilisation de dialogue multilingue et surpassent de nombreux modèles de chat open source et fermés disponibles sur les benchmarks industriels courants." + }, + "meta-llama-3.1-70b-instruct": { + "description": "Les modèles textuels uniquement ajustés par instruction Llama 3.1 sont optimisés pour les cas d'utilisation de dialogue multilingue et surpassent de nombreux modèles de chat open source et fermés disponibles sur les benchmarks industriels courants." + }, + "meta-llama-3.1-8b-instruct": { + "description": "Les modèles textuels uniquement ajustés par instruction Llama 3.1 sont optimisés pour les cas d'utilisation de dialogue multilingue et surpassent de nombreux modèles de chat open source et fermés disponibles sur les benchmarks industriels courants." + }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B) offre d'excellentes capacités de traitement du langage et une expérience interactive exceptionnelle." }, @@ -539,9 +577,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) offre un support multilingue, couvrant un large éventail de connaissances." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 supporte la génération de texte de grande capacité et l'analyse des instructions." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite est adapté aux environnements nécessitant une haute performance et une faible latence." }, @@ -620,12 +655,21 @@ "mistral-large": { "description": "Mixtral Large est le modèle phare de Mistral, combinant des capacités de génération de code, de mathématiques et de raisonnement, prenant en charge une fenêtre de contexte de 128k." }, + "mistral-large-2407": { + "description": "Mistral Large (2407) est un modèle de langage avancé (LLM) avec des capacités de raisonnement, de connaissance et de codage à la pointe de la technologie." + }, "mistral-large-latest": { "description": "Mistral Large est le modèle phare, excellent pour les tâches multilingues, le raisonnement complexe et la génération de code, idéal pour des applications haut de gamme." }, "mistral-nemo": { "description": "Mistral Nemo, développé en collaboration entre Mistral AI et NVIDIA, est un modèle de 12B à performance efficace." }, + "mistral-small": { + "description": "Mistral Small peut être utilisé pour toute tâche basée sur le langage nécessitant une haute efficacité et une faible latence." + }, + "mistral-small-latest": { + "description": "Mistral Small est une option rentable, rapide et fiable, adaptée aux cas d'utilisation tels que la traduction, le résumé et l'analyse des sentiments." + }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instruct est réputé pour ses performances élevées, adapté à diverses tâches linguistiques." }, @@ -713,20 +757,29 @@ "phi3:14b": { "description": "Phi-3 est un modèle ouvert léger lancé par Microsoft, adapté à une intégration efficace et à un raisonnement de connaissances à grande échelle." }, + "pixtral-12b-2409": { + "description": "Le modèle Pixtral montre de puissantes capacités dans des tâches telles que la compréhension des graphiques et des images, le questionnement de documents, le raisonnement multimodal et le respect des instructions, capable d'ingérer des images à résolution naturelle et à rapport d'aspect, tout en traitant un nombre quelconque d'images dans une fenêtre de contexte longue allant jusqu'à 128K tokens." + }, + "qwen-coder-turbo-latest": { + "description": "Le modèle de code Tongyi Qwen." + }, "qwen-long": { "description": "Qwen est un modèle de langage à grande échelle, prenant en charge un contexte de texte long, ainsi que des fonctionnalités de dialogue basées sur des documents longs et multiples." }, - "qwen-max": { - "description": "Qwen est un modèle de langage à grande échelle de niveau milliard, prenant en charge des entrées en différentes langues, y compris le chinois et l'anglais, actuellement le modèle API derrière la version 2.5 de Qwen." + "qwen-math-plus-latest": { + "description": "Le modèle de langage Tongyi Qwen pour les mathématiques, spécialement conçu pour résoudre des problèmes mathématiques." }, - "qwen-max-longcontext": { - "description": "Qwen est un modèle de langage à grande échelle de niveau milliard, prenant en charge des entrées en différentes langues, y compris le chinois et l'anglais, avec une fenêtre contextuelle étendue." + "qwen-math-turbo-latest": { + "description": "Le modèle de langage Tongyi Qwen pour les mathématiques, spécialement conçu pour résoudre des problèmes mathématiques." }, - "qwen-plus": { - "description": "Qwen est une version améliorée du modèle de langage à grande échelle, prenant en charge des entrées en différentes langues, y compris le chinois et l'anglais." + "qwen-max-latest": { + "description": "Le modèle de langage à grande échelle Tongyi Qwen de niveau milliard, prenant en charge des entrées en chinois, en anglais et dans d'autres langues, actuellement le modèle API derrière la version produit Tongyi Qwen 2.5." }, - "qwen-turbo": { - "description": "Qwen est un modèle de langage à grande échelle, prenant en charge des entrées en différentes langues, y compris le chinois et l'anglais." + "qwen-plus-latest": { + "description": "La version améliorée du modèle de langage à grande échelle Tongyi Qwen, prenant en charge des entrées en chinois, en anglais et dans d'autres langues." + }, + "qwen-turbo-latest": { + "description": "Le modèle de langage à grande échelle Tongyi Qwen, prenant en charge des entrées en chinois, en anglais et dans d'autres langues." }, "qwen-vl-chat-v1": { "description": "Qwen VL prend en charge des modes d'interaction flexibles, y compris la capacité de poser des questions à plusieurs images, des dialogues multi-tours, et plus encore." @@ -746,17 +799,32 @@ "qwen2": { "description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés." }, - "qwen2-57b-a14b-instruct": { - "description": "Qwen2 est un modèle MOE à code source ouvert de 57B avec 14B de paramètres activés." + "qwen2.5-14b-instruct": { + "description": "Le modèle de 14B de Tongyi Qwen 2.5, open source." + }, + "qwen2.5-32b-instruct": { + "description": "Le modèle de 32B de Tongyi Qwen 2.5, open source." + }, + "qwen2.5-72b-instruct": { + "description": "Le modèle de 72B de Tongyi Qwen 2.5, open source." + }, + "qwen2.5-7b-instruct": { + "description": "Le modèle de 7B de Tongyi Qwen 2.5, open source." + }, + "qwen2.5-coder-1.5b-instruct": { + "description": "Version open source du modèle de code Tongyi Qwen." + }, + "qwen2.5-coder-7b-instruct": { + "description": "Version open source du modèle de code Tongyi Qwen." }, - "qwen2-72b-instruct": { - "description": "Qwen2 est un modèle de 72B à code source ouvert." + "qwen2.5-math-1.5b-instruct": { + "description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques." }, - "qwen2-7b-instruct": { - "description": "Qwen2 est un modèle de 7B à code source ouvert." + "qwen2.5-math-72b-instruct": { + "description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques." }, - "qwen2-math-72b-instruct": { - "description": "Le modèle Qwen2-Math possède de puissantes capacités de résolution de problèmes mathématiques." + "qwen2.5-math-7b-instruct": { + "description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques." }, "qwen2:0.5b": { "description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés." diff --git a/locales/fr-FR/providers.json b/locales/fr-FR/providers.json index 03dd1f1efad8..60e26b69ed11 100644 --- a/locales/fr-FR/providers.json +++ b/locales/fr-FR/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "360 AI est une plateforme de modèles et de services IA lancée par la société 360, offrant divers modèles avancés de traitement du langage naturel, y compris 360GPT2 Pro, 360GPT Pro, 360GPT Turbo et 360GPT Turbo Responsibility 8K. Ces modèles combinent de grands paramètres et des capacités multimodales, largement utilisés dans la génération de texte, la compréhension sémantique, les systèmes de dialogue et la génération de code. Grâce à une stratégie de tarification flexible, 360 AI répond à des besoins variés des utilisateurs, soutenant l'intégration des développeurs et favorisant l'innovation et le développement des applications intelligentes." }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AI est un fournisseur de services de modèles linguistiques avancés, axé sur les appels de fonction et le traitement multimodal. Son dernier modèle, Firefunction V2, basé sur Llama-3, est optimisé pour les appels de fonction, les dialogues et le suivi des instructions. Le modèle de langage visuel FireLLaVA-13B prend en charge les entrées mixtes d'images et de texte. D'autres modèles notables incluent la série Llama et la série Mixtral, offrant un support efficace pour le suivi et la génération d'instructions multilingues." }, + "github": { + "description": "Avec les modèles GitHub, les développeurs peuvent devenir des ingénieurs en IA et créer avec les modèles d'IA les plus avancés de l'industrie." + }, "google": { "description": "La série Gemini de Google est son modèle IA le plus avancé et polyvalent, développé par Google DeepMind, conçu pour le multimédia, prenant en charge la compréhension et le traitement sans couture de texte, code, images, audio et vidéo. Adapté à divers environnements, des centres de données aux appareils mobiles, il améliore considérablement l'efficacité et l'applicabilité des modèles IA." }, diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json index 7b9c32ffd3c4..f62d4c769084 100644 --- a/locales/it-IT/models.json +++ b/locales/it-IT/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B, con un ricco campione di addestramento, offre prestazioni superiori nelle applicazioni di settore." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 è una versione evoluta della serie Yi, con pre-addestramento di alta qualità e un ricco set di dati di fine-tuning." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B supporta 16K Tokens, offrendo capacità di generazione linguistica efficienti e fluide." }, @@ -53,36 +50,12 @@ "Qwen/Qwen1.5-110B-Chat": { "description": "Come versione beta di Qwen2, Qwen1.5 utilizza dati su larga scala per realizzare funzionalità di dialogo più precise." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5 è addestrato su un vasto dataset, eccellente in compiti linguistici complessi." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 ha capacità di domande e risposte multi-dominio e generazione di testi." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) offre risposte rapide e capacità di dialogo naturale, adatto per ambienti multilingue." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 migliora la capacità di espressione del dialogo combinando pre-addestramento avanzato e fine-tuning." - }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 è una nuova serie di modelli linguistici di grandi dimensioni, progettata per ottimizzare l'elaborazione di compiti istruzionali." - }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 è una nuova serie, il modello 57B A14B si distingue per le sue prestazioni eccellenti nei compiti istruzionali." - }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 è un modello di linguaggio universale avanzato, supportando vari tipi di istruzioni." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 è una nuova serie di modelli linguistici di grandi dimensioni, con capacità di comprensione e generazione più forti." - }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math si concentra sulla risoluzione di problemi nel campo della matematica, fornendo risposte professionali a domande di alta difficoltà." - }, - "THUDM/chatglm3-6b": { - "description": "Come modello linguistico per conversazioni bilingue, ChatGLM3 è in grado di gestire compiti di conversione tra cinese e inglese." - }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B è una versione open source, progettata per fornire un'esperienza di dialogo ottimizzata per applicazioni conversazionali." }, @@ -263,12 +236,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct offre capacità di elaborazione di istruzioni altamente affidabili, supportando applicazioni in vari settori." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 è progettato per compiti di codifica, focalizzandosi sulla generazione di codice efficiente." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 ha 6.7 miliardi di parametri e supporta l'elaborazione di testi in inglese e cinese." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 combina le eccellenti caratteristiche delle versioni precedenti, migliorando le capacità generali e di codifica." }, @@ -539,9 +506,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) offre supporto multilingue, coprendo una vasta gamma di conoscenze di dominio." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 supporta la generazione di testi di grande capacità e l'analisi delle istruzioni." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite è adatto per ambienti che richiedono alta efficienza e bassa latenza." }, @@ -716,18 +680,6 @@ "qwen-long": { "description": "Qwen è un modello di linguaggio su larga scala che supporta contesti di testo lunghi e funzionalità di dialogo basate su documenti lunghi e multipli." }, - "qwen-max": { - "description": "Qwen è un modello di linguaggio su larga scala con miliardi di parametri, che supporta input in diverse lingue, tra cui cinese e inglese, attualmente utilizzato come modello API dietro il prodotto Qwen 2.5." - }, - "qwen-max-longcontext": { - "description": "Qwen è un modello di linguaggio su larga scala con miliardi di parametri, che supporta input in diverse lingue, tra cui cinese e inglese, con una finestra di contesto estesa." - }, - "qwen-plus": { - "description": "Qwen è una versione potenziata del modello di linguaggio su larga scala, che supporta input in diverse lingue, tra cui cinese e inglese." - }, - "qwen-turbo": { - "description": "Qwen è un modello di linguaggio su larga scala che supporta input in diverse lingue, tra cui cinese e inglese." - }, "qwen-vl-chat-v1": { "description": "Qwen VL supporta modalità di interazione flessibili, inclusi modelli di domande e risposte multipli e creativi." }, @@ -746,18 +698,6 @@ "qwen2": { "description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate." }, - "qwen2-57b-a14b-instruct": { - "description": "Qwen2 è un modello open source di dimensioni 57B con 14B di parametri attivati nel modello MOE." - }, - "qwen2-72b-instruct": { - "description": "Qwen2 è un modello open source di dimensioni 72B." - }, - "qwen2-7b-instruct": { - "description": "Qwen2 è un modello open source di dimensioni 7B." - }, - "qwen2-math-72b-instruct": { - "description": "Il modello Qwen2-Math ha potenti capacità di risoluzione di problemi matematici." - }, "qwen2:0.5b": { "description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate." }, diff --git a/locales/it-IT/providers.json b/locales/it-IT/providers.json index 3adc2865ca80..f965abaff2d3 100644 --- a/locales/it-IT/providers.json +++ b/locales/it-IT/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "360 AI è una piattaforma di modelli e servizi AI lanciata da 360 Company, che offre vari modelli avanzati di elaborazione del linguaggio naturale, tra cui 360GPT2 Pro, 360GPT Pro, 360GPT Turbo e 360GPT Turbo Responsibility 8K. Questi modelli combinano parametri su larga scala e capacità multimodali, trovando ampio utilizzo in generazione di testo, comprensione semantica, sistemi di dialogo e generazione di codice. Con strategie di prezzo flessibili, 360 AI soddisfa le esigenze diversificate degli utenti, supportando l'integrazione degli sviluppatori e promuovendo l'innovazione e lo sviluppo delle applicazioni intelligenti." }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AI è un fornitore leader di servizi di modelli linguistici avanzati, focalizzato su chiamate funzionali e elaborazione multimodale. Il suo ultimo modello Firefunction V2, basato su Llama-3, è ottimizzato per chiamate di funzione, dialogo e rispetto delle istruzioni. Il modello di linguaggio visivo FireLLaVA-13B supporta input misti di immagini e testo. Altri modelli notevoli includono la serie Llama e la serie Mixtral, offrendo supporto efficiente per il rispetto e la generazione di istruzioni multilingue." }, + "github": { + "description": "Con i modelli di GitHub, gli sviluppatori possono diventare ingegneri AI e costruire con i modelli AI leader del settore." + }, "google": { "description": "La serie Gemini di Google è il suo modello AI più avanzato e versatile, sviluppato da Google DeepMind, progettato per il multimodale, supportando la comprensione e l'elaborazione senza soluzione di continuità di testo, codice, immagini, audio e video. Adatto a una varietà di ambienti, dai data center ai dispositivi mobili, ha notevolmente migliorato l'efficienza e l'ampiezza delle applicazioni dei modelli AI." }, diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json index 0733ec50001a..5cb01f0db825 100644 --- a/locales/ja-JP/models.json +++ b/locales/ja-JP/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34Bは豊富な訓練サンプルを用いて業界アプリケーションで優れたパフォーマンスを提供します。" }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5はYiシリーズの進化版で、高品質な事前学習と豊富な微調整データを持っています。" - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9Bは16Kトークンをサポートし、高効率でスムーズな言語生成能力を提供します。" }, @@ -47,41 +44,56 @@ "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B)は、最適化された言語出力と多様なアプリケーションの可能性を提供します。" }, + "Phi-3-5-mini-instruct": { + "description": "Phi-3-miniモデルのリフレッシュ版です。" + }, + "Phi-3-medium-128k-instruct": { + "description": "同じPhi-3-mediumモデルですが、RAGまたは少数ショットプロンプティング用により大きなコンテキストサイズを持っています。" + }, + "Phi-3-medium-4k-instruct": { + "description": "14Bパラメータのモデルで、Phi-3-miniよりも高品質で、質の高い推論密度のデータに焦点を当てています。" + }, + "Phi-3-mini-128k-instruct": { + "description": "同じPhi-3-miniモデルですが、RAGまたは少数ショットプロンプティング用により大きなコンテキストサイズを持っています。" + }, + "Phi-3-mini-4k-instruct": { + "description": "Phi-3ファミリーの最小メンバー。品質と低遅延の両方に最適化されています。" + }, + "Phi-3-small-128k-instruct": { + "description": "同じPhi-3-smallモデルですが、RAGまたは少数ショットプロンプティング用により大きなコンテキストサイズを持っています。" + }, + "Phi-3-small-8k-instruct": { + "description": "7Bパラメータのモデルで、Phi-3-miniよりも高品質で、質の高い推論密度のデータに焦点を当てています。" + }, "Pro-128k": { "description": "Spark Pro-128Kは特大のコンテキスト処理能力を備え、最大128Kのコンテキスト情報を処理でき、特に全体分析や長期的な論理関連処理が必要な長文コンテンツに適しており、複雑なテキストコミュニケーションにおいて流暢で一貫した論理と多様な引用サポートを提供します。" }, "Qwen/Qwen1.5-110B-Chat": { "description": "Qwen2のテスト版として、Qwen1.5は大規模データを使用してより正確な対話機能を実現しました。" }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5は大規模データセットで訓練され、複雑な言語タスクに優れています。" - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5は多分野の問答とテキスト生成の能力を備えています。" - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B)は、迅速な応答と自然な対話能力を提供し、多言語環境に適しています。" }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5は高度な事前学習と微調整を組み合わせて対話表現能力を向上させています。" + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2は、先進的な汎用言語モデルであり、さまざまな指示タイプをサポートします。" }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2は全く新しい大型言語モデルシリーズで、指示タスクの処理を最適化することを目的としています。" + "Qwen/Qwen2.5-14B-Instruct": { + "description": "Qwen2.5は、新しい大型言語モデルシリーズで、指示型タスクの処理を最適化することを目的としています。" }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2は全く新しいシリーズで、57B A14Bモデルは指示タスクにおいて卓越したパフォーマンスを示します。" + "Qwen/Qwen2.5-32B-Instruct": { + "description": "Qwen2.5は、新しい大型言語モデルシリーズで、指示型タスクの処理を最適化することを目的としています。" }, - "Qwen/Qwen2-72B-Instruct": { - "description": "Qwen2は、先進的な汎用言語モデルであり、さまざまな指示タイプをサポートします。" + "Qwen/Qwen2.5-72B-Instruct": { + "description": "Qwen2.5は、新しい大型言語モデルシリーズで、より強力な理解と生成能力を持っています。" }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2は全く新しい大型言語モデルシリーズで、より強力な理解と生成能力を持っています。" + "Qwen/Qwen2.5-7B-Instruct": { + "description": "Qwen2.5は、新しい大型言語モデルシリーズで、指示型タスクの処理を最適化することを目的としています。" }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Mathは数学分野の問題解決に特化しており、高難度の問題に専門的な解答を提供します。" + "Qwen/Qwen2.5-Coder-7B-Instruct": { + "description": "Qwen2.5-Coderは、コード作成に特化しています。" }, - "THUDM/chatglm3-6b": { - "description": "ChatGLM3はバイリンガル会話言語モデルとして、中英の変換タスクを処理できます。" + "Qwen/Qwen2.5-Math-72B-Instruct": { + "description": "Qwen2.5-Mathは、数学分野の問題解決に特化しており、高難度の問題に対して専門的な解答を提供します。" }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9Bはオープンソース版で、会話アプリケーションに最適化された対話体験を提供します。" @@ -158,6 +170,15 @@ "accounts/yi-01-ai/models/yi-large": { "description": "Yi-Largeモデルは、卓越した多言語処理能力を持ち、さまざまな言語生成と理解タスクに使用できます。" }, + "ai21-jamba-1.5-large": { + "description": "398Bパラメータ(94Bアクティブ)の多言語モデルで、256Kの長いコンテキストウィンドウ、関数呼び出し、構造化出力、基盤生成を提供します。" + }, + "ai21-jamba-1.5-mini": { + "description": "52Bパラメータ(12Bアクティブ)の多言語モデルで、256Kの長いコンテキストウィンドウ、関数呼び出し、構造化出力、基盤生成を提供します。" + }, + "ai21-jamba-instruct": { + "description": "最高のパフォーマンス、品質、コスト効率を実現するための生産グレードのMambaベースのLLMモデルです。" + }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnetは業界標準を向上させ、競合モデルやClaude 3 Opusを超える性能を持ち、広範な評価で優れたパフォーマンスを示し、私たちの中程度のモデルの速度とコストを兼ね備えています。" }, @@ -254,6 +275,12 @@ "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22Bは指示遵守、対話、プログラミングのために設計されたモデルです。" }, + "cohere-command-r": { + "description": "Command Rは、RAGとツール使用をターゲットにしたスケーラブルな生成モデルで、企業向けの生産規模のAIを実現します。" + }, + "cohere-command-r-plus": { + "description": "Command R+は、企業グレードのワークロードに対応するために設計された最先端のRAG最適化モデルです。" + }, "command-r": { "description": "Command Rは、対話と長いコンテキストタスクに最適化されたLLMであり、特に動的なインタラクションと知識管理に適しています。" }, @@ -263,12 +290,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instructは、高い信頼性の指示処理能力を提供し、多業界アプリケーションをサポートします。" }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2はコードタスクのために設計されており、高効率なコード生成に特化しています。" - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2は67億パラメータを持ち、英中のテキスト処理をサポートします。" - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5は以前のバージョンの優れた特徴を集約し、汎用性とコーディング能力を強化しました。" }, @@ -467,6 +488,8 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5は多様なシーンでのインテリジェントな対話ソリューションを提供します。" }, + "jamba-1.5-large": {}, + "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "Llama 3.1 70B Instructモデルは、70Bパラメータを持ち、大規模なテキスト生成と指示タスクで卓越した性能を提供します。" }, @@ -530,6 +553,21 @@ "mathstral": { "description": "MathΣtralは、科学研究と数学推論のために設計されており、効果的な計算能力と結果の解釈を提供します。" }, + "meta-llama-3-70b-instruct": { + "description": "推論、コーディング、広範な言語アプリケーションに優れた70億パラメータの強力なモデルです。" + }, + "meta-llama-3-8b-instruct": { + "description": "対話とテキスト生成タスクに最適化された多用途の80億パラメータモデルです。" + }, + "meta-llama-3.1-405b-instruct": { + "description": "Llama 3.1の指示調整されたテキスト専用モデルは、多言語対話のユースケースに最適化されており、一般的な業界ベンチマークで多くのオープンソースおよびクローズドチャットモデルを上回ります。" + }, + "meta-llama-3.1-70b-instruct": { + "description": "Llama 3.1の指示調整されたテキスト専用モデルは、多言語対話のユースケースに最適化されており、一般的な業界ベンチマークで多くのオープンソースおよびクローズドチャットモデルを上回ります。" + }, + "meta-llama-3.1-8b-instruct": { + "description": "Llama 3.1の指示調整されたテキスト専用モデルは、多言語対話のユースケースに最適化されており、一般的な業界ベンチマークで多くのオープンソースおよびクローズドチャットモデルを上回ります。" + }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B)は、優れた言語処理能力と素晴らしいインタラクション体験を提供します。" }, @@ -539,9 +577,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B)は、多言語サポートを提供し、豊富な分野知識をカバーしています。" }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3は大容量のテキスト生成と指示解析をサポートします。" - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Liteは、高効率と低遅延が求められる環境に適しています。" }, @@ -620,12 +655,21 @@ "mistral-large": { "description": "Mixtral Largeは、Mistralのフラッグシップモデルであり、コード生成、数学、推論の能力を組み合わせ、128kのコンテキストウィンドウをサポートします。" }, + "mistral-large-2407": { + "description": "Mistral Large (2407)は、最先端の推論、知識、コーディング能力を持つ高度な大規模言語モデル(LLM)です。" + }, "mistral-large-latest": { "description": "Mistral Largeは、フラッグシップの大モデルであり、多言語タスク、複雑な推論、コード生成に優れ、高端アプリケーションに理想的な選択肢です。" }, "mistral-nemo": { "description": "Mistral Nemoは、Mistral AIとNVIDIAが共同で開発した高効率の12Bモデルです。" }, + "mistral-small": { + "description": "Mistral Smallは、高効率と低遅延を必要とする言語ベースのタスクで使用できます。" + }, + "mistral-small-latest": { + "description": "Mistral Smallは、コスト効率が高く、迅速かつ信頼性の高い選択肢で、翻訳、要約、感情分析などのユースケースに適しています。" + }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instructは、高性能で知られ、多言語タスクに適しています。" }, @@ -713,20 +757,29 @@ "phi3:14b": { "description": "Phi-3は、Microsoftが提供する軽量オープンモデルであり、高効率な統合と大規模な知識推論に適しています。" }, + "pixtral-12b-2409": { + "description": "Pixtralモデルは、グラフと画像理解、文書質問応答、多モーダル推論、指示遵守などのタスクで強力な能力を発揮し、自然な解像度とアスペクト比で画像を取り込み、最大128Kトークンの長いコンテキストウィンドウで任意の数の画像を処理できます。" + }, + "qwen-coder-turbo-latest": { + "description": "通義千問のコードモデルです。" + }, "qwen-long": { "description": "通義千問超大規模言語モデルで、長文コンテキストや長文書、複数文書に基づく対話機能をサポートしています。" }, - "qwen-max": { - "description": "通義千問千億規模の超大規模言語モデルで、中国語、英語などの異なる言語入力をサポートし、現在通義千問2.5製品バージョンの背後にあるAPIモデルです。" + "qwen-math-plus-latest": { + "description": "通義千問の数学モデルは、数学の問題解決に特化した言語モデルです。" }, - "qwen-max-longcontext": { - "description": "通義千問千億規模の超大規模言語モデルで、中国語、英語などの異なる言語入力をサポートし、コンテキストウィンドウを拡張しています。" + "qwen-math-turbo-latest": { + "description": "通義千問の数学モデルは、数学の問題解決に特化した言語モデルです。" }, - "qwen-plus": { - "description": "通義千問超大規模言語モデルの強化版で、中国語、英語などの異なる言語入力をサポートしています。" + "qwen-max-latest": { + "description": "通義千問の千億レベルの超大規模言語モデルで、中国語、英語などの異なる言語入力をサポートし、現在の通義千問2.5製品バージョンの背後にあるAPIモデルです。" }, - "qwen-turbo": { - "description": "通義千問超大規模言語モデルで、中国語、英語などの異なる言語入力をサポートしています。" + "qwen-plus-latest": { + "description": "通義千問の超大規模言語モデルの強化版で、中国語、英語などの異なる言語入力をサポートしています。" + }, + "qwen-turbo-latest": { + "description": "通義千問の超大規模言語モデルで、中国語、英語などの異なる言語入力をサポートしています。" }, "qwen-vl-chat-v1": { "description": "通義千問VLは、複数の画像、多段階の質問応答、創作などの柔軟なインタラクション方式をサポートするモデルです。" @@ -746,17 +799,32 @@ "qwen2": { "description": "Qwen2は、Alibabaの新世代大規模言語モデルであり、優れた性能で多様なアプリケーションニーズをサポートします。" }, - "qwen2-57b-a14b-instruct": { - "description": "通義千問2が公開した57B規模14B活性化パラメータのMOEモデルです。" + "qwen2.5-14b-instruct": { + "description": "通義千問2.5の対外オープンソースの14B規模のモデルです。" + }, + "qwen2.5-32b-instruct": { + "description": "通義千問2.5の対外オープンソースの32B規模のモデルです。" + }, + "qwen2.5-72b-instruct": { + "description": "通義千問2.5の対外オープンソースの72B規模のモデルです。" + }, + "qwen2.5-7b-instruct": { + "description": "通義千問2.5の対外オープンソースの7B規模のモデルです。" + }, + "qwen2.5-coder-1.5b-instruct": { + "description": "通義千問のコードモデルのオープンソース版です。" + }, + "qwen2.5-coder-7b-instruct": { + "description": "通義千問のコードモデルのオープンソース版です。" }, - "qwen2-72b-instruct": { - "description": "通義千問2が公開した72B規模のモデルです。" + "qwen2.5-math-1.5b-instruct": { + "description": "Qwen-Mathモデルは、強力な数学の問題解決能力を持っています。" }, - "qwen2-7b-instruct": { - "description": "通義千問2が公開した7B規模のモデルです。" + "qwen2.5-math-72b-instruct": { + "description": "Qwen-Mathモデルは、強力な数学の問題解決能力を持っています。" }, - "qwen2-math-72b-instruct": { - "description": "Qwen2-Mathモデルは強力な数学解決能力を持っています。" + "qwen2.5-math-7b-instruct": { + "description": "Qwen-Mathモデルは、強力な数学の問題解決能力を持っています。" }, "qwen2:0.5b": { "description": "Qwen2は、Alibabaの新世代大規模言語モデルであり、優れた性能で多様なアプリケーションニーズをサポートします。" diff --git a/locales/ja-JP/providers.json b/locales/ja-JP/providers.json index e7b6c7b3f2b0..b0b534350fcd 100644 --- a/locales/ja-JP/providers.json +++ b/locales/ja-JP/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "360 AIは、360社が提供するAIモデルとサービスプラットフォームであり、360GPT2 Pro、360GPT Pro、360GPT Turbo、360GPT Turbo Responsibility 8Kなど、さまざまな先進的な自然言語処理モデルを提供しています。これらのモデルは、大規模なパラメータと多モーダル能力を組み合わせており、テキスト生成、意味理解、対話システム、コード生成などの分野で広く使用されています。柔軟な価格戦略を通じて、360 AIは多様なユーザーのニーズに応え、開発者の統合をサポートし、スマートアプリケーションの革新と発展を促進します。" }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AIは、先進的な言語モデルサービスのリーダーであり、機能呼び出しと多モーダル処理に特化しています。最新のモデルFirefunction V2はLlama-3に基づいており、関数呼び出し、対話、指示の遵守に最適化されています。視覚言語モデルFireLLaVA-13Bは、画像とテキストの混合入力をサポートしています。他の注目すべきモデルには、LlamaシリーズやMixtralシリーズがあり、高効率の多言語指示遵守と生成サポートを提供しています。" }, + "github": { + "description": "GitHubモデルを使用することで、開発者はAIエンジニアになり、業界をリードするAIモデルを使って構築できます。" + }, "google": { "description": "GoogleのGeminiシリーズは、Google DeepMindによって開発された最先端で汎用的なAIモデルであり、多モーダル設計に特化しており、テキスト、コード、画像、音声、動画のシームレスな理解と処理をサポートします。データセンターからモバイルデバイスまでのさまざまな環境に適しており、AIモデルの効率と適用範囲を大幅に向上させています。" }, diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json index 8377671bf121..371873487453 100644 --- a/locales/ko-KR/models.json +++ b/locales/ko-KR/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B는 풍부한 훈련 샘플을 통해 산업 응용에서 우수한 성능을 제공합니다." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5는 Yi 시리즈의 진화 버전으로, 고품질의 사전 훈련과 풍부한 미세 조정 데이터를 갖추고 있습니다." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B는 16K 토큰을 지원하며, 효율적이고 매끄러운 언어 생성 능력을 제공합니다." }, @@ -47,41 +44,56 @@ "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B)는 최적화된 언어 출력과 다양한 응용 가능성을 제공합니다." }, + "Phi-3-5-mini-instruct": { + "description": "Phi-3-mini 모델의 새로 고침 버전입니다." + }, + "Phi-3-medium-128k-instruct": { + "description": "같은 Phi-3-medium 모델이지만 RAG 또는 몇 가지 샷 프롬프트를 위한 더 큰 컨텍스트 크기를 가지고 있습니다." + }, + "Phi-3-medium-4k-instruct": { + "description": "14B 매개변수 모델로, Phi-3-mini보다 더 나은 품질을 제공하며, 고품질의 추론 밀집 데이터에 중점을 두고 있습니다." + }, + "Phi-3-mini-128k-instruct": { + "description": "같은 Phi-3-mini 모델이지만 RAG 또는 몇 가지 샷 프롬프트를 위한 더 큰 컨텍스트 크기를 가지고 있습니다." + }, + "Phi-3-mini-4k-instruct": { + "description": "Phi-3 가족의 가장 작은 구성원으로, 품질과 낮은 대기 시간 모두에 최적화되어 있습니다." + }, + "Phi-3-small-128k-instruct": { + "description": "같은 Phi-3-small 모델이지만 RAG 또는 몇 가지 샷 프롬프트를 위한 더 큰 컨텍스트 크기를 가지고 있습니다." + }, + "Phi-3-small-8k-instruct": { + "description": "7B 매개변수 모델로, Phi-3-mini보다 더 나은 품질을 제공하며, 고품질의 추론 밀집 데이터에 중점을 두고 있습니다." + }, "Pro-128k": { "description": "Spark Pro-128K는 초대형 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있어, 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합합니다. 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다." }, "Qwen/Qwen1.5-110B-Chat": { "description": "Qwen2의 테스트 버전인 Qwen1.5는 대규모 데이터를 사용하여 더 정밀한 대화 기능을 구현하였습니다." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5는 대규모 데이터 세트로 훈련되어 복잡한 언어 작업에 능숙합니다." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5는 다분야 질문 응답 및 텍스트 생성 능력을 갖추고 있습니다." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B)는 빠른 응답과 자연스러운 대화 능력을 제공하며, 다국어 환경에 적합합니다." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5는 고급 사전 훈련과 미세 조정을 결합하여 대화 표현 능력을 향상시킵니다." + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2는 다양한 지시 유형을 지원하는 고급 범용 언어 모델입니다." }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2는 지시형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다." + "Qwen/Qwen2.5-14B-Instruct": { + "description": "Qwen2.5는 지시형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다." }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2는 새로운 시리즈로, 57B A14B 모델은 지시 작업에서 뛰어난 성능을 보입니다." + "Qwen/Qwen2.5-32B-Instruct": { + "description": "Qwen2.5는 지시형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다." }, - "Qwen/Qwen2-72B-Instruct": { - "description": "Qwen2는 다양한 지시 유형을 지원하는 고급 범용 언어 모델입니다." + "Qwen/Qwen2.5-72B-Instruct": { + "description": "Qwen2.5는 더 강력한 이해 및 생성 능력을 가진 새로운 대형 언어 모델 시리즈입니다." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2는 새로운 대형 언어 모델 시리즈로, 더 강력한 이해 및 생성 능력을 갖추고 있습니다." + "Qwen/Qwen2.5-7B-Instruct": { + "description": "Qwen2.5는 지시형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다." }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math는 수학 분야의 문제 해결에 중점을 두고 있으며, 고난이도 문제에 대한 전문적인 해답을 제공합니다." + "Qwen/Qwen2.5-Coder-7B-Instruct": { + "description": "Qwen2.5-Coder는 코드 작성을 전문으로 합니다." }, - "THUDM/chatglm3-6b": { - "description": "ChatGLM3는 이중 언어 대화 언어 모델로, 중문과 영문 변환 작업을 처리할 수 있습니다." + "Qwen/Qwen2.5-Math-72B-Instruct": { + "description": "Qwen2.5-Math는 수학 분야의 문제 해결에 중점을 두고 있으며, 고난이도 문제에 대한 전문적인 해답을 제공합니다." }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B 오픈 소스 버전으로, 대화 응용을 위한 최적화된 대화 경험을 제공합니다." @@ -158,6 +170,15 @@ "accounts/yi-01-ai/models/yi-large": { "description": "Yi-Large 모델은 뛰어난 다국어 처리 능력을 갖추고 있으며, 다양한 언어 생성 및 이해 작업에 사용될 수 있습니다." }, + "ai21-jamba-1.5-large": { + "description": "398B 매개변수(94B 활성)의 다국어 모델로, 256K 긴 컨텍스트 창, 함수 호출, 구조화된 출력 및 기반 생성 기능을 제공합니다." + }, + "ai21-jamba-1.5-mini": { + "description": "52B 매개변수(12B 활성)의 다국어 모델로, 256K 긴 컨텍스트 창, 함수 호출, 구조화된 출력 및 기반 생성 기능을 제공합니다." + }, + "ai21-jamba-instruct": { + "description": "최고 수준의 성능, 품질 및 비용 효율성을 달성하기 위해 제작된 Mamba 기반 LLM 모델입니다." + }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnet는 업계 표준을 향상시켜 경쟁 모델 및 Claude 3 Opus를 초월하며, 광범위한 평가에서 뛰어난 성능을 보이고, 중간 수준 모델의 속도와 비용을 갖추고 있습니다." }, @@ -254,6 +275,12 @@ "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22B는 지시 준수, 대화 및 프로그래밍을 위해 설계된 모델입니다." }, + "cohere-command-r": { + "description": "Command R은 RAG 및 도구 사용을 목표로 하는 확장 가능한 생성 모델로, 기업을 위한 생산 규모 AI를 가능하게 합니다." + }, + "cohere-command-r-plus": { + "description": "Command R+는 기업급 작업을 처리하기 위해 설계된 최첨단 RAG 최적화 모델입니다." + }, "command-r": { "description": "Command R은 대화 및 긴 컨텍스트 작업에 최적화된 LLM으로, 동적 상호작용 및 지식 관리에 특히 적합합니다." }, @@ -263,12 +290,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct는 높은 신뢰성을 가진 지시 처리 능력을 제공하며, 다양한 산업 응용을 지원합니다." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2는 코드 작업을 위해 설계되었으며, 효율적인 코드 생성을 중점적으로 다룹니다." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2는 67억 파라미터를 갖추고 있으며, 영문 및 중문 텍스트 처리를 지원합니다." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5는 이전 버전의 우수한 기능을 집약하여 일반 및 인코딩 능력을 강화했습니다." }, @@ -467,6 +488,8 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5는 다양한 시나리오에서 스마트 대화 솔루션을 제공합니다." }, + "jamba-1.5-large": {}, + "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "Llama 3.1 70B Instruct 모델은 70B 매개변수를 갖추고 있으며, 대규모 텍스트 생성 및 지시 작업에서 뛰어난 성능을 제공합니다." }, @@ -530,6 +553,21 @@ "mathstral": { "description": "MathΣtral은 과학 연구 및 수학 추론을 위해 설계되었으며, 효과적인 계산 능력과 결과 해석을 제공합니다." }, + "meta-llama-3-70b-instruct": { + "description": "추론, 코딩 및 광범위한 언어 응용 프로그램에서 뛰어난 성능을 발휘하는 강력한 70억 매개변수 모델입니다." + }, + "meta-llama-3-8b-instruct": { + "description": "대화 및 텍스트 생성 작업에 최적화된 다재다능한 8억 매개변수 모델입니다." + }, + "meta-llama-3.1-405b-instruct": { + "description": "Llama 3.1 지침 조정된 텍스트 전용 모델은 다국어 대화 사용 사례에 최적화되어 있으며, 일반 산업 벤치마크에서 많은 오픈 소스 및 폐쇄형 채팅 모델보다 우수한 성능을 보입니다." + }, + "meta-llama-3.1-70b-instruct": { + "description": "Llama 3.1 지침 조정된 텍스트 전용 모델은 다국어 대화 사용 사례에 최적화되어 있으며, 일반 산업 벤치마크에서 많은 오픈 소스 및 폐쇄형 채팅 모델보다 우수한 성능을 보입니다." + }, + "meta-llama-3.1-8b-instruct": { + "description": "Llama 3.1 지침 조정된 텍스트 전용 모델은 다국어 대화 사용 사례에 최적화되어 있으며, 일반 산업 벤치마크에서 많은 오픈 소스 및 폐쇄형 채팅 모델보다 우수한 성능을 보입니다." + }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B)는 뛰어난 언어 처리 능력과 우수한 상호작용 경험을 제공합니다." }, @@ -539,9 +577,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B)는 다국어 지원을 제공하며, 풍부한 분야 지식을 포함합니다." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3는 대용량 텍스트 생성 및 지시 해석을 지원합니다." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite는 효율성과 낮은 지연 시간이 필요한 환경에 적합합니다." }, @@ -620,12 +655,21 @@ "mistral-large": { "description": "Mixtral Large는 Mistral의 플래그십 모델로, 코드 생성, 수학 및 추론 능력을 결합하여 128k 컨텍스트 창을 지원합니다." }, + "mistral-large-2407": { + "description": "Mistral Large (2407)는 최첨단 추론, 지식 및 코딩 능력을 갖춘 고급 대형 언어 모델(LLM)입니다." + }, "mistral-large-latest": { "description": "Mistral Large는 플래그십 대형 모델로, 다국어 작업, 복잡한 추론 및 코드 생성에 능숙하여 고급 응용 프로그램에 이상적인 선택입니다." }, "mistral-nemo": { "description": "Mistral Nemo는 Mistral AI와 NVIDIA가 협력하여 출시한 고효율 12B 모델입니다." }, + "mistral-small": { + "description": "Mistral Small은 높은 효율성과 낮은 대기 시간이 필요한 모든 언어 기반 작업에 사용할 수 있습니다." + }, + "mistral-small-latest": { + "description": "Mistral Small은 번역, 요약 및 감정 분석과 같은 사용 사례에 적합한 비용 효율적이고 빠르며 신뢰할 수 있는 옵션입니다." + }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instruct는 높은 성능으로 유명하며, 다양한 언어 작업에 적합합니다." }, @@ -713,20 +757,29 @@ "phi3:14b": { "description": "Phi-3는 Microsoft에서 출시한 경량 오픈 모델로, 효율적인 통합 및 대규모 지식 추론에 적합합니다." }, + "pixtral-12b-2409": { + "description": "Pixtral 모델은 차트 및 이미지 이해, 문서 질문 응답, 다중 모드 추론 및 지시 준수와 같은 작업에서 강력한 능력을 발휘하며, 자연 해상도와 가로 세로 비율로 이미지를 입력할 수 있고, 최대 128K 토큰의 긴 컨텍스트 창에서 임의의 수의 이미지를 처리할 수 있습니다." + }, + "qwen-coder-turbo-latest": { + "description": "통의 천문 코드 모델입니다." + }, "qwen-long": { "description": "통의천문 초대규모 언어 모델로, 긴 텍스트 컨텍스트를 지원하며, 긴 문서 및 다수의 문서에 기반한 대화 기능을 제공합니다." }, - "qwen-max": { - "description": "통의천문 천억급 초대규모 언어 모델로, 중국어, 영어 등 다양한 언어 입력을 지원하며, 현재 통의천문 2.5 제품 버전의 API 모델입니다." + "qwen-math-plus-latest": { + "description": "통의 천문 수학 모델은 수학 문제 해결을 위해 특별히 설계된 언어 모델입니다." }, - "qwen-max-longcontext": { - "description": "통의천문 천억급 초대규모 언어 모델로, 중국어, 영어 등 다양한 언어 입력을 지원하며, 컨텍스트 창을 확장했습니다." + "qwen-math-turbo-latest": { + "description": "통의 천문 수학 모델은 수학 문제 해결을 위해 특별히 설계된 언어 모델입니다." }, - "qwen-plus": { - "description": "통의천문 초대규모 언어 모델의 강화 버전으로, 중국어, 영어 등 다양한 언어 입력을 지원합니다." + "qwen-max-latest": { + "description": "통의 천문 1000억급 초대규모 언어 모델로, 중국어, 영어 등 다양한 언어 입력을 지원하며, 현재 통의 천문 2.5 제품 버전의 API 모델입니다." }, - "qwen-turbo": { - "description": "통의천문 초대규모 언어 모델로, 중국어, 영어 등 다양한 언어 입력을 지원합니다." + "qwen-plus-latest": { + "description": "통의 천문 초대규모 언어 모델의 강화판으로, 중국어, 영어 등 다양한 언어 입력을 지원합니다." + }, + "qwen-turbo-latest": { + "description": "통의 천문 초대규모 언어 모델로, 중국어, 영어 등 다양한 언어 입력을 지원합니다." }, "qwen-vl-chat-v1": { "description": "통의천문 VL은 다중 이미지, 다중 회차 질문 응답, 창작 등 유연한 상호작용 방식을 지원하는 모델입니다." @@ -746,17 +799,32 @@ "qwen2": { "description": "Qwen2는 Alibaba의 차세대 대규모 언어 모델로, 뛰어난 성능으로 다양한 응용 요구를 지원합니다." }, - "qwen2-57b-a14b-instruct": { - "description": "통의천문 2가 외부에 공개한 57B 규모 14B 활성화 매개변수의 MOE 모델입니다." + "qwen2.5-14b-instruct": { + "description": "통의 천문 2.5 외부 오픈 소스 14B 규모 모델입니다." + }, + "qwen2.5-32b-instruct": { + "description": "통의 천문 2.5 외부 오픈 소스 32B 규모 모델입니다." + }, + "qwen2.5-72b-instruct": { + "description": "통의 천문 2.5 외부 오픈 소스 72B 규모 모델입니다." + }, + "qwen2.5-7b-instruct": { + "description": "통의 천문 2.5 외부 오픈 소스 7B 규모 모델입니다." + }, + "qwen2.5-coder-1.5b-instruct": { + "description": "통의 천문 코드 모델 오픈 소스 버전입니다." + }, + "qwen2.5-coder-7b-instruct": { + "description": "통의 천문 코드 모델 오픈 소스 버전입니다." }, - "qwen2-72b-instruct": { - "description": "통의천문 2가 외부에 공개한 72B 규모의 모델입니다." + "qwen2.5-math-1.5b-instruct": { + "description": "Qwen-Math 모델은 강력한 수학 문제 해결 능력을 가지고 있습니다." }, - "qwen2-7b-instruct": { - "description": "통의천문 2가 외부에 공개한 7B 규모의 모델입니다." + "qwen2.5-math-72b-instruct": { + "description": "Qwen-Math 모델은 강력한 수학 문제 해결 능력을 가지고 있습니다." }, - "qwen2-math-72b-instruct": { - "description": "Qwen2-Math 모델은 강력한 수학 문제 해결 능력을 갖추고 있습니다." + "qwen2.5-math-7b-instruct": { + "description": "Qwen-Math 모델은 강력한 수학 문제 해결 능력을 가지고 있습니다." }, "qwen2:0.5b": { "description": "Qwen2는 Alibaba의 차세대 대규모 언어 모델로, 뛰어난 성능으로 다양한 응용 요구를 지원합니다." diff --git a/locales/ko-KR/providers.json b/locales/ko-KR/providers.json index d0c463fef718..54f6bdc52c39 100644 --- a/locales/ko-KR/providers.json +++ b/locales/ko-KR/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "360 AI는 360 회사가 출시한 AI 모델 및 서비스 플랫폼으로, 360GPT2 Pro, 360GPT Pro, 360GPT Turbo 및 360GPT Turbo Responsibility 8K를 포함한 다양한 고급 자연어 처리 모델을 제공합니다. 이러한 모델은 대규모 매개변수와 다중 모드 능력을 결합하여 텍스트 생성, 의미 이해, 대화 시스템 및 코드 생성 등 다양한 분야에 널리 사용됩니다. 유연한 가격 전략을 통해 360 AI는 다양한 사용자 요구를 충족하고 개발자가 통합할 수 있도록 지원하여 스마트화 응용 프로그램의 혁신과 발전을 촉진합니다." }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AI는 기능 호출 및 다중 모드 처리를 전문으로 하는 선도적인 고급 언어 모델 서비스 제공업체입니다. 최신 모델인 Firefunction V2는 Llama-3를 기반으로 하며, 함수 호출, 대화 및 지시 따르기에 최적화되어 있습니다. 비주얼 언어 모델인 FireLLaVA-13B는 이미지와 텍스트 혼합 입력을 지원합니다. 기타 주목할 만한 모델로는 Llama 시리즈와 Mixtral 시리즈가 있으며, 효율적인 다국어 지시 따르기 및 생성 지원을 제공합니다." }, + "github": { + "description": "GitHub 모델을 통해 개발자는 AI 엔지니어가 되어 업계 최고의 AI 모델로 구축할 수 있습니다." + }, "google": { "description": "Google의 Gemini 시리즈는 Google DeepMind가 개발한 가장 진보된 범용 AI 모델로, 다중 모드 설계를 통해 텍스트, 코드, 이미지, 오디오 및 비디오의 원활한 이해 및 처리를 지원합니다. 데이터 센터에서 모바일 장치에 이르기까지 다양한 환경에 적합하며 AI 모델의 효율성과 응용 범위를 크게 향상시킵니다." }, diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json index 607eeefab81d..0c7614a1659b 100644 --- a/locales/nl-NL/models.json +++ b/locales/nl-NL/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B biedt superieure prestaties in de industrie met rijke trainingsvoorbeelden." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 is de evolutie van de Yi-serie, met hoogwaardige voortraining en rijke fijnstellingsdata." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B ondersteunt 16K tokens en biedt efficiënte, vloeiende taalgeneratiecapaciteiten." }, @@ -53,36 +50,12 @@ "Qwen/Qwen1.5-110B-Chat": { "description": "Als testversie van Qwen2 biedt Qwen1.5 nauwkeurigere gespreksfunctionaliteit door gebruik te maken van grootschalige gegevens." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5 is getraind op een grote dataset en is bedreven in complexe taalopdrachten." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 heeft de capaciteit voor vraag-en-antwoord en tekstgeneratie in meerdere domeinen." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) biedt snelle reacties en natuurlijke gesprekscapaciteiten, geschikt voor meertalige omgevingen." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 verbetert de gespreksuitdrukkingscapaciteit door geavanceerde voortraining en fijnstelling te combineren." - }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 is een nieuwe serie grote taalmodellen, ontworpen om de verwerking van instructietaken te optimaliseren." - }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 is een nieuwe serie, waarbij het 57B A14B-model uitblinkt in instructietaken." - }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 is een geavanceerd algemeen taalmodel dat verschillende soorten instructies ondersteunt." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 is een nieuwe serie grote taalmodellen met sterkere begrip- en generatiecapaciteiten." - }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math richt zich op probleemoplossing in de wiskunde en biedt professionele antwoorden op moeilijke vragen." - }, - "THUDM/chatglm3-6b": { - "description": "Als een tweetalig gespreksmodel kan ChatGLM3 omgaan met Chinese en Engelse conversietaken." - }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B is de open-source versie die een geoptimaliseerde gesprekservaring biedt voor gespreksapplicaties." }, @@ -263,12 +236,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct biedt betrouwbare instructieverwerkingscapaciteiten en ondersteunt toepassingen in verschillende sectoren." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 is ontworpen voor code-taken en richt zich op efficiënte codegeneratie." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 heeft 6,7 miljard parameters en ondersteunt de verwerking van Engelse en Chinese teksten." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 combineert de uitstekende kenmerken van eerdere versies en versterkt de algemene en coderingscapaciteiten." }, @@ -539,9 +506,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) biedt meertalige ondersteuning en dekt een breed scala aan domeinkennis." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 ondersteunt grootschalige tekstgeneratie en instructie-analyse." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite is geschikt voor omgevingen die hoge prestaties en lage latentie vereisen." }, @@ -716,18 +680,6 @@ "qwen-long": { "description": "Qwen is een grootschalig taalmodel dat lange tekstcontexten ondersteunt, evenals dialoogfunctionaliteit op basis van lange documenten en meerdere documenten." }, - "qwen-max": { - "description": "Qwen is een grootschalig taalmodel met een schaal van miljarden parameters, dat ondersteuning biedt voor invoer in verschillende talen, waaronder Chinees en Engels, en is momenteel de API-model achter de Qwen 2.5 productversie." - }, - "qwen-max-longcontext": { - "description": "Qwen is een grootschalig taalmodel met een schaal van miljarden parameters, dat ondersteuning biedt voor invoer in verschillende talen, waaronder Chinees en Engels, en heeft een uitgebreid contextvenster." - }, - "qwen-plus": { - "description": "Qwen is een verbeterde versie van het grootschalige taalmodel, dat ondersteuning biedt voor invoer in verschillende talen, waaronder Chinees en Engels." - }, - "qwen-turbo": { - "description": "Qwen is een grootschalig taalmodel dat ondersteuning biedt voor invoer in verschillende talen, waaronder Chinees en Engels." - }, "qwen-vl-chat-v1": { "description": "Qwen VL ondersteunt flexibele interactiemethoden, inclusief meerdere afbeeldingen, meerdere rondes van vraag en antwoord, en creatiecapaciteiten." }, @@ -746,18 +698,6 @@ "qwen2": { "description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties." }, - "qwen2-57b-a14b-instruct": { - "description": "Qwen2 is een open-source model met een schaal van 57B en 14B geactiveerde parameters in het MOE-model." - }, - "qwen2-72b-instruct": { - "description": "Qwen2 is een open-source model met een schaal van 72B." - }, - "qwen2-7b-instruct": { - "description": "Qwen2 is een open-source model met een schaal van 7B." - }, - "qwen2-math-72b-instruct": { - "description": "Qwen2-Math model heeft krachtige wiskundige probleemoplossingscapaciteiten." - }, "qwen2:0.5b": { "description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties." }, diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json index c76b6cb11afd..019c37b79707 100644 --- a/locales/pl-PL/models.json +++ b/locales/pl-PL/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B, dzięki bogatym próbom treningowym, oferuje doskonałe wyniki w zastosowaniach branżowych." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 to ewolucyjna wersja serii Yi, charakteryzująca się wysokiej jakości wstępnym uczeniem się i bogatymi danymi do dostrajania." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B obsługuje 16K tokenów, oferując wydajne i płynne zdolności generowania języka." }, @@ -53,36 +50,12 @@ "Qwen/Qwen1.5-110B-Chat": { "description": "Jako wersja testowa Qwen2, Qwen1.5 wykorzystuje dużą ilość danych do osiągnięcia bardziej precyzyjnych funkcji dialogowych." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5, trenowany na dużych zbiorach danych, jest biegły w skomplikowanych zadaniach językowych." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 ma zdolności odpowiadania na pytania w wielu dziedzinach oraz generowania tekstu." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) oferuje szybkie odpowiedzi i naturalne umiejętności dialogowe, idealne do środowisk wielojęzycznych." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 poprawia zdolności dialogowe poprzez połączenie zaawansowanego wstępnego uczenia się i dostrajania." - }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 to nowa seria dużych modeli językowych, mająca na celu optymalizację przetwarzania zadań instrukcyjnych." - }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 to nowa seria, w której model 57B A14B wyróżnia się w zadaniach instrukcyjnych." - }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 to zaawansowany uniwersalny model językowy, wspierający różne typy poleceń." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 to nowa seria dużych modeli językowych, charakteryzująca się silniejszymi zdolnościami rozumienia i generowania." - }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math koncentruje się na rozwiązywaniu problemów w dziedzinie matematyki, oferując profesjonalne odpowiedzi na trudne pytania." - }, - "THUDM/chatglm3-6b": { - "description": "Jako dwujęzyczny model konwersacyjny, ChatGLM3 potrafi obsługiwać zadania związane z konwersją między językiem chińskim a angielskim." - }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B to otwarta wersja, oferująca zoptymalizowane doświadczenie dialogowe dla aplikacji konwersacyjnych." }, @@ -263,12 +236,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct oferuje wysoką niezawodność w przetwarzaniu poleceń, wspierając różne branże." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 zaprojektowano do zadań związanych z kodowaniem, koncentrując się na efektywnej generacji kodu." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 ma 6,7 miliarda parametrów, wspierając przetwarzanie tekstu w języku angielskim i chińskim." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 łączy doskonałe cechy wcześniejszych wersji, wzmacniając zdolności ogólne i kodowania." }, @@ -539,9 +506,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) oferuje wsparcie dla wielu języków, obejmując bogatą wiedzę z różnych dziedzin." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 wspiera generację dużych tekstów i analizę instrukcji." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite jest idealny do środowisk wymagających wysokiej wydajności i niskiego opóźnienia." }, @@ -716,18 +680,6 @@ "qwen-long": { "description": "Qwen to ultra-duży model językowy, który obsługuje długie konteksty tekstowe oraz funkcje dialogowe oparte na długich dokumentach i wielu dokumentach." }, - "qwen-max": { - "description": "Qwen to ultra-duży model językowy na poziomie miliardów parametrów, który obsługuje różne języki, w tym chiński i angielski, obecnie będący modelem API za produktem Qwen 2.5." - }, - "qwen-max-longcontext": { - "description": "Qwen to ultra-duży model językowy na poziomie miliardów parametrów, który obsługuje różne języki, w tym chiński i angielski, z rozszerzonym oknem kontekstowym." - }, - "qwen-plus": { - "description": "Qwen to ulepszona wersja ultra-dużego modelu językowego, która obsługuje różne języki, w tym chiński i angielski." - }, - "qwen-turbo": { - "description": "Qwen to ultra-duży model językowy, który obsługuje różne języki, w tym chiński i angielski." - }, "qwen-vl-chat-v1": { "description": "Qwen VL obsługuje elastyczne interakcje, w tym wiele obrazów, wielokrotne pytania i odpowiedzi oraz zdolności twórcze." }, @@ -746,18 +698,6 @@ "qwen2": { "description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności." }, - "qwen2-57b-a14b-instruct": { - "description": "Qwen 2 to otwarty model o skali 57B z 14B aktywowanymi parametrami w modelu MOE." - }, - "qwen2-72b-instruct": { - "description": "Qwen 2 to otwarty model o skali 72B." - }, - "qwen2-7b-instruct": { - "description": "Qwen 2 to otwarty model o skali 7B." - }, - "qwen2-math-72b-instruct": { - "description": "Model Qwen2-Math ma silne zdolności rozwiązywania problemów matematycznych." - }, "qwen2:0.5b": { "description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności." }, diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json index 2f832cf877f4..cbeb260d3bca 100644 --- a/locales/pt-BR/models.json +++ b/locales/pt-BR/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B, com um rico conjunto de amostras de treinamento, oferece desempenho superior em aplicações industriais." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 é a versão evoluída da série Yi, com pré-treinamento de alta qualidade e dados de ajuste fino ricos." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B suporta 16K Tokens, oferecendo capacidade de geração de linguagem eficiente e fluida." }, @@ -47,41 +44,56 @@ "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B) oferece saídas de linguagem otimizadas e diversas possibilidades de aplicação." }, + "Phi-3-5-mini-instruct": { + "description": "Atualização do modelo Phi-3-mini." + }, + "Phi-3-medium-128k-instruct": { + "description": "Mesmo modelo Phi-3-medium, mas com um tamanho de contexto maior para RAG ou prompting de poucos exemplos." + }, + "Phi-3-medium-4k-instruct": { + "description": "Um modelo de 14B parâmetros, que apresenta melhor qualidade do que o Phi-3-mini, com foco em dados densos de raciocínio de alta qualidade." + }, + "Phi-3-mini-128k-instruct": { + "description": "Mesmo modelo Phi-3-mini, mas com um tamanho de contexto maior para RAG ou prompting de poucos exemplos." + }, + "Phi-3-mini-4k-instruct": { + "description": "O menor membro da família Phi-3. Otimizado tanto para qualidade quanto para baixa latência." + }, + "Phi-3-small-128k-instruct": { + "description": "Mesmo modelo Phi-3-small, mas com um tamanho de contexto maior para RAG ou prompting de poucos exemplos." + }, + "Phi-3-small-8k-instruct": { + "description": "Um modelo de 7B parâmetros, que apresenta melhor qualidade do que o Phi-3-mini, com foco em dados densos de raciocínio de alta qualidade." + }, "Pro-128k": { "description": "Spark Pro-128K possui capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações de contexto, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo fornecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas." }, "Qwen/Qwen1.5-110B-Chat": { "description": "Como uma versão de teste do Qwen2, Qwen1.5 utiliza dados em larga escala para alcançar funcionalidades de diálogo mais precisas." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5 é treinado com um grande conjunto de dados, especializado em tarefas linguísticas complexas." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 possui habilidades de perguntas e respostas em múltiplos domínios e geração de texto." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) oferece respostas rápidas e capacidade de diálogo natural, adequado para ambientes multilíngues." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 melhora a capacidade de expressão em diálogos ao combinar pré-treinamento avançado e ajuste fino." + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 é um modelo de linguagem universal avançado, suportando diversos tipos de instruções." }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 é uma nova série de modelos de linguagem de grande porte, projetada para otimizar o processamento de tarefas instrucionais." + "Qwen/Qwen2.5-14B-Instruct": { + "description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais." }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 é uma nova série, com o modelo 57B A14B se destacando em tarefas instrucionais." + "Qwen/Qwen2.5-32B-Instruct": { + "description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais." }, - "Qwen/Qwen2-72B-Instruct": { - "description": "Qwen2 é um modelo de linguagem universal avançado, suportando diversos tipos de instruções." + "Qwen/Qwen2.5-72B-Instruct": { + "description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, com maior capacidade de compreensão e geração." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 é uma nova série de modelos de linguagem de grande porte, com capacidades de compreensão e geração mais robustas." + "Qwen/Qwen2.5-7B-Instruct": { + "description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais." }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math foca na resolução de problemas na área de matemática, oferecendo respostas profissionais para questões de alta dificuldade." + "Qwen/Qwen2.5-Coder-7B-Instruct": { + "description": "Qwen2.5-Coder foca na escrita de código." }, - "THUDM/chatglm3-6b": { - "description": "Como um modelo de linguagem de conversa bilíngue, ChatGLM3 pode lidar com tarefas de conversão entre chinês e inglês." + "Qwen/Qwen2.5-Math-72B-Instruct": { + "description": "Qwen2.5-Math foca na resolução de problemas na área de matemática, oferecendo respostas especializadas para questões de alta dificuldade." }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B é uma versão de código aberto, oferecendo uma experiência de diálogo otimizada para aplicações de conversa." @@ -158,6 +170,15 @@ "accounts/yi-01-ai/models/yi-large": { "description": "O modelo Yi-Large oferece excelente capacidade de processamento multilíngue, adequado para diversas tarefas de geração e compreensão de linguagem." }, + "ai21-jamba-1.5-large": { + "description": "Um modelo multilíngue com 398B de parâmetros (94B ativos), oferecendo uma janela de contexto longa de 256K, chamada de função, saída estruturada e geração fundamentada." + }, + "ai21-jamba-1.5-mini": { + "description": "Um modelo multilíngue com 52B de parâmetros (12B ativos), oferecendo uma janela de contexto longa de 256K, chamada de função, saída estruturada e geração fundamentada." + }, + "ai21-jamba-instruct": { + "description": "Um modelo LLM baseado em Mamba de qualidade de produção para alcançar desempenho, qualidade e eficiência de custo de classe mundial." + }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "O Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, ao mesmo tempo que mantém a velocidade e o custo de nossos modelos de nível médio." }, @@ -254,6 +275,12 @@ "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22B é um modelo projetado para seguir instruções, diálogos e programação." }, + "cohere-command-r": { + "description": "Command R é um modelo generativo escalável voltado para RAG e uso de ferramentas, permitindo IA em escala de produção para empresas." + }, + "cohere-command-r-plus": { + "description": "Command R+ é um modelo otimizado para RAG de última geração, projetado para lidar com cargas de trabalho de nível empresarial." + }, "command-r": { "description": "Command R é um LLM otimizado para tarefas de diálogo e longos contextos, especialmente adequado para interações dinâmicas e gerenciamento de conhecimento." }, @@ -263,12 +290,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct oferece capacidade de processamento de instruções altamente confiável, suportando aplicações em diversos setores." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 é projetado para tarefas de código, focando na geração de código eficiente." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 possui 6.7 bilhões de parâmetros, suportando processamento de texto em inglês e chinês." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 combina as excelentes características das versões anteriores, aprimorando a capacidade geral e de codificação." }, @@ -467,6 +488,8 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 oferece soluções de diálogo inteligente em múltiplos cenários." }, + "jamba-1.5-large": {}, + "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "O modelo Llama 3.1 70B Instruct possui 70B de parâmetros, capaz de oferecer desempenho excepcional em tarefas de geração de texto e instrução em larga escala." }, @@ -530,6 +553,21 @@ "mathstral": { "description": "MathΣtral é projetado para pesquisa científica e raciocínio matemático, oferecendo capacidade de cálculo eficaz e interpretação de resultados." }, + "meta-llama-3-70b-instruct": { + "description": "Um poderoso modelo com 70 bilhões de parâmetros, destacando-se em raciocínio, codificação e amplas aplicações linguísticas." + }, + "meta-llama-3-8b-instruct": { + "description": "Um modelo versátil com 8 bilhões de parâmetros, otimizado para tarefas de diálogo e geração de texto." + }, + "meta-llama-3.1-405b-instruct": { + "description": "Os modelos de texto apenas ajustados por instrução Llama 3.1 são otimizados para casos de uso de diálogo multilíngue e superam muitos dos modelos de chat de código aberto e fechado disponíveis em benchmarks comuns da indústria." + }, + "meta-llama-3.1-70b-instruct": { + "description": "Os modelos de texto apenas ajustados por instrução Llama 3.1 são otimizados para casos de uso de diálogo multilíngue e superam muitos dos modelos de chat de código aberto e fechado disponíveis em benchmarks comuns da indústria." + }, + "meta-llama-3.1-8b-instruct": { + "description": "Os modelos de texto apenas ajustados por instrução Llama 3.1 são otimizados para casos de uso de diálogo multilíngue e superam muitos dos modelos de chat de código aberto e fechado disponíveis em benchmarks comuns da indústria." + }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B) oferece excelente capacidade de processamento de linguagem e uma experiência interativa notável." }, @@ -539,9 +577,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) oferece suporte multilíngue, abrangendo um rico conhecimento em diversas áreas." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 suporta geração de texto de grande capacidade e interpretação de instruções." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite é ideal para ambientes que exigem alta eficiência e baixa latência." }, @@ -620,12 +655,21 @@ "mistral-large": { "description": "Mixtral Large é o modelo de destaque da Mistral, combinando capacidades de geração de código, matemática e raciocínio, suportando uma janela de contexto de 128k." }, + "mistral-large-2407": { + "description": "Mistral Large (2407) é um modelo de linguagem avançado (LLM) com capacidades de raciocínio, conhecimento e codificação de última geração." + }, "mistral-large-latest": { "description": "Mistral Large é o modelo de destaque, especializado em tarefas multilíngues, raciocínio complexo e geração de código, sendo a escolha ideal para aplicações de alto nível." }, "mistral-nemo": { "description": "Mistral Nemo é um modelo de 12B desenvolvido em colaboração entre a Mistral AI e a NVIDIA, oferecendo desempenho eficiente." }, + "mistral-small": { + "description": "Mistral Small pode ser usado em qualquer tarefa baseada em linguagem que exija alta eficiência e baixa latência." + }, + "mistral-small-latest": { + "description": "Mistral Small é uma opção de alto custo-benefício, rápida e confiável, adequada para casos de uso como tradução, resumo e análise de sentimentos." + }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instruct é conhecido por seu alto desempenho, adequado para diversas tarefas de linguagem." }, @@ -713,20 +757,29 @@ "phi3:14b": { "description": "Phi-3 é um modelo leve e aberto lançado pela Microsoft, adequado para integração eficiente e raciocínio de conhecimento em larga escala." }, + "pixtral-12b-2409": { + "description": "O modelo Pixtral demonstra forte capacidade em tarefas de compreensão de gráficos e imagens, perguntas e respostas de documentos, raciocínio multimodal e seguimento de instruções, podendo ingerir imagens em resolução natural e proporções, além de processar um número arbitrário de imagens em uma janela de contexto longa de até 128K tokens." + }, + "qwen-coder-turbo-latest": { + "description": "Modelo de código Qwen." + }, "qwen-long": { "description": "O Qwen é um modelo de linguagem em larga escala que suporta contextos de texto longos e funcionalidades de diálogo baseadas em documentos longos e múltiplos cenários." }, - "qwen-max": { - "description": "O Qwen é um modelo de linguagem em larga escala com trilhões de parâmetros, suportando entradas em diferentes idiomas, incluindo chinês e inglês, atualmente a versão do produto Qwen 2.5 por trás do modelo API." + "qwen-math-plus-latest": { + "description": "O modelo de matemática Qwen é especificamente projetado para resolver problemas matemáticos." }, - "qwen-max-longcontext": { - "description": "O Qwen é um modelo de linguagem em larga escala com trilhões de parâmetros, suportando entradas em diferentes idiomas, incluindo chinês e inglês, com uma janela de contexto expandida." + "qwen-math-turbo-latest": { + "description": "O modelo de matemática Qwen é especificamente projetado para resolver problemas matemáticos." }, - "qwen-plus": { - "description": "O Qwen é uma versão aprimorada do modelo de linguagem em larga escala, suportando entradas em diferentes idiomas, incluindo chinês e inglês." + "qwen-max-latest": { + "description": "O modelo de linguagem em larga escala Qwen Max, com trilhões de parâmetros, que suporta entradas em diferentes idiomas, incluindo chinês e inglês, e é o modelo de API por trás da versão do produto Qwen 2.5." }, - "qwen-turbo": { - "description": "O Qwen é um modelo de linguagem em larga escala que suporta entradas em diferentes idiomas, incluindo chinês e inglês." + "qwen-plus-latest": { + "description": "A versão aprimorada do modelo de linguagem em larga escala Qwen Plus, que suporta entradas em diferentes idiomas, incluindo chinês e inglês." + }, + "qwen-turbo-latest": { + "description": "O modelo de linguagem em larga escala Qwen Turbo, que suporta entradas em diferentes idiomas, incluindo chinês e inglês." }, "qwen-vl-chat-v1": { "description": "O Qwen VL suporta uma maneira de interação flexível, incluindo múltiplas imagens, perguntas e respostas em várias rodadas, e capacidades criativas." @@ -746,17 +799,32 @@ "qwen2": { "description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação." }, - "qwen2-57b-a14b-instruct": { - "description": "O Qwen2 é um modelo de 57B de código aberto com 14B de parâmetros ativados do MOE." + "qwen2.5-14b-instruct": { + "description": "Modelo de 14B parâmetros do Qwen 2.5, disponível como código aberto." + }, + "qwen2.5-32b-instruct": { + "description": "Modelo de 32B parâmetros do Qwen 2.5, disponível como código aberto." + }, + "qwen2.5-72b-instruct": { + "description": "Modelo de 72B parâmetros do Qwen 2.5, disponível como código aberto." + }, + "qwen2.5-7b-instruct": { + "description": "Modelo de 7B parâmetros do Qwen 2.5, disponível como código aberto." + }, + "qwen2.5-coder-1.5b-instruct": { + "description": "Versão de código aberto do modelo de código Qwen." + }, + "qwen2.5-coder-7b-instruct": { + "description": "Versão de código aberto do modelo de código Qwen." }, - "qwen2-72b-instruct": { - "description": "O Qwen2 é um modelo de 72B de código aberto." + "qwen2.5-math-1.5b-instruct": { + "description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos." }, - "qwen2-7b-instruct": { - "description": "O Qwen2 é um modelo de 7B de código aberto." + "qwen2.5-math-72b-instruct": { + "description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos." }, - "qwen2-math-72b-instruct": { - "description": "O modelo Qwen2-Math possui uma forte capacidade de resolução de problemas matemáticos." + "qwen2.5-math-7b-instruct": { + "description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos." }, "qwen2:0.5b": { "description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação." diff --git a/locales/pt-BR/providers.json b/locales/pt-BR/providers.json index 00e1889ad099..96da851a50c7 100644 --- a/locales/pt-BR/providers.json +++ b/locales/pt-BR/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "360 AI é a plataforma de modelos e serviços de IA lançada pela empresa 360, oferecendo uma variedade de modelos avançados de processamento de linguagem natural, incluindo 360GPT2 Pro, 360GPT Pro, 360GPT Turbo e 360GPT Turbo Responsibility 8K. Esses modelos combinam grandes parâmetros e capacidades multimodais, sendo amplamente aplicados em geração de texto, compreensão semântica, sistemas de diálogo e geração de código. Com uma estratégia de preços flexível, a 360 AI atende a diversas necessidades dos usuários, apoiando a integração de desenvolvedores e promovendo a inovação e o desenvolvimento de aplicações inteligentes." }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AI é um fornecedor líder de serviços de modelos de linguagem avançados, focando em chamadas de função e processamento multimodal. Seu modelo mais recente, Firefunction V2, baseado em Llama-3, é otimizado para chamadas de função, diálogos e seguimento de instruções. O modelo de linguagem visual FireLLaVA-13B suporta entradas mistas de imagem e texto. Outros modelos notáveis incluem a série Llama e a série Mixtral, oferecendo suporte eficiente para seguimento e geração de instruções multilíngues." }, + "github": { + "description": "Com os Modelos do GitHub, os desenvolvedores podem se tornar engenheiros de IA e construir com os principais modelos de IA da indústria." + }, "google": { "description": "A série Gemini do Google é seu modelo de IA mais avançado e versátil, desenvolvido pela Google DeepMind, projetado para ser multimodal, suportando compreensão e processamento sem costura de texto, código, imagens, áudio e vídeo. Adequado para uma variedade de ambientes, desde data centers até dispositivos móveis, melhorando significativamente a eficiência e a aplicabilidade dos modelos de IA." }, diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json index 4c8ec1ed6e50..181ec15788bf 100644 --- a/locales/ru-RU/models.json +++ b/locales/ru-RU/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B, с богатым набором обучающих образцов, демонстрирует превосходные результаты в отраслевых приложениях." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 — это эволюционная версия серии Yi, обладающая высококачественным предобучением и богатым набором данных для дообучения." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B поддерживает 16K токенов, обеспечивая эффективные и плавные возможности генерации языка." }, @@ -47,41 +44,56 @@ "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B) предлагает оптимизированный языковой вывод и разнообразные возможности применения." }, + "Phi-3-5-mini-instruct": { + "description": "Обновление модели Phi-3-mini." + }, + "Phi-3-medium-128k-instruct": { + "description": "Та же модель Phi-3-medium, но с большим размером контекста для RAG или нескольких подсказок." + }, + "Phi-3-medium-4k-instruct": { + "description": "Модель с 14B параметрами, демонстрирующая лучшее качество, чем Phi-3-mini, с акцентом на высококачественные, насыщенные рассуждениями данные." + }, + "Phi-3-mini-128k-instruct": { + "description": "Та же модель Phi-3-mini, но с большим размером контекста для RAG или нескольких подсказок." + }, + "Phi-3-mini-4k-instruct": { + "description": "Самая маленькая модель в семействе Phi-3. Оптимизирована как для качества, так и для низкой задержки." + }, + "Phi-3-small-128k-instruct": { + "description": "Та же модель Phi-3-small, но с большим размером контекста для RAG или нескольких подсказок." + }, + "Phi-3-small-8k-instruct": { + "description": "Модель с 7B параметрами, демонстрирующая лучшее качество, чем Phi-3-mini, с акцентом на высококачественные, насыщенные рассуждениями данные." + }, "Pro-128k": { "description": "Spark Pro-128K оснащен возможностями обработки контекста большого объема, способным обрабатывать до 128K контекстной информации, особенно подходит для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях." }, "Qwen/Qwen1.5-110B-Chat": { "description": "Как тестовая версия Qwen2, Qwen1.5 использует большие объемы данных для достижения более точных диалоговых функций." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5, обученный на больших наборах данных, хорошо справляется со сложными языковыми задачами." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 обладает способностями к многопрофильным ответам на вопросы и генерации текстов." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) обеспечивает быстрые ответы и естественные диалоговые возможности, подходящие для многоязычной среды." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 улучшает способности диалогового выражения, сочетая высококачественное предобучение и дообучение." + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 — это передовая универсальная языковая модель, поддерживающая множество типов команд." }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач." + "Qwen/Qwen2.5-14B-Instruct": { + "description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач." }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 — это новая серия, модель 57B A14B показывает выдающиеся результаты в инструктивных задачах." + "Qwen/Qwen2.5-32B-Instruct": { + "description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач." }, - "Qwen/Qwen2-72B-Instruct": { - "description": "Qwen2 — это передовая универсальная языковая модель, поддерживающая множество типов команд." + "Qwen/Qwen2.5-72B-Instruct": { + "description": "Qwen2.5 — это новая серия крупных языковых моделей с более сильными способностями понимания и генерации." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 — это новая серия крупных языковых моделей с более сильными способностями к пониманию и генерации." + "Qwen/Qwen2.5-7B-Instruct": { + "description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач." }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math сосредоточен на решении математических задач, предоставляя профессиональные ответы на сложные вопросы." + "Qwen/Qwen2.5-Coder-7B-Instruct": { + "description": "Qwen2.5-Coder сосредоточен на написании кода." }, - "THUDM/chatglm3-6b": { - "description": "ChatGLM3, как двуязычная языковая модель, может обрабатывать задачи по преобразованию между китайским и английским языками." + "Qwen/Qwen2.5-Math-72B-Instruct": { + "description": "Qwen2.5-Math сосредоточен на решении математических задач, предоставляя профессиональные ответы на сложные вопросы." }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B — это открытая версия, обеспечивающая оптимизированный диалоговый опыт для приложений." @@ -158,6 +170,15 @@ "accounts/yi-01-ai/models/yi-large": { "description": "Модель Yi-Large, обладающая выдающимися возможностями обработки нескольких языков, подходит для различных задач генерации и понимания языка." }, + "ai21-jamba-1.5-large": { + "description": "Многоязычная модель с 398B параметрами (94B активных), предлагающая контекстное окно длиной 256K, вызовы функций, структурированный вывод и основанное на фактах генерирование." + }, + "ai21-jamba-1.5-mini": { + "description": "Многоязычная модель с 52B параметрами (12B активных), предлагающая контекстное окно длиной 256K, вызовы функций, структурированный вывод и основанное на фактах генерирование." + }, + "ai21-jamba-instruct": { + "description": "Модель LLM на основе Mamba, предназначенная для достижения наилучших показателей производительности, качества и экономической эффективности." + }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня." }, @@ -254,6 +275,12 @@ "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22B — это модель, разработанная для соблюдения инструкций, диалогов и программирования." }, + "cohere-command-r": { + "description": "Command R — это масштабируемая генеративная модель, нацеленная на RAG и использование инструментов для обеспечения AI на уровне производства для предприятий." + }, + "cohere-command-r-plus": { + "description": "Command R+ — это модель, оптимизированная для RAG, предназначенная для решения задач корпоративного уровня." + }, "command-r": { "description": "Command R — это LLM, оптимизированная для диалогов и задач с длинным контекстом, особенно подходит для динамического взаимодействия и управления знаниями." }, @@ -263,12 +290,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct предлагает высокую надежность в обработке команд, поддерживая приложения в различных отраслях." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 разработан для задач программирования, сосредоточен на эффективной генерации кода." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 обладает 6.7 миллиарда параметров и поддерживает обработку текстов на английском и китайском языках." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 объединяет отличительные черты предыдущих версий, улучшая общие и кодировочные способности." }, @@ -467,6 +488,8 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 предлагает интеллектуальные решения для диалогов в различных сценариях." }, + "jamba-1.5-large": {}, + "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "Модель Llama 3.1 70B для команд, обладающая 70B параметрами, обеспечивает выдающуюся производительность в задачах генерации текста и выполнения команд." }, @@ -530,6 +553,21 @@ "mathstral": { "description": "MathΣtral специально разработан для научных исследований и математического вывода, обеспечивая эффективные вычислительные возможности и интерпретацию результатов." }, + "meta-llama-3-70b-instruct": { + "description": "Мощная модель с 70 миллиардами параметров, превосходящая в области рассуждений, кодирования и широких языковых приложений." + }, + "meta-llama-3-8b-instruct": { + "description": "Универсальная модель с 8 миллиардами параметров, оптимизированная для диалоговых и текстовых задач." + }, + "meta-llama-3.1-405b-instruct": { + "description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам." + }, + "meta-llama-3.1-70b-instruct": { + "description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам." + }, + "meta-llama-3.1-8b-instruct": { + "description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам." + }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B) предлагает отличные возможности обработки языка и выдающийся опыт взаимодействия." }, @@ -539,9 +577,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) предлагает многоязычную поддержку и охватывает широкий спектр областей знаний." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 поддерживает генерацию больших объемов текста и интерпретацию инструкций." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite подходит для сред, требующих высокой производительности и низкой задержки." }, @@ -620,12 +655,21 @@ "mistral-large": { "description": "Mixtral Large — это флагманская модель от Mistral, объединяющая возможности генерации кода, математики и вывода, поддерживающая контекстное окно 128k." }, + "mistral-large-2407": { + "description": "Mistral Large (2407) — это продвинутая модель языка (LLM) с современными способностями рассуждения, знаний и кодирования." + }, "mistral-large-latest": { "description": "Mistral Large — это флагманская большая модель, хорошо подходящая для многоязычных задач, сложного вывода и генерации кода, идеальный выбор для высококлассных приложений." }, "mistral-nemo": { "description": "Mistral Nemo, разработанный в сотрудничестве между Mistral AI и NVIDIA, является высокоэффективной 12B моделью." }, + "mistral-small": { + "description": "Mistral Small может использоваться для любых языковых задач, требующих высокой эффективности и низкой задержки." + }, + "mistral-small-latest": { + "description": "Mistral Small — это экономически эффективный, быстрый и надежный вариант для таких случаев, как перевод, резюме и анализ настроений." + }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instruct известен своей высокой производительностью и подходит для множества языковых задач." }, @@ -713,20 +757,29 @@ "phi3:14b": { "description": "Phi-3 — это легковесная открытая модель, выпущенная Microsoft, подходящая для эффективной интеграции и масштабного вывода знаний." }, + "pixtral-12b-2409": { + "description": "Модель Pixtral демонстрирует мощные способности в задачах графиков и понимания изображений, вопросов и ответов по документам, многомодального вывода и соблюдения инструкций, способная обрабатывать изображения в естественном разрешении и соотношении сторон, а также обрабатывать произвольное количество изображений в контекстном окне длиной до 128K токенов." + }, + "qwen-coder-turbo-latest": { + "description": "Модель кода Tongyi Qwen." + }, "qwen-long": { "description": "Qwen — это сверхмасштабная языковая модель, поддерживающая длинный контекст текста и диалоговые функции на основе длинных документов и нескольких документов." }, - "qwen-max": { - "description": "Qwen — это сверхмасштабная языковая модель с триллионом параметров, поддерживающая ввод на разных языках, включая китайский и английский, в настоящее время это API модель, лежащая в основе продукта Qwen 2.5." + "qwen-math-plus-latest": { + "description": "Математическая модель Tongyi Qwen, специально разработанная для решения математических задач." }, - "qwen-max-longcontext": { - "description": "Qwen — это сверхмасштабная языковая модель с триллионом параметров, поддерживающая ввод на разных языках, включая китайский и английский, с расширенным контекстным окном." + "qwen-math-turbo-latest": { + "description": "Математическая модель Tongyi Qwen, специально разработанная для решения математических задач." }, - "qwen-plus": { - "description": "Qwen — это улучшенная версия сверхмасштабной языковой модели, поддерживающая ввод на разных языках, включая китайский и английский." + "qwen-max-latest": { + "description": "Модель языка Tongyi Qwen с уровнем масштабирования в триллионы, поддерживающая ввод на различных языках, включая китайский и английский, является API моделью, лежащей в основе продукта Tongyi Qwen 2.5." }, - "qwen-turbo": { - "description": "Qwen — это сверхмасштабная языковая модель, поддерживающая ввод на разных языках, включая китайский и английский." + "qwen-plus-latest": { + "description": "Улучшенная версия модели языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский." + }, + "qwen-turbo-latest": { + "description": "Модель языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский." }, "qwen-vl-chat-v1": { "description": "Qwen VL поддерживает гибкие способы взаимодействия, включая многократные изображения, многократные вопросы и ответы, а также творческие способности." @@ -746,17 +799,32 @@ "qwen2": { "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений." }, - "qwen2-57b-a14b-instruct": { - "description": "Qwen2 — это открытая 57B модель с 14B активированными параметрами MOE." + "qwen2.5-14b-instruct": { + "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 14B." + }, + "qwen2.5-32b-instruct": { + "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 32B." + }, + "qwen2.5-72b-instruct": { + "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 72B." + }, + "qwen2.5-7b-instruct": { + "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 7B." + }, + "qwen2.5-coder-1.5b-instruct": { + "description": "Открытая версия модели кода Tongyi Qwen." + }, + "qwen2.5-coder-7b-instruct": { + "description": "Открытая версия модели кода Tongyi Qwen." }, - "qwen2-72b-instruct": { - "description": "Qwen2 — это открытая 72B модель, доступная для внешнего использования." + "qwen2.5-math-1.5b-instruct": { + "description": "Модель Qwen-Math с мощными способностями решения математических задач." }, - "qwen2-7b-instruct": { - "description": "Qwen2 — это открытая 7B модель, доступная для внешнего использования." + "qwen2.5-math-72b-instruct": { + "description": "Модель Qwen-Math с мощными способностями решения математических задач." }, - "qwen2-math-72b-instruct": { - "description": "Модель Qwen2-Math обладает мощными способностями решения математических задач." + "qwen2.5-math-7b-instruct": { + "description": "Модель Qwen-Math с мощными способностями решения математических задач." }, "qwen2:0.5b": { "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений." diff --git a/locales/ru-RU/providers.json b/locales/ru-RU/providers.json index b2d61ba0780e..c707f7eb534d 100644 --- a/locales/ru-RU/providers.json +++ b/locales/ru-RU/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "360 AI — это платформа AI-моделей и услуг, запущенная компанией 360, предлагающая множество передовых моделей обработки естественного языка, включая 360GPT2 Pro, 360GPT Pro, 360GPT Turbo и 360GPT Turbo Responsibility 8K. Эти модели сочетают в себе масштабные параметры и мультимодальные возможности, широко применяются в генерации текста, семантическом понимании, диалоговых системах и генерации кода. Благодаря гибкой ценовой политике 360 AI удовлетворяет разнообразные потребности пользователей, поддерживает интеграцию разработчиков и способствует инновациям и развитию интеллектуальных приложений." }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AI — это ведущий поставщик высококлассных языковых моделей, сосредоточенный на вызовах функций и мультимодальной обработке. Их последняя модель Firefunction V2 основана на Llama-3 и оптимизирована для вызовов функций, диалогов и выполнения инструкций. Модель визуального языка FireLLaVA-13B поддерживает смешанный ввод изображений и текста. Другие заметные модели включают серию Llama и серию Mixtral, предлагая эффективную поддержку многоязычных инструкций и генерации." }, + "github": { + "description": "С помощью моделей GitHub разработчики могут стать инженерами ИИ и создавать с использованием ведущих моделей ИИ в отрасли." + }, "google": { "description": "Серия Gemini от Google является самой передовой и универсальной AI-моделью, разработанной Google DeepMind, специально созданной для мультимодальной обработки, поддерживающей бесшовное понимание и обработку текста, кода, изображений, аудио и видео. Подходит для различных сред, от дата-центров до мобильных устройств, значительно повышая эффективность и универсальность AI-моделей." }, diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json index 7a017961302b..466882f0e50a 100644 --- a/locales/tr-TR/models.json +++ b/locales/tr-TR/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B, zengin eğitim örnekleri ile endüstri uygulamalarında üstün performans sunar." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5, Yi serisinin evrimsel versiyonudur, yüksek kaliteli ön eğitim ve zengin ince ayar verilerine sahiptir." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B, 16K Token desteği sunar, etkili ve akıcı dil oluşturma yeteneği sağlar." }, @@ -47,41 +44,56 @@ "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B), optimize edilmiş dil çıktısı ve çeşitli uygulama olasılıkları sunar." }, + "Phi-3-5-mini-instruct": { + "description": "Phi-3-mini modelinin yenilenmiş versiyonu." + }, + "Phi-3-medium-128k-instruct": { + "description": "Aynı Phi-3-medium modeli, ancak RAG veya az sayıda örnek isteme için daha büyük bir bağlam boyutuna sahiptir." + }, + "Phi-3-medium-4k-instruct": { + "description": "14B parametreli bir model, Phi-3-mini'den daha iyi kalite sunar, yüksek kaliteli, akıl yürütme yoğun veriye odaklanır." + }, + "Phi-3-mini-128k-instruct": { + "description": "Aynı Phi-3-mini modeli, ancak RAG veya az sayıda örnek isteme için daha büyük bir bağlam boyutuna sahiptir." + }, + "Phi-3-mini-4k-instruct": { + "description": "Phi-3 ailesinin en küçük üyesi. Hem kalite hem de düşük gecikme için optimize edilmiştir." + }, + "Phi-3-small-128k-instruct": { + "description": "Aynı Phi-3-small modeli, ancak RAG veya az sayıda örnek isteme için daha büyük bir bağlam boyutuna sahiptir." + }, + "Phi-3-small-8k-instruct": { + "description": "7B parametreli bir model, Phi-3-mini'den daha iyi kalite sunar, yüksek kaliteli, akıl yürütme yoğun veriye odaklanır." + }, "Pro-128k": { "description": "Spark Pro-128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır, 128K'ya kadar bağlam bilgisi işleyebilir, özellikle uzun metin içeriklerinde bütünsel analiz ve uzun vadeli mantıksal bağlantı işleme gerektiren durumlar için uygundur, karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunar." }, "Qwen/Qwen1.5-110B-Chat": { "description": "Qwen2'nin test sürümü olan Qwen1.5, büyük ölçekli verilerle daha hassas diyalog yetenekleri sunar." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5, büyük ölçekli veri setleri ile eğitilmiş olup, karmaşık dil görevlerinde uzmandır." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5, çok alanlı bilgi sorgulama ve metin oluşturma yeteneğine sahiptir." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B), hızlı yanıt ve doğal diyalog yetenekleri sunar, çok dilli ortamlara uygundur." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5, gelişmiş ön eğitim ve ince ayar kombinasyonu ile diyalog ifade yeteneğini artırır." + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2, çok çeşitli talimat türlerini destekleyen gelişmiş bir genel dil modelidir." }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir." + "Qwen/Qwen2.5-14B-Instruct": { + "description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir." }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2, talimat görevlerinde mükemmel performans gösteren 57B A14B modelidir." + "Qwen/Qwen2.5-32B-Instruct": { + "description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir." }, - "Qwen/Qwen2-72B-Instruct": { - "description": "Qwen2, çok çeşitli talimat türlerini destekleyen gelişmiş bir genel dil modelidir." + "Qwen/Qwen2.5-72B-Instruct": { + "description": "Qwen2.5, daha güçlü anlama ve üretim yeteneklerine sahip yeni bir büyük dil modeli serisidir." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2, daha güçlü anlama ve oluşturma yeteneklerine sahip yeni bir büyük dil modeli serisidir." + "Qwen/Qwen2.5-7B-Instruct": { + "description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir." }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math, matematik alanındaki sorunları çözmeye odaklanır ve zorlu sorulara profesyonel yanıtlar sunar." + "Qwen/Qwen2.5-Coder-7B-Instruct": { + "description": "Qwen2.5-Coder, kod yazmaya odaklanır." }, - "THUDM/chatglm3-6b": { - "description": "Çift dilli diyalog dil modeli olarak, ChatGLM3, Çince ve İngilizce dönüşüm görevlerini işleyebilir." + "Qwen/Qwen2.5-Math-72B-Instruct": { + "description": "Qwen2.5-Math, matematik alanındaki sorunları çözmeye odaklanır ve yüksek zorlukta sorulara profesyonel yanıtlar sunar." }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B açık kaynak versiyonu, diyalog uygulamaları için optimize edilmiş bir diyalog deneyimi sunar." @@ -158,6 +170,15 @@ "accounts/yi-01-ai/models/yi-large": { "description": "Yi-Large modeli, mükemmel çok dilli işleme yetenekleri sunar ve her türlü dil üretimi ve anlama görevleri için uygundur." }, + "ai21-jamba-1.5-large": { + "description": "398B parametreli (94B aktif) çok dilli bir model, 256K uzun bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve temellendirilmiş üretim sunar." + }, + "ai21-jamba-1.5-mini": { + "description": "52B parametreli (12B aktif) çok dilli bir model, 256K uzun bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve temellendirilmiş üretim sunar." + }, + "ai21-jamba-instruct": { + "description": "En iyi performans, kalite ve maliyet verimliliği sağlamak için üretim sınıfı Mamba tabanlı LLM modelidir." + }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak geniş bir değerlendirmede mükemmel performans sergilerken, orta seviye modellerimizin hızı ve maliyeti ile birlikte gelir." }, @@ -254,6 +275,12 @@ "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22B, talimat takibi, diyalog ve programlama için tasarlanmış bir modeldir." }, + "cohere-command-r": { + "description": "Command R, üretim ölçeğinde AI sağlamak için RAG ve Araç Kullanımına yönelik ölçeklenebilir bir üretken modeldir." + }, + "cohere-command-r-plus": { + "description": "Command R+, kurumsal düzeyde iş yüklerini ele almak için tasarlanmış en son RAG optimize edilmiş bir modeldir." + }, "command-r": { "description": "Command R, diyalog ve uzun bağlam görevleri için optimize edilmiş bir LLM'dir, dinamik etkileşim ve bilgi yönetimi için özellikle uygundur." }, @@ -263,12 +290,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct, yüksek güvenilirlikte talimat işleme yetenekleri sunar ve çok çeşitli endüstri uygulamalarını destekler." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2, kod görevleri için tasarlanmış olup, etkili kod oluşturma üzerine odaklanmaktadır." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2, 6.7 milyar parametreye sahiptir ve İngilizce ve Çince metin işleme desteği sunar." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5, önceki sürümlerin mükemmel özelliklerini bir araya getirir, genel ve kodlama yeteneklerini artırır." }, @@ -467,6 +488,8 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5, çoklu senaryolarda akıllı diyalog çözümleri sunar." }, + "jamba-1.5-large": {}, + "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "Llama 3.1 70B Instruct modeli, 70B parametreye sahiptir ve büyük metin üretimi ve talimat görevlerinde mükemmel performans sunar." }, @@ -530,6 +553,21 @@ "mathstral": { "description": "MathΣtral, bilimsel araştırma ve matematik akıl yürütme için tasarlanmış, etkili hesaplama yetenekleri ve sonuç açıklamaları sunar." }, + "meta-llama-3-70b-instruct": { + "description": "Akıl yürütme, kodlama ve geniş dil uygulamalarında mükemmel bir 70 milyar parametreli model." + }, + "meta-llama-3-8b-instruct": { + "description": "Diyalog ve metin üretim görevleri için optimize edilmiş çok yönlü bir 8 milyar parametreli model." + }, + "meta-llama-3.1-405b-instruct": { + "description": "Llama 3.1 talimat ayarlı yalnızca metin modelleri, çok dilli diyalog kullanım durumları için optimize edilmiştir ve mevcut açık kaynak ve kapalı sohbet modellerinin çoğunu yaygın endüstri standartlarında geride bırakmaktadır." + }, + "meta-llama-3.1-70b-instruct": { + "description": "Llama 3.1 talimat ayarlı yalnızca metin modelleri, çok dilli diyalog kullanım durumları için optimize edilmiştir ve mevcut açık kaynak ve kapalı sohbet modellerinin çoğunu yaygın endüstri standartlarında geride bırakmaktadır." + }, + "meta-llama-3.1-8b-instruct": { + "description": "Llama 3.1 talimat ayarlı yalnızca metin modelleri, çok dilli diyalog kullanım durumları için optimize edilmiştir ve mevcut açık kaynak ve kapalı sohbet modellerinin çoğunu yaygın endüstri standartlarında geride bırakmaktadır." + }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B), mükemmel dil işleme yetenekleri ve olağanüstü etkileşim deneyimi sunar." }, @@ -539,9 +577,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B), çok dilli desteği ile zengin alan bilgilerini kapsar." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3, büyük hacimli metin oluşturma ve talimat çözümleme desteği sunar." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite, yüksek performans ve düşük gecikme gerektiren ortamlara uygundur." }, @@ -620,12 +655,21 @@ "mistral-large": { "description": "Mixtral Large, Mistral'ın amiral gemisi modelidir, kod üretimi, matematik ve akıl yürütme yeteneklerini birleştirir, 128k bağlam penceresini destekler." }, + "mistral-large-2407": { + "description": "Mistral Large (2407), en son akıl yürütme, bilgi ve kodlama yetenekleri ile gelişmiş bir Büyük Dil Modelidir (LLM)." + }, "mistral-large-latest": { "description": "Mistral Large, çok dilli görevler, karmaşık akıl yürütme ve kod üretimi için ideal bir seçimdir ve yüksek uç uygulamalar için tasarlanmıştır." }, "mistral-nemo": { "description": "Mistral Nemo, Mistral AI ve NVIDIA işbirliği ile sunulan, yüksek verimli 12B modelidir." }, + "mistral-small": { + "description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her dil tabanlı görevde kullanılabilir." + }, + "mistral-small-latest": { + "description": "Mistral Small, çeviri, özetleme ve duygu analizi gibi kullanım durumları için maliyet etkin, hızlı ve güvenilir bir seçenektir." + }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instruct, yüksek performansıyla tanınır ve çeşitli dil görevleri için uygundur." }, @@ -713,20 +757,29 @@ "phi3:14b": { "description": "Phi-3, Microsoft tarafından sunulan hafif bir açık modeldir, verimli entegrasyon ve büyük ölçekli bilgi akıl yürütme için uygundur." }, + "pixtral-12b-2409": { + "description": "Pixtral modeli, grafik ve görüntü anlama, belge yanıtı, çok modlu akıl yürütme ve talimat takibi gibi görevlerde güçlü yetenekler sergiler, doğal çözünürlük ve en boy oranında görüntüleri alabilir ve 128K token uzunluğunda bir bağlam penceresinde herhangi bir sayıda görüntüyü işleyebilir." + }, + "qwen-coder-turbo-latest": { + "description": "Tongyi Qianwen kodlama modeli." + }, "qwen-long": { "description": "Tongyi Qianwen, uzun metin bağlamını destekleyen ve uzun belgeler, çoklu belgeler gibi çeşitli senaryolar için diyalog işlevselliği sunan büyük ölçekli bir dil modelidir." }, - "qwen-max": { - "description": "Tongyi Qianwen, yüz milyar seviyesinde büyük ölçekli bir dil modelidir. Çince, İngilizce gibi farklı dillerde girişi destekler ve şu anda Tongyi Qianwen 2.5 ürün versiyonunun arkasındaki API modelidir." + "qwen-math-plus-latest": { + "description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış bir dil modelidir." }, - "qwen-max-longcontext": { - "description": "Tongyi Qianwen, yüz milyar seviyesinde büyük ölçekli bir dil modelidir. Çince, İngilizce gibi farklı dillerde girişi destekler ve bağlam penceresini genişletmiştir." + "qwen-math-turbo-latest": { + "description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış bir dil modelidir." }, - "qwen-plus": { - "description": "Tongyi Qianwen, Çince, İngilizce gibi farklı dillerde girişi destekleyen büyük ölçekli dil modelinin geliştirilmiş versiyonudur." + "qwen-max-latest": { + "description": "Tongyi Qianwen, 100 milyar seviyesinde büyük bir dil modeli, Çince, İngilizce ve diğer dillerde girişleri destekler, şu anda Tongyi Qianwen 2.5 ürün versiyonunun arkasındaki API modelidir." }, - "qwen-turbo": { - "description": "Tongyi Qianwen, Çince, İngilizce gibi farklı dillerde girişi destekleyen büyük ölçekli bir dil modelidir." + "qwen-plus-latest": { + "description": "Tongyi Qianwen'in geliştirilmiş versiyonu, çok dilli girişleri destekler." + }, + "qwen-turbo-latest": { + "description": "Tongyi Qianwen, çok dilli bir dil modeli, Çince, İngilizce ve diğer dillerde girişleri destekler." }, "qwen-vl-chat-v1": { "description": "Tongyi Qianwen VL, çoklu görüntü, çok turlu soru-cevap, yaratım gibi esnek etkileşim yöntemlerini destekleyen bir modeldir." @@ -746,17 +799,32 @@ "qwen2": { "description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler." }, - "qwen2-57b-a14b-instruct": { - "description": "Tongyi Qianwen 2, halka açık kaynak kodlu 57B ölçeğinde 14B etkin parametreli MOE modelidir." + "qwen2.5-14b-instruct": { + "description": "Tongyi Qianwen 2.5, halka açık 14B ölçeğinde bir modeldir." + }, + "qwen2.5-32b-instruct": { + "description": "Tongyi Qianwen 2.5, halka açık 32B ölçeğinde bir modeldir." + }, + "qwen2.5-72b-instruct": { + "description": "Tongyi Qianwen 2.5, halka açık 72B ölçeğinde bir modeldir." + }, + "qwen2.5-7b-instruct": { + "description": "Tongyi Qianwen 2.5, halka açık 7B ölçeğinde bir modeldir." + }, + "qwen2.5-coder-1.5b-instruct": { + "description": "Tongyi Qianwen kodlama modelinin açık kaynak versiyonu." + }, + "qwen2.5-coder-7b-instruct": { + "description": "Tongyi Qianwen kodlama modelinin açık kaynak versiyonu." }, - "qwen2-72b-instruct": { - "description": "Tongyi Qianwen 2, halka açık kaynak kodlu 72B ölçeğinde bir modeldir." + "qwen2.5-math-1.5b-instruct": { + "description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir." }, - "qwen2-7b-instruct": { - "description": "Tongyi Qianwen 2, halka açık kaynak kodlu 7B ölçeğinde bir modeldir." + "qwen2.5-math-72b-instruct": { + "description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir." }, - "qwen2-math-72b-instruct": { - "description": "Qwen2-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir." + "qwen2.5-math-7b-instruct": { + "description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir." }, "qwen2:0.5b": { "description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler." diff --git a/locales/tr-TR/providers.json b/locales/tr-TR/providers.json index 0da81274643a..73a7b3ac2ac6 100644 --- a/locales/tr-TR/providers.json +++ b/locales/tr-TR/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "360 AI, 360 şirketi tarafından sunulan yapay zeka modeli ve hizmet platformudur. 360GPT2 Pro, 360GPT Pro, 360GPT Turbo ve 360GPT Turbo Responsibility 8K gibi çeşitli gelişmiş doğal dil işleme modelleri sunmaktadır. Bu modeller, büyük ölçekli parametreler ve çok modlu yetenekleri birleştirerek metin üretimi, anlamsal anlama, diyalog sistemleri ve kod üretimi gibi alanlarda geniş bir uygulama yelpazesine sahiptir. Esnek fiyatlandırma stratejileri ile 360 AI, çeşitli kullanıcı ihtiyaçlarını karşılamakta ve geliştiricilerin entegrasyonunu destekleyerek akıllı uygulamaların yenilik ve gelişimini teşvik etmektedir." }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AI, işlev çağrısı ve çok modlu işleme üzerine odaklanan önde gelen bir gelişmiş dil modeli hizmet sağlayıcısıdır. En son modeli Firefunction V2, Llama-3 tabanlıdır ve işlev çağrısı, diyalog ve talimat takibi için optimize edilmiştir. Görsel dil modeli FireLLaVA-13B, görüntü ve metin karışık girişi desteklemektedir. Diğer dikkat çekici modeller arasında Llama serisi ve Mixtral serisi bulunmaktadır ve etkili çok dilli talimat takibi ve üretim desteği sunmaktadır." }, + "github": { + "description": "GitHub Modelleri ile geliştiriciler, AI mühendisleri olabilir ve sektörün önde gelen AI modelleri ile inşa edebilirler." + }, "google": { "description": "Google'ın Gemini serisi, Google DeepMind tarafından geliştirilen en gelişmiş ve genel yapay zeka modelleridir. Çok modlu tasarımı sayesinde metin, kod, görüntü, ses ve video gibi çeşitli veri türlerini sorunsuz bir şekilde anlama ve işleme yeteneğine sahiptir. Veri merkezlerinden mobil cihazlara kadar çeşitli ortamlarda kullanılabilir, yapay zeka modellerinin verimliliğini ve uygulama kapsamını büyük ölçüde artırmaktadır." }, diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json index 1675a50889d8..75fe144d5694 100644 --- a/locales/vi-VN/models.json +++ b/locales/vi-VN/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B, với mẫu huấn luyện phong phú, cung cấp hiệu suất vượt trội trong ứng dụng ngành." }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 là phiên bản tiến hóa của dòng Yi, có đào tạo trước chất lượng cao và dữ liệu tinh chỉnh phong phú." - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B hỗ trợ 16K Tokens, cung cấp khả năng tạo ngôn ngữ hiệu quả và mượt mà." }, @@ -53,36 +50,12 @@ "Qwen/Qwen1.5-110B-Chat": { "description": "Là phiên bản thử nghiệm của Qwen2, Qwen1.5 sử dụng dữ liệu quy mô lớn để đạt được chức năng đối thoại chính xác hơn." }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5 được đào tạo từ bộ dữ liệu quy mô lớn, xuất sắc trong các nhiệm vụ ngôn ngữ phức tạp." - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 có khả năng trả lời câu hỏi đa lĩnh vực và tạo văn bản." - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) cung cấp phản hồi nhanh và khả năng đối thoại tự nhiên, phù hợp cho môi trường đa ngôn ngữ." }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 nâng cao khả năng diễn đạt trong đối thoại thông qua việc kết hợp giữa đào tạo trước cao cấp và tinh chỉnh." - }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 là dòng mô hình ngôn ngữ lớn hoàn toàn mới, nhằm tối ưu hóa việc xử lý các nhiệm vụ theo hướng dẫn." - }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 là dòng mới, mô hình 57B A14B thể hiện xuất sắc trong các nhiệm vụ theo hướng dẫn." - }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 là mô hình ngôn ngữ tổng quát tiên tiến, hỗ trợ nhiều loại chỉ dẫn." }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 là dòng mô hình ngôn ngữ lớn hoàn toàn mới, có khả năng hiểu và tạo ra mạnh mẽ hơn." - }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math tập trung vào việc giải quyết các vấn đề trong lĩnh vực toán học, cung cấp giải pháp chuyên nghiệp cho các bài toán khó." - }, - "THUDM/chatglm3-6b": { - "description": "Là mô hình ngôn ngữ hội thoại song ngữ, ChatGLM3 có khả năng xử lý các nhiệm vụ chuyển đổi giữa tiếng Trung và tiếng Anh." - }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B là phiên bản mã nguồn mở, cung cấp trải nghiệm đối thoại tối ưu cho các ứng dụng hội thoại." }, @@ -263,12 +236,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct cung cấp khả năng xử lý chỉ dẫn đáng tin cậy, hỗ trợ nhiều ứng dụng trong ngành." }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 được thiết kế cho các nhiệm vụ mã, tập trung vào việc tạo mã hiệu quả." - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 có 6.7 tỷ tham số, hỗ trợ xử lý văn bản tiếng Anh và tiếng Trung." - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 kết hợp các đặc điểm xuất sắc của các phiên bản trước, tăng cường khả năng tổng quát và mã hóa." }, @@ -539,9 +506,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) cung cấp hỗ trợ đa ngôn ngữ, bao gồm nhiều lĩnh vực kiến thức phong phú." }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 hỗ trợ tạo văn bản dung lượng lớn và phân tích theo hướng dẫn." - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite phù hợp cho các môi trường cần hiệu suất cao và độ trễ thấp." }, @@ -716,18 +680,6 @@ "qwen-long": { "description": "Mô hình ngôn ngữ quy mô lớn Qwen, hỗ trợ ngữ cảnh văn bản dài và chức năng đối thoại dựa trên tài liệu dài, nhiều tài liệu." }, - "qwen-max": { - "description": "Mô hình ngôn ngữ quy mô lớn Qwen với quy mô hàng trăm tỷ, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và các ngôn ngữ khác, hiện là mô hình API đứng sau phiên bản sản phẩm Qwen 2.5." - }, - "qwen-max-longcontext": { - "description": "Mô hình ngôn ngữ quy mô lớn Qwen với quy mô hàng trăm tỷ, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và các ngôn ngữ khác, mở rộng cửa sổ ngữ cảnh." - }, - "qwen-plus": { - "description": "Mô hình ngôn ngữ quy mô lớn Qwen phiên bản nâng cao, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và các ngôn ngữ khác." - }, - "qwen-turbo": { - "description": "Mô hình ngôn ngữ quy mô lớn Qwen, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và các ngôn ngữ khác." - }, "qwen-vl-chat-v1": { "description": "Mô hình Qwen VL hỗ trợ các phương thức tương tác linh hoạt, bao gồm nhiều hình ảnh, nhiều vòng hỏi đáp, sáng tạo, v.v." }, @@ -746,18 +698,6 @@ "qwen2": { "description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc." }, - "qwen2-57b-a14b-instruct": { - "description": "Mô hình Qwen2 quy mô 57B với 14B tham số kích hoạt MOE được mở nguồn cho công chúng." - }, - "qwen2-72b-instruct": { - "description": "Mô hình Qwen2 quy mô 72B được mở nguồn cho công chúng." - }, - "qwen2-7b-instruct": { - "description": "Mô hình Qwen2 quy mô 7B được mở nguồn cho công chúng." - }, - "qwen2-math-72b-instruct": { - "description": "Mô hình Qwen2-Math có khả năng giải toán mạnh mẽ." - }, "qwen2:0.5b": { "description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc." }, diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json index cb94824f7799..d77bdcf9e255 100644 --- a/locales/zh-CN/models.json +++ b/locales/zh-CN/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B, 以丰富的训练样本在行业应用中提供优越表现。" }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 是Yi系列的进化版本,拥有高质量的预训练和丰富的微调数据。" - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B 支持16K Tokens, 提供高效、流畅的语言生成能力。" }, @@ -47,41 +44,56 @@ "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B) 提供优化的语言输出和多样化的应用可能。" }, + "Phi-3-5-mini-instruct": { + "description": "Refresh of Phi-3-mini model." + }, + "Phi-3-medium-128k-instruct": { + "description": "Same Phi-3-medium model, but with a larger context size for RAG or few shot prompting." + }, + "Phi-3-medium-4k-instruct": { + "description": "A 14B parameters model, proves better quality than Phi-3-mini, with a focus on high-quality, reasoning-dense data." + }, + "Phi-3-mini-128k-instruct": { + "description": "Same Phi-3-mini model, but with a larger context size for RAG or few shot prompting." + }, + "Phi-3-mini-4k-instruct": { + "description": "Tiniest member of the Phi-3 family. Optimized for both quality and low latency." + }, + "Phi-3-small-128k-instruct": { + "description": "Same Phi-3-small model, but with a larger context size for RAG or few shot prompting." + }, + "Phi-3-small-8k-instruct": { + "description": "A 7B parameters model, proves better quality than Phi-3-mini, with a focus on high-quality, reasoning-dense data." + }, "Pro-128k": { "description": "Spark Pro-128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。" }, "Qwen/Qwen1.5-110B-Chat": { - "description": "作为Qwen2 的测试版,Qwen1.5 使用大规模数据实现了更精确的对话功能。" - }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5 通过大规模数据集训练,擅长复杂的语言任务。" - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 具备多领域问答和文本生成的能力。" + "description": "Qwen 1.5 Chat (110B) 是一款高效能的对话模型,支持复杂对话场景。" }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) 提供快速响应和自然对话能力,适合多语言环境。" }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 通过结合高级预训练和微调提升对话表达能力。" + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。" }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 是全新的大型语言模型系列,旨在优化指令式任务的处理。" + "Qwen/Qwen2.5-14B-Instruct": { + "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。" }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 是全新的系列,57B A14B 型号在指令任务中表现卓越。" + "Qwen/Qwen2.5-32B-Instruct": { + "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。" }, - "Qwen/Qwen2-72B-Instruct": { - "description": "Qwen2 是先进的通用语言模型,支持多种指令类型。" + "Qwen/Qwen2.5-72B-Instruct": { + "description": "Qwen2.5 是全新的大型语言模型系列,具有更强的理解和生成能力。" }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。" + "Qwen/Qwen2.5-7B-Instruct": { + "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。" }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math 专注于数学领域的问题求解,为高难度题提供专业解答。" + "Qwen/Qwen2.5-Coder-7B-Instruct": { + "description": "Qwen2.5-Coder 专注于代码编写。" }, - "THUDM/chatglm3-6b": { - "description": "作为双语会话语言模型, ChatGLM3能处理中英文转换任务。" + "Qwen/Qwen2.5-Math-72B-Instruct": { + "description": "Qwen2.5-Math 专注于数学领域的问题求解,为高难度题提供专业解答。" }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B 开放源码版本,为会话应用提供优化后的对话体验。" @@ -158,6 +170,15 @@ "accounts/yi-01-ai/models/yi-large": { "description": "Yi-Large 模型,具备卓越的多语言处理能力,可用于各类语言生成和理解任务。" }, + "ai21-jamba-1.5-large": { + "description": "A 398B parameters (94B active) multilingual model, offering a 256K long context window, function calling, structured output, and grounded generation." + }, + "ai21-jamba-1.5-mini": { + "description": "A 52B parameters (12B active) multilingual model, offering a 256K long context window, function calling, structured output, and grounded generation." + }, + "ai21-jamba-instruct": { + "description": "A production-grade Mamba-based LLM model to achieve best-in-class performance, quality, and cost efficiency." + }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus,在广泛的评估中表现出色,同时具有我们中等层级模型的速度和成本。" }, @@ -254,6 +275,12 @@ "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22B 是一款为指令遵循、对话和编程设计的模型。" }, + "cohere-command-r": { + "description": "Command R is a scalable generative model targeting RAG and Tool Use to enable production-scale AI for enterprise." + }, + "cohere-command-r-plus": { + "description": "Command R+ is a state-of-the-art RAG-optimized model designed to tackle enterprise-grade workloads." + }, "command-r": { "description": "Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。" }, @@ -263,17 +290,11 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct 提供高可靠性的指令处理能力,支持多行业应用。" }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 为代码任务设计, 专注于高效的代码生成。" - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 具备67亿参数,支持英中文本处理。" - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 集合了先前版本的优秀特征,增强了通用和编码能力。" }, "deepseek-ai/deepseek-llm-67b-chat": { - "description": "DeepSeek 67B 是为高复杂性对话训练的先进模型。" + "description": "DeepSeek LLM Chat (67B) 是创新的 AI 模型 提供深度语言理解和互动能力。" }, "deepseek-chat": { "description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。" @@ -447,7 +468,7 @@ "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。" }, "gpt-4o": { - "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。" + "description": "OpenAI's most advanced multimodal model in the GPT-4 family. Can handle both text and image inputs." }, "gpt-4o-2024-05-13": { "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。" @@ -456,7 +477,7 @@ "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。" }, "gpt-4o-mini": { - "description": "GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。" + "description": "An affordable, efficient AI solution for diverse text and image tasks." }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B 是一款合并了多个顶尖模型的创意与智能相结合的语言模型。" @@ -467,6 +488,8 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 提供多场景下的智能对话解决方案。" }, + "jamba-1.5-large": {}, + "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "Llama 3.1 70B Instruct 模型,具备70B参数,能在大型文本生成和指示任务中提供卓越性能。" }, @@ -530,6 +553,21 @@ "mathstral": { "description": "MathΣtral 专为科学研究和数学推理设计,提供有效的计算能力和结果解释。" }, + "meta-llama-3-70b-instruct": { + "description": "A powerful 70-billion parameter model excelling in reasoning, coding, and broad language applications." + }, + "meta-llama-3-8b-instruct": { + "description": "A versatile 8-billion parameter model optimized for dialogue and text generation tasks." + }, + "meta-llama-3.1-405b-instruct": { + "description": "The Llama 3.1 instruction tuned text only models are optimized for multilingual dialogue use cases and outperform many of the available open source and closed chat models on common industry benchmarks." + }, + "meta-llama-3.1-70b-instruct": { + "description": "The Llama 3.1 instruction tuned text only models are optimized for multilingual dialogue use cases and outperform many of the available open source and closed chat models on common industry benchmarks." + }, + "meta-llama-3.1-8b-instruct": { + "description": "The Llama 3.1 instruction tuned text only models are optimized for multilingual dialogue use cases and outperform many of the available open source and closed chat models on common industry benchmarks." + }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B) 提供优秀的语言处理能力和出色的交互体验。" }, @@ -539,9 +577,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) 提供多语言支持,涵盖丰富的领域知识。" }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 支持大容量文本生成和指令解析。" - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite 适合需要高效能和低延迟的环境。" }, @@ -620,17 +655,26 @@ "mistral-large": { "description": "Mixtral Large 是 Mistral 的旗舰模型,结合代码生成、数学和推理的能力,支持 128k 上下文窗口。" }, + "mistral-large-2407": { + "description": "Mistral Large (2407) is an advanced Large Language Model (LLM) with state-of-the-art reasoning, knowledge and coding capabilities." + }, "mistral-large-latest": { "description": "Mistral Large是旗舰大模型,擅长多语言任务、复杂推理和代码生成,是高端应用的理想选择。" }, "mistral-nemo": { "description": "Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。" }, + "mistral-small": { + "description": "Mistral Small can be used on any language-based task that requires high efficiency and low latency." + }, + "mistral-small-latest": { + "description": "Mistral Small是成本效益高、快速且可靠的选项,适用于翻译、摘要和情感分析等用例。" + }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instruct 以高性能著称,适用于多种语言任务。" }, "mistralai/Mistral-7B-Instruct-v0.2": { - "description": "Mistral 7B 指令微调模型针对对话场景进行了优化,可用于文本生成和对话任务。" + "description": "Mistral (7B) Instruct v0.2 提供改进的指令处理能力和更精确的结果。" }, "mistralai/Mistral-7B-Instruct-v0.3": { "description": "Mistral (7B) Instruct v0.3 提供高效的计算能力和自然语言理解,适合广泛的应用。" @@ -639,7 +683,7 @@ "description": "Mixtral-8x22B Instruct (141B) 是一款超级大语言模型,支持极高的处理需求。" }, "mistralai/Mixtral-8x7B-Instruct-v0.1": { - "description": "Mixtral 8x7B 模型支持多语言输入和输出,可用于文本生成和对话任务。" + "description": "Mixtral-8x7B Instruct (46.7B) 提供高容量的计算框架,适合大规模数据处理。" }, "mistralai/mistral-7b-instruct": { "description": "Mistral 7B Instruct 是一款兼有速度优化和长上下文支持的高性能行业标准模型。" @@ -713,20 +757,29 @@ "phi3:14b": { "description": "Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。" }, + "pixtral-12b-2409": { + "description": "Pixtral 模型在图表和图理解、文档问答、多模态推理和指令遵循等任务上表现出强大的能力,能够以自然分辨率和宽高比摄入图像,还能够在长达 128K 令牌的长上下文窗口中处理任意数量的图像。" + }, + "qwen-coder-turbo-latest": { + "description": "通义千问代码模型。" + }, "qwen-long": { "description": "通义千问超大规模语言模型,支持长文本上下文,以及基于长文档、多文档等多个场景的对话功能。" }, - "qwen-max": { - "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,当前通义千问2.5产品版本背后的API模型" + "qwen-math-plus-latest": { + "description": "通义千问数学模型是专门用于数学解题的语言模型。" }, - "qwen-max-longcontext": { - "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,扩展了上下文窗口" + "qwen-math-turbo-latest": { + "description": "通义千问数学模型是专门用于数学解题的语言模型。" }, - "qwen-plus": { - "description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入" + "qwen-max-latest": { + "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,当前通义千问2.5产品版本背后的API模型。" }, - "qwen-turbo": { - "description": "通义千问超大规模语言模型,支持中文、英文等不同语言输入" + "qwen-plus-latest": { + "description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。" + }, + "qwen-turbo-latest": { + "description": "通义千问超大规模语言模型,支持中文、英文等不同语言输入。" }, "qwen-vl-chat-v1": { "description": "通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。" @@ -746,17 +799,32 @@ "qwen2": { "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。" }, - "qwen2-57b-a14b-instruct": { - "description": "通义千问2对外开源的57B规模14B激活参数的MOE模型" + "qwen2.5-14b-instruct": { + "description": "通义千问2.5对外开源的14B规模的模型。" + }, + "qwen2.5-32b-instruct": { + "description": "通义千问2.5对外开源的32B规模的模型。" + }, + "qwen2.5-72b-instruct": { + "description": "通义千问2.5对外开源的72B规模的模型。" + }, + "qwen2.5-7b-instruct": { + "description": "通义千问2.5对外开源的7B规模的模型。" + }, + "qwen2.5-coder-1.5b-instruct": { + "description": "通义千问代码模型开源版。" + }, + "qwen2.5-coder-7b-instruct": { + "description": "通义千问代码模型开源版。" }, - "qwen2-72b-instruct": { - "description": "通义千问2对外开源的72B规模的模型" + "qwen2.5-math-1.5b-instruct": { + "description": "Qwen-Math 模型具有强大的数学解题能力。" }, - "qwen2-7b-instruct": { - "description": "通义千问2对外开源的7B规模的模型" + "qwen2.5-math-72b-instruct": { + "description": "Qwen-Math 模型具有强大的数学解题能力。" }, - "qwen2-math-72b-instruct": { - "description": "Qwen2-Math 模型具有强大的数学解题能力" + "qwen2.5-math-7b-instruct": { + "description": "Qwen-Math 模型具有强大的数学解题能力。" }, "qwen2:0.5b": { "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。" diff --git a/locales/zh-CN/providers.json b/locales/zh-CN/providers.json index 70a8ee169fb8..9b74fb2ab779 100644 --- a/locales/zh-CN/providers.json +++ b/locales/zh-CN/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "360 AI 是 360 公司推出的 AI 模型和服务平台,提供多种先进的自然语言处理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。这些模型结合了大规模参数和多模态能力,广泛应用于文本生成、语义理解、对话系统与代码生成等领域。通过灵活的定价策略,360 AI 满足多样化用户需求,支持开发者集成,推动智能化应用的革新和发展。" }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3,优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。" }, + "github": { + "description": "With GitHub Models, developers can become AI engineers and build with the industry's leading AI models." + }, "google": { "description": "Google 的 Gemini 系列是其最先进、通用的 A I模型,由 Google DeepMind 打造,专为多模态设计,支持文本、代码、图像、音频和视频的无缝理解与处理。适用于从数据中心到移动设备的多种环境,极大提升了AI模型的效率与应用广泛性。" }, diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json index 58ffeb586ec2..148991db9479 100644 --- a/locales/zh-TW/models.json +++ b/locales/zh-TW/models.json @@ -2,9 +2,6 @@ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B,以豐富的訓練樣本在行業應用中提供優越表現。" }, - "01-ai/Yi-1.5-6B-Chat": { - "description": "Yi-1.5 是Yi系列的進化版本,擁有高品質的預訓練和豐富的微調數據。" - }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B 支持16K Tokens,提供高效、流暢的語言生成能力。" }, @@ -47,41 +44,56 @@ "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B) 提供優化的語言輸出和多樣化的應用可能。" }, + "Phi-3-5-mini-instruct": { + "description": "Phi-3-mini模型的更新版本。" + }, + "Phi-3-medium-128k-instruct": { + "description": "相同的Phi-3-medium模型,但具有更大的上下文大小,適用於RAG或少量提示。" + }, + "Phi-3-medium-4k-instruct": { + "description": "一個14B參數模型,質量優於Phi-3-mini,專注於高質量、推理密集型數據。" + }, + "Phi-3-mini-128k-instruct": { + "description": "相同的Phi-3-mini模型,但具有更大的上下文大小,適用於RAG或少量提示。" + }, + "Phi-3-mini-4k-instruct": { + "description": "Phi-3系列中最小的成員。優化了質量和低延遲。" + }, + "Phi-3-small-128k-instruct": { + "description": "相同的Phi-3-small模型,但具有更大的上下文大小,適用於RAG或少量提示。" + }, + "Phi-3-small-8k-instruct": { + "description": "一個7B參數模型,質量優於Phi-3-mini,專注於高質量、推理密集型數據。" + }, "Pro-128k": { "description": "Spark Pro-128K 配置了特大上下文處理能力,能夠處理多達128K的上下文信息,特別適合需通篇分析和長期邏輯關聯處理的長文內容,可在複雜文本溝通中提供流暢一致的邏輯與多樣的引用支持。" }, "Qwen/Qwen1.5-110B-Chat": { "description": "作為 Qwen2 的測試版,Qwen1.5 使用大規模數據實現了更精確的對話功能。" }, - "Qwen/Qwen1.5-14B-Chat": { - "description": "Qwen1.5 通過大規模數據集訓練,擅長複雜的語言任務。" - }, - "Qwen/Qwen1.5-32B-Chat": { - "description": "Qwen1.5 具備多領域問答和文本生成的能力。" - }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) 提供快速響應和自然對話能力,適合多語言環境。" }, - "Qwen/Qwen1.5-7B-Chat": { - "description": "Qwen1.5 通過結合高級預訓練和微調提升對話表達能力。" + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 是先進的通用語言模型,支持多種指令類型。" }, - "Qwen/Qwen2-1.5B-Instruct": { - "description": "Qwen2 是全新的大型語言模型系列,旨在優化指令式任務的處理。" + "Qwen/Qwen2.5-14B-Instruct": { + "description": "Qwen2.5是全新的大型語言模型系列,旨在優化指令式任務的處理。" }, - "Qwen/Qwen2-57B-A14B-Instruct": { - "description": "Qwen2 是全新的系列,57B A14B 型號在指令任務中表現卓越。" + "Qwen/Qwen2.5-32B-Instruct": { + "description": "Qwen2.5是全新的大型語言模型系列,旨在優化指令式任務的處理。" }, - "Qwen/Qwen2-72B-Instruct": { - "description": "Qwen2 是先進的通用語言模型,支持多種指令類型。" + "Qwen/Qwen2.5-72B-Instruct": { + "description": "Qwen2.5是全新的大型語言模型系列,具有更強的理解和生成能力。" }, - "Qwen/Qwen2-7B-Instruct": { - "description": "Qwen2 是全新的大型語言模型系列,具有更強的理解和生成能力。" + "Qwen/Qwen2.5-7B-Instruct": { + "description": "Qwen2.5是全新的大型語言模型系列,旨在優化指令式任務的處理。" }, - "Qwen/Qwen2-Math-72B-Instruct": { - "description": "Qwen2-Math 專注於數學領域的問題求解,為高難度題提供專業解答。" + "Qwen/Qwen2.5-Coder-7B-Instruct": { + "description": "Qwen2.5-Coder專注於代碼編寫。" }, - "THUDM/chatglm3-6b": { - "description": "作為雙語會話語言模型,ChatGLM3能處理中英文轉換任務。" + "Qwen/Qwen2.5-Math-72B-Instruct": { + "description": "Qwen2.5-Math專注於數學領域的問題求解,為高難度題提供專業解答。" }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B 開放源碼版本,為會話應用提供優化後的對話體驗。" @@ -158,6 +170,15 @@ "accounts/yi-01-ai/models/yi-large": { "description": "Yi-Large 模型,具備卓越的多語言處理能力,可用於各類語言生成和理解任務。" }, + "ai21-jamba-1.5-large": { + "description": "一個398B參數(94B活躍)多語言模型,提供256K長上下文窗口、函數調用、結構化輸出和基於實體的生成。" + }, + "ai21-jamba-1.5-mini": { + "description": "一個52B參數(12B活躍)多語言模型,提供256K長上下文窗口、函數調用、結構化輸出和基於實體的生成。" + }, + "ai21-jamba-instruct": { + "description": "一個生產級的基於Mamba的LLM模型,以實現最佳性能、質量和成本效率。" + }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnet提升了行業標準,性能超過競爭對手模型和Claude 3 Opus,在廣泛的評估中表現出色,同時具有我們中等層級模型的速度和成本。" }, @@ -254,6 +275,12 @@ "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22B 是一款為指令遵循、對話和編程設計的模型。" }, + "cohere-command-r": { + "description": "Command R是一個可擴展的生成模型,針對RAG和工具使用,旨在為企業提供生產級AI。" + }, + "cohere-command-r-plus": { + "description": "Command R+是一個最先進的RAG優化模型,旨在應對企業級工作負載。" + }, "command-r": { "description": "Command R 是優化用於對話和長上下文任務的 LLM,特別適合動態交互與知識管理。" }, @@ -263,12 +290,6 @@ "databricks/dbrx-instruct": { "description": "DBRX Instruct 提供高可靠性的指令處理能力,支持多行業應用。" }, - "deepseek-ai/DeepSeek-Coder-V2-Instruct": { - "description": "DeepSeek Coder V2 為代碼任務設計,專注於高效的代碼生成。" - }, - "deepseek-ai/DeepSeek-V2-Chat": { - "description": "DeepSeek V2 具備67億參數,支持英中文本處理。" - }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 集合了先前版本的優秀特徵,增強了通用和編碼能力。" }, @@ -467,6 +488,8 @@ "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 提供多場景下的智能對話解決方案。" }, + "jamba-1.5-large": {}, + "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "Llama 3.1 70B Instruct 模型,具備 70B 參數,能在大型文本生成和指示任務中提供卓越性能。" }, @@ -530,6 +553,21 @@ "mathstral": { "description": "MathΣtral 專為科學研究和數學推理設計,提供有效的計算能力和結果解釋。" }, + "meta-llama-3-70b-instruct": { + "description": "一個強大的70億參數模型,在推理、編碼和廣泛的語言應用中表現出色。" + }, + "meta-llama-3-8b-instruct": { + "description": "一個多功能的8億參數模型,優化了對話和文本生成任務。" + }, + "meta-llama-3.1-405b-instruct": { + "description": "Llama 3.1指令調整的文本模型,針對多語言對話用例進行優化,並在許多可用的開源和封閉聊天模型中超越了常見行業基準。" + }, + "meta-llama-3.1-70b-instruct": { + "description": "Llama 3.1指令調整的文本模型,針對多語言對話用例進行優化,並在許多可用的開源和封閉聊天模型中超越了常見行業基準。" + }, + "meta-llama-3.1-8b-instruct": { + "description": "Llama 3.1指令調整的文本模型,針對多語言對話用例進行優化,並在許多可用的開源和封閉聊天模型中超越了常見行業基準。" + }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B) 提供優秀的語言處理能力和出色的互動體驗。" }, @@ -539,9 +577,6 @@ "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) 提供多語言支持,涵蓋豐富的領域知識。" }, - "meta-llama/Meta-Llama-3-70B-Instruct": { - "description": "LLaMA 3 支持大容量文本生成和指令解析。" - }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite 適合需要高效能和低延遲的環境。" }, @@ -620,12 +655,21 @@ "mistral-large": { "description": "Mixtral Large 是 Mistral 的旗艦模型,結合代碼生成、數學和推理的能力,支持 128k 上下文窗口。" }, + "mistral-large-2407": { + "description": "Mistral Large (2407)是一個先進的大型語言模型(LLM),具有最先進的推理、知識和編碼能力。" + }, "mistral-large-latest": { "description": "Mistral Large 是旗艦大模型,擅長多語言任務、複雜推理和代碼生成,是高端應用的理想選擇。" }, "mistral-nemo": { "description": "Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。" }, + "mistral-small": { + "description": "Mistral Small可用於任何需要高效率和低延遲的語言任務。" + }, + "mistral-small-latest": { + "description": "Mistral Small是一個成本效益高、快速且可靠的選擇,適用於翻譯、摘要和情感分析等用例。" + }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instruct 以高性能著稱,適用於多種語言任務。" }, @@ -713,20 +757,29 @@ "phi3:14b": { "description": "Phi-3 是微軟推出的輕量級開放模型,適用於高效集成和大規模知識推理。" }, + "pixtral-12b-2409": { + "description": "Pixtral模型在圖表和圖理解、文檔問答、多模態推理和指令遵循等任務上表現出強大的能力,能夠以自然分辨率和寬高比攝入圖像,還能夠在長達128K令牌的長上下文窗口中處理任意數量的圖像。" + }, + "qwen-coder-turbo-latest": { + "description": "通義千問代碼模型。" + }, "qwen-long": { "description": "通義千問超大規模語言模型,支持長文本上下文,以及基於長文檔、多文檔等多個場景的對話功能。" }, - "qwen-max": { - "description": "通義千問千億級別超大規模語言模型,支持中文、英文等不同語言輸入,當前通義千問2.5產品版本背後的API模型" + "qwen-math-plus-latest": { + "description": "通義千問數學模型是專門用於數學解題的語言模型。" }, - "qwen-max-longcontext": { - "description": "通義千問千億級別超大規模語言模型,支持中文、英文等不同語言輸入,擴展了上下文窗口" + "qwen-math-turbo-latest": { + "description": "通義千問數學模型是專門用於數學解題的語言模型。" }, - "qwen-plus": { - "description": "通義千問超大規模語言模型增強版,支持中文、英文等不同語言輸入" + "qwen-max-latest": { + "description": "通義千問千億級別超大規模語言模型,支持中文、英文等不同語言輸入,當前通義千問2.5產品版本背後的API模型。" }, - "qwen-turbo": { - "description": "通義千問超大規模語言模型,支持中文、英文等不同語言輸入" + "qwen-plus-latest": { + "description": "通義千問超大規模語言模型增強版,支持中文、英文等不同語言輸入。" + }, + "qwen-turbo-latest": { + "description": "通義千問超大規模語言模型,支持中文、英文等不同語言輸入。" }, "qwen-vl-chat-v1": { "description": "通義千問VL支持靈活的交互方式,包括多圖、多輪問答、創作等能力的模型。" @@ -746,17 +799,32 @@ "qwen2": { "description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。" }, - "qwen2-57b-a14b-instruct": { - "description": "通義千問2對外開源的57B規模14B激活參數的MOE模型" + "qwen2.5-14b-instruct": { + "description": "通義千問2.5對外開源的14B規模的模型。" + }, + "qwen2.5-32b-instruct": { + "description": "通義千問2.5對外開源的32B規模的模型。" + }, + "qwen2.5-72b-instruct": { + "description": "通義千問2.5對外開源的72B規模的模型。" + }, + "qwen2.5-7b-instruct": { + "description": "通義千問2.5對外開源的7B規模的模型。" + }, + "qwen2.5-coder-1.5b-instruct": { + "description": "通義千問代碼模型開源版。" + }, + "qwen2.5-coder-7b-instruct": { + "description": "通義千問代碼模型開源版。" }, - "qwen2-72b-instruct": { - "description": "通義千問2對外開源的72B規模的模型" + "qwen2.5-math-1.5b-instruct": { + "description": "Qwen-Math模型具有強大的數學解題能力。" }, - "qwen2-7b-instruct": { - "description": "通義千問2對外開源的7B規模的模型" + "qwen2.5-math-72b-instruct": { + "description": "Qwen-Math模型具有強大的數學解題能力。" }, - "qwen2-math-72b-instruct": { - "description": "Qwen2-Math模型具有強大的數學解題能力" + "qwen2.5-math-7b-instruct": { + "description": "Qwen-Math模型具有強大的數學解題能力。" }, "qwen2:0.5b": { "description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。" diff --git a/locales/zh-TW/providers.json b/locales/zh-TW/providers.json index e272c73029c7..74132fe2041d 100644 --- a/locales/zh-TW/providers.json +++ b/locales/zh-TW/providers.json @@ -1,4 +1,5 @@ { + "ai21": {}, "ai360": { "description": "360 AI 是 360 公司推出的 AI 模型和服務平台,提供多種先進的自然語言處理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。這些模型結合了大規模參數和多模態能力,廣泛應用於文本生成、語義理解、對話系統與代碼生成等領域。通過靈活的定價策略,360 AI 滿足多樣化用戶需求,支持開發者集成,推動智能化應用的革新和發展。" }, @@ -20,6 +21,9 @@ "fireworksai": { "description": "Fireworks AI 是一家領先的高級語言模型服務商,專注於功能調用和多模態處理。其最新模型 Firefunction V2 基於 Llama-3,優化用於函數調用、對話及指令跟隨。視覺語言模型 FireLLaVA-13B 支持圖像和文本混合輸入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多語言指令跟隨與生成支持。" }, + "github": { + "description": "透過 GitHub 模型,開發者可以成為 AI 工程師,並使用業界領先的 AI 模型進行建設。" + }, "google": { "description": "Google 的 Gemini 系列是其最先進、通用的 AI 模型,由 Google DeepMind 打造,專為多模態設計,支持文本、代碼、圖像、音頻和視頻的無縫理解與處理。適用於從數據中心到移動設備的多種環境,極大提升了 AI 模型的效率與應用廣泛性。" }, diff --git a/package.json b/package.json index ff044f4f7154..a676e2002ddb 100644 --- a/package.json +++ b/package.json @@ -1,6 +1,6 @@ { "name": "@lobehub/chat", - "version": "1.19.9", + "version": "1.19.15", "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.", "keywords": [ "framework", @@ -203,10 +203,12 @@ "remark": "^14.0.3", "remark-gfm": "^3.0.1", "remark-html": "^15.0.2", + "request-filtering-agent": "^2.0.1", "resolve-accept-language": "^3.1.5", "rtl-detect": "^1.1.2", "semver": "^7.6.3", "sharp": "^0.33.5", + "shiki": "1.17.7", "stripe": "^15.8.0", "superjson": "^2.2.1", "svix": "^1.30.0", diff --git a/src/app/api/proxy/route.ts b/src/app/api/proxy/route.ts deleted file mode 100644 index 67277ac7989a..000000000000 --- a/src/app/api/proxy/route.ts +++ /dev/null @@ -1,34 +0,0 @@ -import { isPrivate } from 'ip'; -import { NextResponse } from 'next/server'; -import dns from 'node:dns'; -import { promisify } from 'node:util'; - -const lookupAsync = promisify(dns.lookup); - -export const runtime = 'nodejs'; - -/** - * just for a proxy - */ -export const POST = async (req: Request) => { - const url = new URL(await req.text()); - let address; - - try { - const lookupResult = await lookupAsync(url.hostname); - address = lookupResult.address; - } catch (err) { - console.error(`${url.hostname} DNS parser error:`, err); - - return NextResponse.json({ error: 'DNS parser error' }, { status: 504 }); - } - - const isInternalHost = isPrivate(address); - - if (isInternalHost) - return NextResponse.json({ error: 'Not support internal host proxy' }, { status: 400 }); - - const res = await fetch(url.toString()); - - return new Response(res.body, { headers: res.headers }); -}; diff --git a/src/app/api/webhooks/casdoor/__tests__/route.test.ts b/src/app/api/webhooks/casdoor/__tests__/route.test.ts new file mode 100644 index 000000000000..b409b8bf389d --- /dev/null +++ b/src/app/api/webhooks/casdoor/__tests__/route.test.ts @@ -0,0 +1,60 @@ +import { describe, expect, it } from 'vitest'; + +interface User { + name: string; + id: string; + type: 'normal-user' | 'admin' | 'super-admin'; + displayName: string; + firstName: string; + lastName: string; + avatar: string; + email: string; + emailVerified: boolean; +} + +interface UserDataUpdatedEvent { + user: string; // 用户名 + action: 'update-user'; + extendedUser: User; // 扩展用户信息 +} + +const userDataUpdatedEvent: UserDataUpdatedEvent = { + user: 'admin', + action: 'update-user', + extendedUser: { + name: 'admin', + id: '35edace3-00c6-41e1-895e-97c519b1d8cc', + type: 'normal-user', + displayName: 'Admin', + firstName: '', + lastName: '', + avatar: 'https://cdn.casbin.org/img/casbin.svg', + email: 'admin@example.cn', + emailVerified: false, + }, +}; + +const AUTH_CASDOOR_WEBHOOK_SECRET = 'casdoor-secret'; + +// Test Casdoor Webhooks in Local dev, here is some tips: +// - Replace the var `AUTH_CASDOOR_WETHOOK_SECRET` with the actual value in your `.env` file +// - Start web request: If you want to run the test, replace `describe.skip` with `describe` below +// - Run this test with command: +// pnpm vitest --run --testNamePattern='^ ?Test Casdoor Webhooks in Local dev' src/app/api/webhooks/casdoor/__tests__/route.test.ts + +describe.skip('Test Casdoor Webhooks in Local dev', () => { + // describe('Test Casdoor Webhooks in Local dev', () => { + it('should send a POST request with casdoor headers', async () => { + const url = 'http://localhost:3010/api/webhooks/casdoor'; // 替换为目标URL + const data = userDataUpdatedEvent; + const response = await fetch(url, { + method: 'POST', + headers: { + 'Content-Type': 'application/json', + 'casdoor-secret': AUTH_CASDOOR_WEBHOOK_SECRET, + }, + body: JSON.stringify(data), + }); + expect(response.status).toBe(200); // 检查响应状态 + }); +}); diff --git a/src/app/api/webhooks/casdoor/route.ts b/src/app/api/webhooks/casdoor/route.ts new file mode 100644 index 000000000000..dd6a5dccf563 --- /dev/null +++ b/src/app/api/webhooks/casdoor/route.ts @@ -0,0 +1,40 @@ +import { NextResponse } from 'next/server'; + +import { authEnv } from '@/config/auth'; +import { pino } from '@/libs/logger'; +import { NextAuthUserService } from '@/server/services/nextAuthUser'; + +import { validateRequest } from './validateRequest'; + +export const POST = async (req: Request): Promise => { + const payload = await validateRequest(req, authEnv.CASDOOR_WEBHOOK_SECRET); + + if (!payload) { + return NextResponse.json( + { error: 'webhook verification failed or payload was malformed' }, + { status: 400 }, + ); + } + + const { action, extendedUser } = payload; + + pino.trace(`casdoor webhook payload: ${{ action, extendedUser }}`); + + const nextAuthUserService = new NextAuthUserService(); + switch (action) { + case 'update-user': { + return nextAuthUserService.safeUpdateUser(extendedUser.id, { + avatar: extendedUser?.avatar, + email: extendedUser?.email, + fullName: extendedUser.displayName, + }); + } + + default: { + pino.warn( + `${req.url} received event type "${action}", but no handler is defined for this type`, + ); + return NextResponse.json({ error: `unrecognised payload type: ${action}` }, { status: 400 }); + } + } +}; diff --git a/src/app/api/webhooks/casdoor/validateRequest.ts b/src/app/api/webhooks/casdoor/validateRequest.ts new file mode 100644 index 000000000000..f9f3c81cba7e --- /dev/null +++ b/src/app/api/webhooks/casdoor/validateRequest.ts @@ -0,0 +1,38 @@ +import { headers } from 'next/headers'; + +import { authEnv } from '@/config/auth'; + +export type CasdoorUserEntity = { + avatar?: string; + displayName: string; + email?: string; + id: string; +}; + +interface CasdoorWebhookPayload { + action: string; + // Only support user event currently + extendedUser: CasdoorUserEntity; +} + +export const validateRequest = async (request: Request, secret?: string) => { + const payloadString = await request.text(); + const headerPayload = headers(); + const casdoorSecret = headerPayload.get('casdoor-secret')!; + try { + if (casdoorSecret === secret) { + return JSON.parse(payloadString) as CasdoorWebhookPayload; + } else { + console.warn( + '[Casdoor]: secret verify failed, please check your secret in `CASDOOR_WEBHOOK_SECRET`', + ); + return; + } + } catch (e) { + if (!authEnv.CASDOOR_WEBHOOK_SECRET) { + throw new Error('`CASDOOR_WEBHOOK_SECRET` environment variable is missing.'); + } + console.error('[Casdoor]: incoming webhook failed in verification.\n', e); + return; + } +}; diff --git a/src/app/webapi/proxy/route.ts b/src/app/webapi/proxy/route.ts new file mode 100644 index 000000000000..da81e4ae8c2b --- /dev/null +++ b/src/app/webapi/proxy/route.ts @@ -0,0 +1,19 @@ +import { NextResponse } from 'next/server'; +import fetch from 'node-fetch'; +import { useAgent as ssrfAgent } from 'request-filtering-agent'; + +/** + * just for a proxy + */ +export const POST = async (req: Request) => { + const url = await req.text(); + + try { + const res = await fetch(url, { agent: ssrfAgent(url) }); + + return new Response(await res.arrayBuffer(), { headers: { ...res.headers } }); + } catch (err) { + console.error(err); // DNS lookup 127.0.0.1(family:4, host:127.0.0.1.nip.io) is not allowed. Because, It is private IP address. + return NextResponse.json({ error: 'Not support internal host proxy' }, { status: 400 }); + } +}; diff --git a/src/config/auth.ts b/src/config/auth.ts index 3859b8f88045..4e8e073bc235 100644 --- a/src/config/auth.ts +++ b/src/config/auth.ts @@ -201,6 +201,9 @@ export const getAuthConfig = () => { LOGTO_CLIENT_SECRET: z.string().optional(), LOGTO_ISSUER: z.string().optional(), LOGTO_WEBHOOK_SIGNING_KEY: z.string().optional(), + + // Casdoor + CASDOOR_WEBHOOK_SECRET: z.string().optional(), }, runtimeEnv: { @@ -259,6 +262,9 @@ export const getAuthConfig = () => { LOGTO_CLIENT_SECRET: process.env.LOGTO_CLIENT_SECRET, LOGTO_ISSUER: process.env.LOGTO_ISSUER, LOGTO_WEBHOOK_SIGNING_KEY: process.env.LOGTO_WEBHOOK_SIGNING_KEY, + + // Casdoor + CASDOOR_WEBHOOK_SECRET: process.env.CASDOOR_WEBHOOK_SECRET, }, }); }; diff --git a/src/config/modelProviders/siliconcloud.ts b/src/config/modelProviders/siliconcloud.ts index 7f758c645caf..1d01bf865aaf 100644 --- a/src/config/modelProviders/siliconcloud.ts +++ b/src/config/modelProviders/siliconcloud.ts @@ -62,14 +62,27 @@ const SiliconCloud: ModelProviderCard = { tokens: 32_768, }, { - description: 'Qwen2-Math 专注于数学领域的问题求解,为高难度题提供专业解答。', - displayName: 'Qwen2 Math 72B', - id: 'Qwen/Qwen2-Math-72B-Instruct', + description: 'Qwen2.5-Math 专注于数学领域的问题求解,为高难度题提供专业解答。', + displayName: 'Qwen2.5 Math 72B', + enabled: true, + id: 'Qwen/Qwen2.5-Math-72B-Instruct', pricing: { currency: 'CNY', input: 4.13, output: 4.13, }, + tokens: 4096, + }, + { + description: 'Qwen2.5-Coder 专注于代码编写。', + displayName: 'Qwen2.5 Coder 7B', + enabled: true, + id: 'Qwen/Qwen2.5-Coder-7B-Instruct', + pricing: { + currency: 'CNY', + input: 0, + output: 0, + }, tokens: 32_768, }, { diff --git a/src/libs/next-auth/sso-providers/casdoor.ts b/src/libs/next-auth/sso-providers/casdoor.ts new file mode 100644 index 000000000000..cff4bbf32daf --- /dev/null +++ b/src/libs/next-auth/sso-providers/casdoor.ts @@ -0,0 +1,49 @@ +import { OIDCConfig, OIDCUserConfig } from '@auth/core/providers'; + +import { CommonProviderConfig } from './sso.config'; + +interface CasdoorProfile extends Record { + avatar: string; + displayName: string; + email: string; + emailVerified: boolean; + firstName: string; + id: string; + lastName: string; + name: string; + owner: string; + permanentAvatar: string; +} + +function LobeCasdoorProvider(config: OIDCUserConfig): OIDCConfig { + return { + ...CommonProviderConfig, + ...config, + id: 'casdoor', + name: 'Casdoor', + profile(profile) { + return { + email: profile.email, + emailVerified: profile.emailVerified ? new Date() : null, + image: profile.avatar, + name: profile.displayName ?? profile.firstName ?? profile.lastName, + providerAccountId: profile.id, + }; + }, + type: 'oidc', + }; +} + +const provider = { + id: 'casdoor', + provider: LobeCasdoorProvider({ + authorization: { + params: { scope: 'openid profile email' }, + }, + clientId: process.env.AUTH_CASDOOR_ID, + clientSecret: process.env.AUTH_CASDOOR_SECRET, + issuer: process.env.AUTH_CASDOOR_ISSUER, + }), +}; + +export default provider; diff --git a/src/libs/next-auth/sso-providers/index.ts b/src/libs/next-auth/sso-providers/index.ts index d0acf731bf9b..3e4acea1baab 100644 --- a/src/libs/next-auth/sso-providers/index.ts +++ b/src/libs/next-auth/sso-providers/index.ts @@ -2,10 +2,22 @@ import Auth0 from './auth0'; import Authelia from './authelia'; import Authentik from './authentik'; import AzureAD from './azure-ad'; +import Casdoor from './casdoor'; import CloudflareZeroTrust from './cloudflare-zero-trust'; import GenericOIDC from './generic-oidc'; import Github from './github'; import Logto from './logto'; import Zitadel from './zitadel'; -export const ssoProviders = [Auth0, Authentik, AzureAD, GenericOIDC, Github, Zitadel, Authelia, Logto, CloudflareZeroTrust]; +export const ssoProviders = [ + Auth0, + Authentik, + AzureAD, + GenericOIDC, + Github, + Zitadel, + Authelia, + Logto, + CloudflareZeroTrust, + Casdoor, +]; diff --git a/src/server/globalConfig/index.ts b/src/server/globalConfig/index.ts index 794ea6b75e1c..6f03a44fa9d2 100644 --- a/src/server/globalConfig/index.ts +++ b/src/server/globalConfig/index.ts @@ -173,6 +173,7 @@ export const getServerGlobalConfig = () => { }, ollama: { enabled: ENABLED_OLLAMA, + enabledModels: extractEnabledModels(OLLAMA_MODEL_LIST), fetchOnClient: !OLLAMA_PROXY_URL, serverModelCards: transformToChatModelCards({ defaultChatModels: OllamaProviderCard.chatModels, diff --git a/src/server/routers/lambda/user.ts b/src/server/routers/lambda/user.ts index 4e5796afccaa..9660a955e691 100644 --- a/src/server/routers/lambda/user.ts +++ b/src/server/routers/lambda/user.ts @@ -63,7 +63,7 @@ export const userRouter = router({ const sessionCount = await sessionModel.count(); return { - canEnablePWAGuide: messageCount >= 2, + canEnablePWAGuide: messageCount >= 4, canEnableTrace: messageCount >= 4, // 有消息,或者创建过助手,则认为有 conversation hasConversation: messageCount > 0 || sessionCount > 1, diff --git a/src/services/_url.ts b/src/services/_url.ts index 1bbcee7672a7..5b110bef7062 100644 --- a/src/services/_url.ts +++ b/src/services/_url.ts @@ -1,4 +1,4 @@ -// TODO: 未来路由需要迁移到 trpc or /webapi +// TODO: 未来所有核心路由需要迁移到 trpc,部分不需要迁移的则走 webapi /* eslint-disable sort-keys-fix/sort-keys-fix */ import { transform } from 'lodash-es'; @@ -17,7 +17,7 @@ const mapWithBasePath = (apis: T): T => { }; export const API_ENDPOINTS = mapWithBasePath({ - proxy: '/api/proxy', + proxy: '/webapi/proxy', oauth: '/api/auth', // agent markets diff --git a/src/services/user/client.ts b/src/services/user/client.ts index f7ac9c7b11da..4554b16fa4be 100644 --- a/src/services/user/client.ts +++ b/src/services/user/client.ts @@ -23,7 +23,7 @@ export class ClientService implements IUserService { return { avatar: user.avatar, - canEnablePWAGuide: messageCount >= 2, + canEnablePWAGuide: messageCount >= 4, canEnableTrace: messageCount >= 4, hasConversation: messageCount > 0 || sessionCount > 0, isOnboard: true,