We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Updated 2023.7.13: 增加 baichuan-13B-Chat、InternLM 模型 2023.6.25: 增加 ChatGLM2-6B、Vicuna-33B-v1.3 模型 2023.6.24: 增加 MPT-30B/MPT-30B-Chat 模型
Updated
建议使用通用的模型推理工具包运行推理,一般都提供较好的UI以及兼容OpenAI 的API。常见的有:
其中
注:如果模型参数过大无法加载,可以在 HuggingFace 上寻找其 GPTQ 4-bit 版本,或者 GGML 版本(支持Apple M系列芯片)。 目前30B规模参数模型的 GPTQ 4-bit 量化版本,可以在 24G显存的 3090/4090 显卡上单卡运行推理。
值得关注的支持中文的开源 Pretrain 模型(同类模型中选效果最好的、参数最大的)
不同模型的 token 对应的中文字符数不同,一般来说专门为中文设计的模型,其词表较大,相同中文字符数使用的 token 数量相比于 OpenAI (1 字符 2 token)较小,约为平均 1 字符 1 token。
值得关注的支持中文的开源 Chat 模型(同类模型中选效果最好的)
* MPT-30B-Chat 因为在 SFT 过程中使用了非商用的数据集,所以其不可商用。但是其基础模型可以商用,且微调训练代码和过程公开,可自行 SFT 出可商用的 Chat 模型。 ** 当前版本的 ChatGLM2-6B 对单轮超长文档的理解能力有限。
*
**
用来替代 OpenAI 的 Embeddings 模型:
The text was updated successfully, but these errors were encountered:
支持
Sorry, something went wrong.
No branches or pull requests
模型推理
建议使用通用的模型推理工具包运行推理,一般都提供较好的UI以及兼容OpenAI 的API。常见的有:
其中
预训练模型
值得关注的支持中文的开源 Pretrain 模型(同类模型中选效果最好的、参数最大的)
Chat 模型
值得关注的支持中文的开源 Chat 模型(同类模型中选效果最好的)
Embeddings 模型
用来替代 OpenAI 的 Embeddings 模型:
The text was updated successfully, but these errors were encountered: