Skip to content

Commit

Permalink
Merge pull request #4 from Hoshino-Yumetsuki/main
Browse files Browse the repository at this point in the history
Supplemental Documentation
  • Loading branch information
dingyi222666 authored Sep 30, 2024
2 parents 4fbd991 + 42efb6d commit 3b64973
Show file tree
Hide file tree
Showing 11 changed files with 35 additions and 2,370 deletions.
3 changes: 2 additions & 1 deletion .gitignore
Original file line number Diff line number Diff line change
Expand Up @@ -9,4 +9,5 @@ node_modules/
.vercel
package-lock.json
docs/.vitepress/cache
docs/.vitepress/dist
docs/.vitepress/dist
yarn.lock
10 changes: 3 additions & 7 deletions docs/.vitepress/config.ts
Original file line number Diff line number Diff line change
Expand Up @@ -112,18 +112,14 @@ function sidebarGuide() {
link: "/guide/configure-model-platform/bing-chat",
},
{
text: "Google gemini",
text: "Google Gemini",
link: "/guide/configure-model-platform/google-gemini",
},
{
text: "Claude 2",
link: "/guide/configure-model-platform/cluade-2",
},

{
text: "Bard",
link: "/guide/configure-model-platform/bard",
},
{
text: "文心一言",
link: "/guide/configure-model-platform/wenxin",
Expand Down Expand Up @@ -173,8 +169,8 @@ function sidebarGuide() {
link: "/guide/configure-vector-database/faiss",
},
{
text: "Pinecone",
link: "/guide/configure-vector-database/pinecone",
text: "Redis",
link: "/guide/configure-vector-database/redis",
},
],
},
Expand Down
2 changes: 1 addition & 1 deletion docs/guide/configure-embedding-model/introduction.md
Original file line number Diff line number Diff line change
Expand Up @@ -10,7 +10,7 @@ ChatLuna 使用嵌入模型来将用户的输入,模型的输出等数据转
在未来,我们可能还会基于嵌入模型和长期记忆库,实现基于资料的 QA 问答。
:::

嵌入模型的服务由多个插件提供,这其中某些模型适配器已经提供了相关服务,如 [OpenAI](./openai-embeddings.md)
嵌入模型的服务由多个插件提供,这其中某些模型适配器已经提供了相关服务,如 [OpenAI](./openai-embeddings.md)[Google Gemini](../configure-model-platform/google-gemini.md)

因此,你可以直接使用这些插件来使用嵌入模型服务而无需安装嵌入模型服务插件。

Expand Down
8 changes: 3 additions & 5 deletions docs/guide/configure-model-platform/google-gemini.md
Original file line number Diff line number Diff line change
@@ -1,12 +1,10 @@
# Google gemini
# Google Gemini

## 介绍

Google gemini 是谷歌在 2023 年年底宣布推出其认为规模最大、功能最强大的人工智能模型。
Google Gemini 是谷歌在 2023 年年底宣布推出其认为规模最大、功能最强大的人工智能模型。

Google 目前推出了免费的 `gemini-pro` 模型,快去试试吧!

本适配器不支持 `plugin` 聊天模式,不能让模型调用本地插件工具。
Google 目前推出了免费的 `gemini-1.5-pro` 模型,快去试试吧!

## 安装

Expand Down
13 changes: 13 additions & 0 deletions docs/guide/configure-vector-database/faiss.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,13 @@
# Faiss

## 介绍

Faiss 是一个由 Meta 的基础人工智能研究小组开发,用于高效相似性搜索和稠密向量聚类的库。它包含可以在任何大小的向量集合中进行搜索的算法,甚至可以处理可能无法完全放入 RAM 的数据集。该库还包含用于评估和参数调优的辅助代码。Faiss 使用 C++ 编写,并为 Python/numpy 提供了完整的封装。

## 安装

前往插件市场,搜索并安装`chatluna-vector-store-service`即可。Faiss 数据库的依赖`faiss-node`已标记为该插件的依赖,您无需在安装后进行其他的操作。

## 配置

在配置之前,您需要确保安装 ChatLuna 与`chatluna-vector-store-service`,并确保该插件已经启用。然后在 ChatLuna 的 [模型选项](../useful-configurations.md#模型选项) 中找到 [defaultVectorStore](../useful-configurations.md#defaultvectorstore) 配置项,并选择数据库为`faiss`即可。
12 changes: 11 additions & 1 deletion docs/guide/configure-vector-database/introduction.md
Original file line number Diff line number Diff line change
@@ -1 +1,11 @@
# 向量数据库
# 向量数据库

## 介绍

向量数据库是一种专门用于存储、检索和管理高维向量数据的数据库。在 ChatLuna 中用于存储长期记忆。

## 支持的数据库

- [Faiss](./faiss.md)
- [Redis](./redis.md)
- [LanceDB](./lancedb.md)
File renamed without changes.
Empty file.
1 change: 1 addition & 0 deletions docs/guide/configure-vector-database/redis.md
Original file line number Diff line number Diff line change
@@ -0,0 +1 @@
# Redis
2 changes: 1 addition & 1 deletion docs/guide/useful-commands.md
Original file line number Diff line number Diff line change
Expand Up @@ -755,8 +755,8 @@ chatluna.vectorstore.list -l <limit:number> -p <page:number>
<chat-message nickname="Bot">以下是目前可用的向量数据库列表:<br/>

<br/>faiss<br/>
redis<br/>
lancedb<br/>
pinecone<br/>

<br/>你可以使用 chatluna.vectorstore.set -m &lt;model&gt; 来设置默认使用的向量数据库(如果没有任何向量数据库,会使用存储在内存里的向量数据库(临时的))<br/>

Expand Down
Loading

0 comments on commit 3b64973

Please sign in to comment.