Docs: fix typo (#263)

Signed-off-by: Carson Yang <yangchuansheng33@gmail.com>
This commit is contained in:
Carson Yang
2023-09-06 13:39:47 +08:00
committed by GitHub
parent da6e26f95c
commit 19ce6f66ca
6 changed files with 39 additions and 37 deletions

View File

@@ -18,7 +18,7 @@ jobs:
# Job outputs
outputs:
docs: ${{ steps.filter.outputs.docs }}
url: ${{ steps.vercel-action.outputs.preview-url }}
# Steps represent a sequence of tasks that will be executed as part of the job
steps:
@@ -26,6 +26,8 @@ jobs:
- name: Checkout
uses: actions/checkout@v3
with:
ref: ${{ github.event.pull_request.head.ref }}
repository: ${{ github.event.pull_request.head.repo.full_name }}
submodules: recursive # Fetch submodules
fetch-depth: 0 # Fetch all history for .GitInfo and .Lastmod
@@ -76,7 +78,7 @@ jobs:
- name: Write md
run: |
echo "# 🤖 Generated by deploy action" > report.md
echo "[Deploy Actions Address](${{ needs.deploy-preview.outputs.docs }})" >> report.md
echo "[Deploy Actions Address](${{ needs.deploy-preview.outputs.url }})" >> report.md
cat report.md
- name: Gh Rebot for Sealos
uses: labring/gh-rebot@v0.0.6

View File

@@ -9,16 +9,16 @@ weight: 200
## 前言
FastGPT 默认使用了 openai 的 LLM 模型和向量模型,如果想要私有化部署的话,可以使用 ChatGLM2 和 m3e-large 模型。以下是由用户@不做了睡大觉 提供的接入方法。该镜像直接集成了 M3E-Large 和 ChatGLM2-6B 模型,可以直接使用。
FastGPT 默认使用了 OpenAI 的 LLM 模型和向量模型,如果想要私有化部署的话,可以使用 ChatGLM2 和 m3e-large 模型。以下是由用户@不做了睡大觉 提供的接入方法。该镜像直接集成了 M3E-Large 和 ChatGLM2-6B 模型,可以直接使用。
## 部署镜像
镜像名: `stawky/chatglm2-m3e:latest`
国内镜像名: `registry.cn-hangzhou.aliyuncs.com/kbgpt/chatglm2-m3e:latest`
端口号: 6006
镜像默认 sk-key: `sk-aaabbbcccdddeeefffggghhhiiijjjkkk`
+ 镜像名: `stawky/chatglm2-m3e:latest`
+ 国内镜像名: `registry.cn-hangzhou.aliyuncs.com/kbgpt/chatglm2-m3e:latest`
+ 端口号: 6006
+ 镜像默认 sk-key: `sk-aaabbbcccdddeeefffggghhhiiijjjkkk`
## 接入 OneAPI
## 接入 [One API](/docs/installation/one-api/)
为 chatglm2 和 m3e-large 各添加一个渠道,参数如下:
@@ -50,7 +50,7 @@ curl --location --request POST 'https://domain/v1/chat/completions' \
}'
```
Authorization 为 sk-aaabbbcccdddeeefffggghhhiiijjjkkk。model 为刚刚在 OneAPI 填写的自定义模型。
Authorization 为 sk-aaabbbcccdddeeefffggghhhiiijjjkkk。model 为刚刚在 One API 填写的自定义模型。
## 接入 FastGPT
@@ -94,20 +94,20 @@ M3E 模型的使用方法如下:
1. 创建知识库时候选择 M3E 模型。
注意,一旦选择后,知识库将无法修改向量模型。
![](/imgs/model-m3e2.png)
注意,一旦选择后,知识库将无法修改向量模型。
![](/imgs/model-m3e2.png)
2. 导入数据
3. 搜索测试
![](/imgs/model-m3e3.png)
![](/imgs/model-m3e3.png)
4. 应用绑定知识库
注意,应用只能绑定同一个向量模型的知识库,不能跨模型绑定。并且,需要注意调整相似度,不同向量模型的相似度(距离)会有所区别,需要自行测试实验。
![](/imgs/model-m3e4.png)
注意,应用只能绑定同一个向量模型的知识库,不能跨模型绑定。并且,需要注意调整相似度,不同向量模型的相似度(距离)会有所区别,需要自行测试实验。
![](/imgs/model-m3e4.png)
chatglm2 模型的使用方法如下:
模型选择 chatglm2 即可

View File

@@ -68,7 +68,7 @@ ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,
端口号: 6006
镜像默认 sk-key: `sk-aaabbbcccdddeeefffggghhhiiijjjkkk`
## 接入 OneAPI
## 接入 One API
为 chatglm2 添加一个渠道,参数如下:
@@ -90,7 +90,7 @@ curl --location --request POST 'https://domain/v1/chat/completions' \
}'
```
Authorization 为 sk-aaabbbcccdddeeefffggghhhiiijjjkkk。model 为刚刚在 OneAPI 填写的自定义模型。
Authorization 为 sk-aaabbbcccdddeeefffggghhhiiijjjkkk。model 为刚刚在 One API 填写的自定义模型。
## 接入 FastGPT

View File

@@ -23,7 +23,7 @@ FastGPT 默认使用了 openai 的 embedding 向量模型,如果你想私有
sk-key=xxxx
```
## 接入 OneAPI
## 接入 One API
添加一个渠道,参数如下:
@@ -43,7 +43,7 @@ curl --location --request POST 'https://domain/v1/embeddings' \
}'
```
Authorization 为 sk-key。model 为刚刚在 OneAPI 填写的自定义模型。
Authorization 为 sk-key。model 为刚刚在 One API 填写的自定义模型。
## 接入 FastGPT

View File

@@ -55,11 +55,11 @@ brew install orbstack
{{< tab tabName="Windows" >}}
{{< markdownify >}}
> 我们建议将源代码和其他数据绑定到 Linux 容器中时,将其存储在 Linux 文件系统中,而不是 Windows 文件系统中。
>
> 可以选择直接[使用 WSL 2 后端在 Windows 中安装 Docker Desktop](https://docs.docker.com/desktop/wsl/)。
>
> 也可以直接[在 WSL 2 中安装命令行版本的 Docker](https://nickjanetakis.com/blog/install-docker-in-wsl-2-without-docker-desktop)。
我们建议将源代码和其他数据绑定到 Linux 容器中时,将其存储在 Linux 文件系统中,而不是 Windows 文件系统中。
可以选择直接[使用 WSL 2 后端在 Windows 中安装 Docker Desktop](https://docs.docker.com/desktop/wsl/)。
也可以直接[在 WSL 2 中安装命令行版本的 Docker](https://nickjanetakis.com/blog/install-docker-in-wsl-2-without-docker-desktop)。
{{< /markdownify >}}
{{< /tab >}}

View File

@@ -1,6 +1,6 @@
---
title: '部署 one-api,实现多模型支持'
description: '通过接入 one-api 来实现对各种大模型的支持'
title: '部署 One API,实现多模型支持'
description: '通过接入 One API 来实现对各种大模型的支持'
icon: 'Api'
draft: false
toc: true
@@ -9,9 +9,9 @@ weight: 730
默认情况下FastGPT 只配置了 GPT 的 3 个模型,如果你需要接入其他模型,需要进行一些额外配置。
[one-api](https://github.com/songquanpeng/one-api) 是一个 OpenAI 接口管理 & 分发系统,可以通过标准的 OpenAI API 格式访问所有的大模型,开箱即用。
[One API](https://github.com/songquanpeng/one-api) 是一个 OpenAI 接口管理 & 分发系统,可以通过标准的 OpenAI API 格式访问所有的大模型,开箱即用。
FastGPT 可以通过接入 one-api 来实现对各种大模型的支持。部署方法也很简单。
FastGPT 可以通过接入 One API 来实现对各种大模型的支持。部署方法也很简单。
## MySQL 版本
@@ -55,17 +55,17 @@ BATCH_UPDATE_INTERVAL=60
## 使用步骤
### 1. 登录 one-api
### 1. 登录 One API
打开 【one-api 应用详情】,找到访问地址:
打开 【One API 应用详情】,找到访问地址:
![step4](/imgs/oneapi-step4.png)
登录 one-api
登录 One API
![step5](/imgs/oneapi-step5.png)
### 2. 创建渠道和令牌
one-api 中添加对应渠道,直接点击 【添加基础模型】,不要遗漏了向量模型
One API 中添加对应渠道,直接点击 【添加基础模型】,不要遗漏了向量模型
![step6](/imgs/oneapi-step6.png)
创建一个令牌
@@ -73,12 +73,12 @@ BATCH_UPDATE_INTERVAL=60
### 3. 修改 FastGPT 的环境变量
有了 one-api 令牌后FastGPT 可以通过修改 baseurl 和 key 去请求到 one-api,再由 one-api 去请求不同的模型。修改下面两个环境变量:
有了 One API 令牌后FastGPT 可以通过修改 baseurl 和 key 去请求到 One API,再由 One API 去请求不同的模型。修改下面两个环境变量:
```bash
# 下面的地址是 Sealos 提供的,务必写上 v1 两个项目都在 sealos 部署时候https://xxxx.cloud.sealos.io 可以改用内网地址
OPENAI_BASE_URL=https://xxxx.cloud.sealos.io/v1
# 下面的 key 是由 one-api 提供的令牌
# 下面的 key 是由 One API 提供的令牌
CHAT_API_KEY=sk-xxxxxx
```
@@ -86,7 +86,7 @@ CHAT_API_KEY=sk-xxxxxx
**以添加文心一言为例:**
### 1. One-API 添加对应模型渠道
### 1. One API 添加对应模型渠道
![](/imgs/oneapi-demo1.png)
@@ -98,7 +98,7 @@ CHAT_API_KEY=sk-xxxxxx
"ChatModels": [
...
{
"model": "ERNIE-Bot", // 这里的模型需要对应 OneAPI 的模型
"model": "ERNIE-Bot", // 这里的模型需要对应 One API 的模型
"name": "文心一言", // 对外展示的名称
"contextMaxToken": 4000, // 最大长下文 token无论什么模型都按 GPT35 的计算。GPT 外的模型需要自行大致计算下这个值。可以调用官方接口去比对 Token 的倍率,然后在这里粗略计算。
// 例如:文心一言的中英文 token 基本是 1:1而 GPT 的中文 Token 是 2:1如果文心一言官方最大 Token 是 4000那么这里就可以填 8000保险点就填 7000.