mirror of
https://github.com/labring/FastGPT.git
synced 2025-07-22 20:37:48 +00:00
90 lines
2.2 KiB
Markdown
90 lines
2.2 KiB
Markdown
---
|
||
title: '接入 M3E 向量模型'
|
||
description: ' 将 FastGPT 接入私有化模型 M3E'
|
||
icon: 'model_training'
|
||
draft: false
|
||
toc: true
|
||
weight: 920
|
||
---
|
||
|
||
## 前言
|
||
|
||
FastGPT 默认使用了 openai 的 embedding 向量模型,如果你想私有部署的话,可以使用 M3E 向量模型进行替换。M3E 向量模型属于小模型,资源使用不高,CPU 也可以运行。下面教程是基于 “睡大觉” 同学提供的一个的镜像。
|
||
|
||
## 部署镜像
|
||
|
||
镜像名: `stawky/m3e-large-api:latest`
|
||
国内镜像: `registry.cn-hangzhou.aliyuncs.com/fastgpt_docker/m3e-large-api:latest`
|
||
端口号: 6008
|
||
环境变量:
|
||
|
||
```
|
||
# 设置安全凭证(即oneapi中的渠道密钥)
|
||
默认值:sk-aaabbbcccdddeeefffggghhhiiijjjkkk
|
||
也可以通过环境变量引入:sk-key。有关docker环境变量引入的方法请自寻教程,此处不再赘述。
|
||
```
|
||
|
||
## 接入 One API
|
||
|
||
添加一个渠道,参数如下:
|
||
|
||

|
||
|
||
## 测试
|
||
|
||
curl 例子:
|
||
|
||
```bash
|
||
curl --location --request POST 'https://domain/v1/embeddings' \
|
||
--header 'Authorization: Bearer xxxx' \
|
||
--header 'Content-Type: application/json' \
|
||
--data-raw '{
|
||
"model": "m3e",
|
||
"input": ["laf是什么"]
|
||
}'
|
||
```
|
||
|
||
Authorization 为 sk-key。model 为刚刚在 One API 填写的自定义模型。
|
||
|
||
## 接入 FastGPT
|
||
|
||
修改 config.json 配置文件,在 VectorModels 中加入 M3E 模型:
|
||
|
||
```json
|
||
"VectorModels": [
|
||
{
|
||
"model": "text-embedding-ada-002",
|
||
"name": "Embedding-2",
|
||
"price": 0.2,
|
||
"defaultToken": 500,
|
||
"maxToken": 3000
|
||
},
|
||
{
|
||
"model": "m3e",
|
||
"name": "M3E(测试使用)",
|
||
"price": 0.1,
|
||
"defaultToken": 500,
|
||
"maxToken": 1800
|
||
}
|
||
]
|
||
```
|
||
|
||
## 测试使用
|
||
|
||
1. 创建知识库时候选择 M3E 模型。
|
||
|
||
注意,一旦选择后,知识库将无法修改向量模型。
|
||
|
||

|
||
|
||
2. 导入数据
|
||
3. 搜索测试
|
||
|
||

|
||
|
||
4. 应用绑定知识库
|
||
|
||
注意,应用只能绑定同一个向量模型的知识库,不能跨模型绑定。并且,需要注意调整相似度,不同向量模型的相似度(距离)会有所区别,需要自行测试实验。
|
||
|
||

|