mirror of
https://github.com/labring/FastGPT.git
synced 2025-07-21 11:43:56 +00:00
112 lines
2.9 KiB
Markdown
112 lines
2.9 KiB
Markdown
---
|
||
title: '配置文件介绍'
|
||
description: 'FastGPT 配置参数介绍'
|
||
icon: 'settings'
|
||
draft: false
|
||
toc: true
|
||
weight: 520
|
||
---
|
||
|
||
由于环境变量不利于配置复杂的内容,新版 FastGPT 采用了 ConfigMap 的形式挂载配置文件,你可以在 `projects/app/data/config.json` 看到默认的配置文件。可以参考 [docker-compose 快速部署](/docs/installation/docker/) 来挂载配置文件。
|
||
|
||
**开发环境下**,你需要将示例配置文件 `config.json` 复制成 `config.local.json` 文件才会生效。
|
||
|
||
这个配置文件中包含了系统级参数、AI 对话的模型、function 模型等……
|
||
|
||
|
||
## 完整配置参数
|
||
|
||
**使用时,请务必去除注释!**
|
||
|
||
```json
|
||
{
|
||
"SystemParams": {
|
||
"vectorMaxProcess": 15, // 向量生成最大进程,结合数据库性能和 key 来设置
|
||
"qaMaxProcess": 15, // QA 生成最大进程,结合数据库性能和 key 来设置
|
||
"pgHNSWEfSearch": 40 // pg vector 索引参数,越大精度高但速度慢
|
||
},
|
||
"ChatModels": [
|
||
{
|
||
"model": "gpt-3.5-turbo", // 实际调用的模型
|
||
"name": "GPT35-4k", // 展示的名字
|
||
"maxToken": 4000, // 最大token,均按 gpt35 计算
|
||
"quoteMaxToken": 2000, // 引用内容最大 token
|
||
"maxTemperature": 1.2, // 最大温度
|
||
"price": 0,
|
||
"defaultSystemChatPrompt": ""
|
||
},
|
||
{
|
||
"model": "gpt-3.5-turbo-16k",
|
||
"name": "GPT35-16k",
|
||
"maxToken": 16000,
|
||
"quoteMaxToken": 8000,
|
||
"maxTemperature": 1.2,
|
||
"price": 0,
|
||
"defaultSystemChatPrompt": ""
|
||
},
|
||
{
|
||
"model": "gpt-4",
|
||
"name": "GPT4-8k",
|
||
"maxToken": 8000,
|
||
"quoteMaxToken": 4000,
|
||
"maxTemperature": 1.2,
|
||
"price": 0,
|
||
"defaultSystemChatPrompt": ""
|
||
}
|
||
],
|
||
"QAModels": [ // QA 拆分模型
|
||
{
|
||
"model": "gpt-3.5-turbo-16k",
|
||
"name": "GPT35-16k",
|
||
"maxToken": 16000,
|
||
"price": 0
|
||
}
|
||
],
|
||
"ExtractModels": [ // 内容提取模型
|
||
{
|
||
"model": "gpt-3.5-turbo-16k",
|
||
"name": "GPT35-16k",
|
||
"maxToken": 16000,
|
||
"price": 0,
|
||
"functionCall": true, // 是否支持 function call
|
||
"functionPrompt": "" // 自定义非 function call 提示词
|
||
}
|
||
],
|
||
"CQModels": [ // Classify Question: 问题分类模型
|
||
{
|
||
"model": "gpt-3.5-turbo-16k",
|
||
"name": "GPT35-16k",
|
||
"maxToken": 16000,
|
||
"price": 0,
|
||
"functionCall": true,
|
||
"functionPrompt": ""
|
||
},
|
||
{
|
||
"model": "gpt-4",
|
||
"name": "GPT4-8k",
|
||
"maxToken": 8000,
|
||
"price": 0,
|
||
"functionCall": true,
|
||
"functionPrompt": ""
|
||
}
|
||
],
|
||
"QGModels": [ // Question Generation: 生成下一步指引模型
|
||
{
|
||
"model": "gpt-3.5-turbo",
|
||
"name": "GPT35-4k",
|
||
"maxToken": 4000,
|
||
"price": 0
|
||
}
|
||
],
|
||
"VectorModels": [
|
||
{
|
||
"model": "text-embedding-ada-002",
|
||
"name": "Embedding-2",
|
||
"price": 0,
|
||
"defaultToken": 500,
|
||
"maxToken": 3000
|
||
}
|
||
]
|
||
}
|
||
```
|