mirror of
https://github.com/labring/FastGPT.git
synced 2025-07-24 22:03:54 +00:00
doc (#1131)
doc doc doc doc http error response remove upload file count token Add more timeout
This commit is contained in:
@@ -270,3 +270,7 @@ mongo连接失败,查看mongo的运行状态对应日志。
|
|||||||
### 首次部署,root用户提示未注册
|
### 首次部署,root用户提示未注册
|
||||||
|
|
||||||
日志会有错误提示。大概率是没有启动 Mongo 副本集模式。
|
日志会有错误提示。大概率是没有启动 Mongo 副本集模式。
|
||||||
|
|
||||||
|
### 无法导出知识库、无法使用语音输入/播报
|
||||||
|
|
||||||
|
没配置 SSL 证书,无权使用部分功能。
|
@@ -1,5 +1,5 @@
|
|||||||
---
|
---
|
||||||
title: 'V4.7.1'
|
title: 'V4.7.1(进行中)'
|
||||||
description: 'FastGPT V4.7.1 更新说明'
|
description: 'FastGPT V4.7.1 更新说明'
|
||||||
icon: 'upgrade'
|
icon: 'upgrade'
|
||||||
draft: false
|
draft: false
|
||||||
@@ -24,5 +24,8 @@ curl --location --request POST 'https://{{host}}/api/admin/clearInvalidData' \
|
|||||||
1. 新增 - Pptx 和 xlsx 文件读取。但所有文件读取都放服务端,会消耗更多的服务器资源,以及无法在上传时预览更多内容。
|
1. 新增 - Pptx 和 xlsx 文件读取。但所有文件读取都放服务端,会消耗更多的服务器资源,以及无法在上传时预览更多内容。
|
||||||
2. 新增 - 集成 Laf 云函数,可以读取 Laf 账号中的云函数作为 HTTP 模块。
|
2. 新增 - 集成 Laf 云函数,可以读取 Laf 账号中的云函数作为 HTTP 模块。
|
||||||
3. 新增 - 定时器,清理垃圾数据。(采用小范围清理,会清理最近n个小时的,所以请保证服务持续运行,长时间不允许,可以继续执行 clearInvalidData 的接口进行全量清理。)
|
3. 新增 - 定时器,清理垃圾数据。(采用小范围清理,会清理最近n个小时的,所以请保证服务持续运行,长时间不允许,可以继续执行 clearInvalidData 的接口进行全量清理。)
|
||||||
4. 修改 - csv导入模板,取消 header 校验,自动获取前两列。
|
4. 商业版新增 - 后台配置系统通知。
|
||||||
5. 修复 - 工具调用模块连线数据类型校验错误。
|
5. 修改 - csv导入模板,取消 header 校验,自动获取前两列。
|
||||||
|
6. 修复 - 工具调用模块连线数据类型校验错误。
|
||||||
|
7. 修复 - 自定义索引输入时,解构数据失败。
|
||||||
|
8. 修复 - rerank 模型数据格式。
|
@@ -130,7 +130,7 @@ export async function pushDataListToTrainingQueue({
|
|||||||
const text = item.q + item.a;
|
const text = item.q + item.a;
|
||||||
|
|
||||||
// count q token
|
// count q token
|
||||||
const token = countPromptTokens(item.q);
|
const token = item.q.length;
|
||||||
|
|
||||||
if (token > maxToken) {
|
if (token > maxToken) {
|
||||||
filterResult.overToken.push(item);
|
filterResult.overToken.push(item);
|
||||||
|
@@ -10,6 +10,7 @@ import { valueTypeFormat } from '../utils';
|
|||||||
import { SERVICE_LOCAL_HOST } from '../../../../common/system/tools';
|
import { SERVICE_LOCAL_HOST } from '../../../../common/system/tools';
|
||||||
import { addLog } from '../../../../common/system/log';
|
import { addLog } from '../../../../common/system/log';
|
||||||
import { DispatchNodeResultType } from '@fastgpt/global/core/module/runtime/type';
|
import { DispatchNodeResultType } from '@fastgpt/global/core/module/runtime/type';
|
||||||
|
import { getErrText } from '@fastgpt/global/common/error/utils';
|
||||||
|
|
||||||
type PropsArrType = {
|
type PropsArrType = {
|
||||||
key: string;
|
key: string;
|
||||||
@@ -139,7 +140,8 @@ export const dispatchHttp468Request = async (props: HttpRequestProps): Promise<H
|
|||||||
body: Object.keys(requestBody).length > 0 ? requestBody : undefined,
|
body: Object.keys(requestBody).length > 0 ? requestBody : undefined,
|
||||||
headers: Object.keys(headers).length > 0 ? headers : undefined,
|
headers: Object.keys(headers).length > 0 ? headers : undefined,
|
||||||
httpResult: { error: formatHttpError(error) }
|
httpResult: { error: formatHttpError(error) }
|
||||||
}
|
},
|
||||||
|
[ModuleOutputKeyEnum.httpRawResponse]: getErrText(error)
|
||||||
};
|
};
|
||||||
}
|
}
|
||||||
};
|
};
|
||||||
|
@@ -192,6 +192,7 @@ ${toolResponse}`}
|
|||||||
</Box>
|
</Box>
|
||||||
);
|
);
|
||||||
}
|
}
|
||||||
|
return null;
|
||||||
})}
|
})}
|
||||||
</Flex>
|
</Flex>
|
||||||
);
|
);
|
||||||
|
@@ -79,13 +79,15 @@ export const getDatasetCollectionById = (id: string) =>
|
|||||||
export const postDatasetCollection = (data: CreateDatasetCollectionParams) =>
|
export const postDatasetCollection = (data: CreateDatasetCollectionParams) =>
|
||||||
POST<string>(`/core/dataset/collection/create`, data);
|
POST<string>(`/core/dataset/collection/create`, data);
|
||||||
export const postCreateDatasetFileCollection = (data: FileIdCreateDatasetCollectionParams) =>
|
export const postCreateDatasetFileCollection = (data: FileIdCreateDatasetCollectionParams) =>
|
||||||
POST<{ collectionId: string }>(`/core/dataset/collection/create/file`, data);
|
POST<{ collectionId: string }>(`/core/dataset/collection/create/file`, data, { timeout: 120000 });
|
||||||
export const postCreateDatasetLinkCollection = (data: LinkCreateDatasetCollectionParams) =>
|
export const postCreateDatasetLinkCollection = (data: LinkCreateDatasetCollectionParams) =>
|
||||||
POST<{ collectionId: string }>(`/core/dataset/collection/create/link`, data);
|
POST<{ collectionId: string }>(`/core/dataset/collection/create/link`, data);
|
||||||
export const postCreateDatasetTextCollection = (data: TextCreateDatasetCollectionParams) =>
|
export const postCreateDatasetTextCollection = (data: TextCreateDatasetCollectionParams) =>
|
||||||
POST<{ collectionId: string }>(`/core/dataset/collection/create/text`, data);
|
POST<{ collectionId: string }>(`/core/dataset/collection/create/text`, data);
|
||||||
export const postCreateDatasetCsvTableCollection = (data: CsvTableCreateDatasetCollectionParams) =>
|
export const postCreateDatasetCsvTableCollection = (data: CsvTableCreateDatasetCollectionParams) =>
|
||||||
POST<{ collectionId: string }>(`/core/dataset/collection/create/csvTable`, data);
|
POST<{ collectionId: string }>(`/core/dataset/collection/create/csvTable`, data, {
|
||||||
|
timeout: 120000
|
||||||
|
});
|
||||||
|
|
||||||
export const putDatasetCollectionById = (data: UpdateDatasetCollectionParams) =>
|
export const putDatasetCollectionById = (data: UpdateDatasetCollectionParams) =>
|
||||||
POST(`/core/dataset/collection/update`, data);
|
POST(`/core/dataset/collection/update`, data);
|
||||||
|
Reference in New Issue
Block a user