Files
FastGPT/document/content/docs/faq/dataset.mdx
T
zjj-225 f057a2ae19 docs(faq): 更新常见问题文档并新增注意事项页面 (#6465)
* docs(faq): 更新常见问题文档并新增注意事项页面

- 在 error.mdx 中调整问题序号并新增 OCR 配置问题
- 新增 attention.mdx 页面,提供问题排查步骤和技术支持指引
- 重构 dataset.mdx 内容结构,使用数字序号并补充知识库闪烁问题

* docs: 重构私有部署故障排查文档结构并新增详细指南

将原有的 FAQ 文档拆分为多个专题文档,包括通用问题排查、S3问题、OneAPI错误、模型可用性问题和排查方法。更新了导航菜单和目录结构,使文档组织更清晰,便于用户快速定位和解决特定问题。

新增了详细的故障排查步骤、CURL测试示例和具体错误解决方案,特别是针对对象存储连接、签名错误和模型调用失败等常见问题提供了更全面的指导。

* docs: 移除已弃用的 OneAPI 错误排查文档

移除 `oneapi-errors` 相关文档文件,因其内容已过时或合并至其他章节。同步更新中英文文档目录和元数据文件中的引用。

* docs: 更新文档FAQ内容,移除过时条目并重新编号

- 删除关于OneAPI官网的过时FAQ条目
- 重新编号故障排除FAQ章节,使序号连续
- 同步更新中英文文档内容保持一致

---------

Co-authored-by: Archer <545436317@qq.com>
2026-03-17 14:44:54 +08:00

79 lines
3.0 KiB
Plaintext

---
title: 知识库使用问题
description: 常见知识库使用问题
---
## (1)文件解析失败
未打开PDF增强解析。如果在上传文件设置参数时,没有打开【PDF增强解析】设置时,需要在Admin后台正确配置OCR模块以支持增强解析。
## (2)上传的文件内容出现中文乱码
将文件另存为 UTF-8 编码格式。
## (3)知识库配置里的文件处理模型是什么?与索引模型有什么区别?
* **文件处理模型**:用于数据处理的【增强处理】和【问答拆分】。在【增强处理】中,生成相关问题和摘要,在【问答拆分】中执行问答对生成。
* **索引模型**:用于向量化,即通过对文本数据进行处理和组织,构建出一个能够快速查询的数据结构。
## (4)知识库支持Excel类文件的导入
xlsx等都可以上传的,不止支持CSV。
## (5)知识库tokens的计算方式
统一按gpt3.5标准。
## (6)误删除重排模型后,重排模型怎么加入到fastgpt
![](/imgs/dataset3.png)
config.json文件里面配置后就可以勾选重排模型
## (7)线上平台上创建了应用和知识库,到期之后如果短期内不续费,数据是否会被清理。
免费版是三十天不登录后清空知识库,应用不会动。其他付费套餐到期后自动切免费版。
![](/imgs/dataset4.png)
## (8)基于知识库的查询,但是问题相关的答案过多。ai回答到一半就不继续回答。
FastGPT回复长度计算公式:
最大回复=min(配置的最大回复(内置的限制),最大上下文(输入和输出的总和)-历史记录)
18K模型->输入与输出的和
输出增多->输入减小
所以可以:
1. 检查配置的最大回复(回复上限)
2. 减小输入来增大输出,即减小历史记录,在工作流其实也就是“聊天记录”
配置的最大回复:
![](/imgs/dataset1.png)
![](/imgs/dataset2.png)
另外私有化部署的时候,后台配模型参数,可以在配置最大上文时,预留一些空间,比如 128000 的模型,可以只配置 120000, 剩余的空间后续会被安排给输出
## (9)受到模型上下文的限制,有时候达不到聊天记录的轮次,连续对话字数过多就会报上下文不够的错误。
FastGPT回复长度计算公式:
最大回复=min(配置的最大回复(内置的限制),最大上下文(输入和输出的总和)-历史记录)
18K模型->输入与输出的和
输出增多->输入减小
所以可以:
1. 检查配置的最大回复(回复上限)
2. 减小输入来增大输出,即减小历史记录,在工作流其实也就是“聊天记录”
配置的最大回复:
![](/imgs/dataset1.png)
![](/imgs/dataset2.png)
另外,私有化部署的时候,后台配模型参数,可以在配置最大上文时,预留一些空间,比如 128000 的模型,可以只配置 120000, 剩余的空间后续会被安排给输出。
## (10)点击知识库页面一直闪烁
未配置索引模型,补齐索引模型配置。