mirror of
https://github.com/labring/FastGPT.git
synced 2025-07-21 11:43:56 +00:00

* split tokens into input and output (#3477) * split tokens into input and output * query extension & tool call & question guide * fix * perf: input and output tokens * perf: tool call if else * perf: remove code * fix: extract usage count * fix: qa usage count --------- Co-authored-by: heheer <heheer@sealos.io>
200 lines
5.3 KiB
TypeScript
200 lines
5.3 KiB
TypeScript
import { replaceVariable } from '@fastgpt/global/common/string/tools';
|
||
import { createChatCompletion } from '../config';
|
||
import { ChatItemType } from '@fastgpt/global/core/chat/type';
|
||
import { countGptMessagesTokens, countPromptTokens } from '../../../common/string/tiktoken/index';
|
||
import { chatValue2RuntimePrompt } from '@fastgpt/global/core/chat/adapt';
|
||
import { getLLMModel } from '../model';
|
||
import { llmCompletionsBodyFormat } from '../utils';
|
||
import { addLog } from '../../../common/system/log';
|
||
|
||
/*
|
||
query extension - 问题扩展
|
||
可以根据上下文,消除指代性问题以及扩展问题,利于检索。
|
||
*/
|
||
|
||
const title = global.feConfigs?.systemTitle || 'FastAI';
|
||
const defaultPrompt = `作为一个向量检索助手,你的任务是结合历史记录,从不同角度,为“原问题”生成个不同版本的“检索词”,从而提高向量检索的语义丰富度,提高向量检索的精度。
|
||
生成的问题要求指向对象清晰明确,并与“原问题语言相同”。
|
||
|
||
参考 <Example></Example> 标中的示例来完成任务。
|
||
|
||
<Example>
|
||
历史记录:
|
||
"""
|
||
"""
|
||
原问题: 介绍下剧情。
|
||
检索词: ["介绍下故事的背景。","故事的主题是什么?","介绍下故事的主要人物。"]
|
||
----------------
|
||
历史记录:
|
||
"""
|
||
Q: 对话背景。
|
||
A: 当前对话是关于 Nginx 的介绍和使用等。
|
||
"""
|
||
原问题: 怎么下载
|
||
检索词: ["Nginx 如何下载?","下载 Nginx 需要什么条件?","有哪些渠道可以下载 Nginx?"]
|
||
----------------
|
||
历史记录:
|
||
"""
|
||
Q: 对话背景。
|
||
A: 当前对话是关于 Nginx 的介绍和使用等。
|
||
Q: 报错 "no connection"
|
||
A: 报错"no connection"可能是因为……
|
||
"""
|
||
原问题: 怎么解决
|
||
检索词: ["Nginx报错"no connection"如何解决?","造成'no connection'报错的原因。","Nginx提示'no connection',要怎么办?"]
|
||
----------------
|
||
历史记录:
|
||
"""
|
||
Q: 护产假多少天?
|
||
A: 护产假的天数根据员工所在的城市而定。请提供您所在的城市,以便我回答您的问题。
|
||
"""
|
||
原问题: 沈阳
|
||
检索词: ["沈阳的护产假多少天?","沈阳的护产假政策。","沈阳的护产假标准。"]
|
||
----------------
|
||
历史记录:
|
||
"""
|
||
Q: 作者是谁?
|
||
A: ${title} 的作者是 labring。
|
||
"""
|
||
原问题: Tell me about him
|
||
检索词: ["Introduce labring, the author of ${title}." ," Background information on author labring." "," Why does labring do ${title}?"]
|
||
----------------
|
||
历史记录:
|
||
"""
|
||
Q: 对话背景。
|
||
A: 关于 ${title} 的介绍和使用等问题。
|
||
"""
|
||
原问题: 你好。
|
||
检索词: ["你好"]
|
||
----------------
|
||
历史记录:
|
||
"""
|
||
Q: ${title} 如何收费?
|
||
A: ${title} 收费可以参考……
|
||
"""
|
||
原问题: 你知道 laf 么?
|
||
检索词: ["laf 的官网地址是多少?","laf 的使用教程。","laf 有什么特点和优势。"]
|
||
----------------
|
||
历史记录:
|
||
"""
|
||
Q: ${title} 的优势
|
||
A: 1. 开源
|
||
2. 简便
|
||
3. 扩展性强
|
||
"""
|
||
原问题: 介绍下第2点。
|
||
检索词: ["介绍下 ${title} 简便的优势", "从哪些方面,可以体现出 ${title} 的简便"]。
|
||
----------------
|
||
历史记录:
|
||
"""
|
||
Q: 什么是 ${title}?
|
||
A: ${title} 是一个 RAG 平台。
|
||
Q: 什么是 Laf?
|
||
A: Laf 是一个云函数开发平台。
|
||
"""
|
||
原问题: 它们有什么关系?
|
||
检索词: ["${title}和Laf有什么关系?","介绍下${title}","介绍下Laf"]
|
||
</Example>
|
||
|
||
-----
|
||
|
||
下面是正式的任务:
|
||
|
||
历史记录:
|
||
"""
|
||
{{histories}}
|
||
"""
|
||
原问题: {{query}}
|
||
检索词: `;
|
||
|
||
export const queryExtension = async ({
|
||
chatBg,
|
||
query,
|
||
histories = [],
|
||
model
|
||
}: {
|
||
chatBg?: string;
|
||
query: string;
|
||
histories: ChatItemType[];
|
||
model: string;
|
||
}): Promise<{
|
||
rawQuery: string;
|
||
extensionQueries: string[];
|
||
model: string;
|
||
inputTokens: number;
|
||
outputTokens: number;
|
||
}> => {
|
||
const systemFewShot = chatBg
|
||
? `Q: 对话背景。
|
||
A: ${chatBg}
|
||
`
|
||
: '';
|
||
const historyFewShot = histories
|
||
.map((item) => {
|
||
const role = item.obj === 'Human' ? 'Q' : 'A';
|
||
return `${role}: ${chatValue2RuntimePrompt(item.value).text}`;
|
||
})
|
||
.join('\n');
|
||
const concatFewShot = `${systemFewShot}${historyFewShot}`.trim();
|
||
|
||
const modelData = getLLMModel(model);
|
||
|
||
const messages = [
|
||
{
|
||
role: 'user',
|
||
content: replaceVariable(defaultPrompt, {
|
||
query: `${query}`,
|
||
histories: concatFewShot
|
||
})
|
||
}
|
||
] as any;
|
||
|
||
const { response: result } = await createChatCompletion({
|
||
body: llmCompletionsBodyFormat(
|
||
{
|
||
stream: false,
|
||
model: modelData.model,
|
||
temperature: 0.01,
|
||
messages
|
||
},
|
||
modelData
|
||
)
|
||
});
|
||
|
||
let answer = result.choices?.[0]?.message?.content || '';
|
||
if (!answer) {
|
||
return {
|
||
rawQuery: query,
|
||
extensionQueries: [],
|
||
model,
|
||
inputTokens: 0,
|
||
outputTokens: 0
|
||
};
|
||
}
|
||
|
||
// Intercept the content of [] and retain []
|
||
answer = answer.match(/\[.*?\]/)?.[0] || '';
|
||
answer = answer.replace(/\\"/g, '"');
|
||
|
||
try {
|
||
const queries = JSON.parse(answer) as string[];
|
||
|
||
return {
|
||
rawQuery: query,
|
||
extensionQueries: Array.isArray(queries) ? queries : [],
|
||
model,
|
||
inputTokens: await countGptMessagesTokens(messages),
|
||
outputTokens: await countPromptTokens(answer)
|
||
};
|
||
} catch (error) {
|
||
addLog.error(`Query extension error`, error);
|
||
return {
|
||
rawQuery: query,
|
||
extensionQueries: [],
|
||
model,
|
||
inputTokens: 0,
|
||
outputTokens: 0
|
||
};
|
||
}
|
||
};
|