--- title: 硅基流动接入示例 description: 硅基流动接入示例 --- [SiliconCloud(硅基流动)](https://cloud.siliconflow.cn/i/TR9Ym0c4) 是一个以提供开源模型调用为主的平台,并拥有自己的加速引擎。帮助用户低成本、快速的进行开源模型的测试和使用。实际体验下来,他们家模型的速度和稳定性都非常不错,并且种类丰富,覆盖语言、向量、重排、TTS、STT、绘图、视频生成模型,可以满足 FastGPT 中所有模型需求。 在阅读该章之前,请先确保你阅读了[模型配置说明](/docs/self-host/config/model/intro)。 ## 1. 注册账号 1. [点击注册硅基流动账号](https://cloud.siliconflow.cn/i/TR9Ym0c4) 2. 进入控制台,获取 API key: https://cloud.siliconflow.cn/account/ak ## 2. 新增模型 系统内置了几个硅基流动的模型进行体验,如果需要其他模型,可以[手动添加](/docs/self-host/config/model/intro/#新增自定义模型)。 这里启动了 `Qwen2.5 72b` 的纯语言和视觉模型;选择 `bge-m3` 作为向量模型;选择 `bge-reranker-v2-m3` 作为重排模型。选择 `fish-speech-1.5` 作为语音模型;选择 `SenseVoiceSmall` 作为语音输入模型。 ![alt text](/imgs/image-104.png) ## 3. 新增模型渠道 在模型渠道页,新增一个硅基流动的渠道,选择刚刚添加的模型即可。 ![alt text](../../../../../public/imgs/image-126.png) ## 4. 测试模型 先测试下硅基流动的模型是否均可正常运行。 ![alt text](../../../../../public/imgs/image-127.png) ## 5. 在应用中测试 ### 测试对话和图片识别 随便新建一个简易应用,选择对应模型,并开启图片上传后进行测试: | | | | ------------------------------- | ------------------------------- | | ![alt text](/imgs/image-68.png) | ![alt text](/imgs/image-70.png) | 可以看到,72B 的模型,性能还是非常快的,这要是本地没几个 4090,不说配置环境,输出怕都要 30s 了。 ### 测试知识库导入和知识库问答 新建一个知识库(由于只配置了一个向量模型,页面上不会展示向量模型选择) | | | | ------------------------------- | ------------------------------- | | ![alt text](/imgs/image-72.png) | ![alt text](/imgs/image-71.png) | 导入本地文件,直接选择文件,然后一路下一步即可。79 个索引,大概花了 20s 的时间就完成了。现在我们去测试一下知识库问答。 首先回到我们刚创建的应用,选择知识库,调整一下参数后即可开始对话: | | | | | ------------------------------- | ------------------------------- | ------------------------------- | | ![alt text](/imgs/image-73.png) | ![alt text](/imgs/image-75.png) | ![alt text](/imgs/image-76.png) | 对话完成后,点击底部的引用,可以查看引用详情,同时可以看到具体的检索和重排得分: | | | | ------------------------------- | ------------------------------- | | ![alt text](/imgs/image-77.png) | ![alt text](/imgs/image-78.png) | ### 测试语音播放 继续在刚刚的应用中,左侧配置中找到语音播放,点击后可以从弹窗中选择语音模型,并进行试听: ![alt text](/imgs/image-79.png) ### 测试语言输入 继续在刚刚的应用中,左侧配置中找到语音输入,点击后可以从弹窗中开启语言输入 ![alt text](/imgs/image-80.png) 开启后,对话输入框中,会增加一个话筒的图标,点击可进行语音输入: | | | | ------------------------------- | ------------------------------- | | ![alt text](/imgs/image-81.png) | ![alt text](/imgs/image-82.png) | ## 总结 如果你想快速的体验开源模型或者快速的使用 FastGPT,不想在不同服务商申请各类 Api Key,那么可以选择 SiliconCloud 的模型先进行快速体验。 如果你决定未来私有化部署模型和 FastGPT,前期可通过 SiliconCloud 进行测试验证,后期再进行硬件采购,减少 POC 时间和成本。