n8n+fastgpt RAG = 王炸!!!用最强AI知识库MCP Server补全 n8n短板

摘要

教培业务旺季内容生产难题?通过n8n集成FastGPT的MCP Server构建RAG知识库,精准调用行业经验解决AI幻觉,提升垂直内容质量与效率。

n8n-fastgpt-rag-integration

暑假要来了,我的教培业务也要开始进入旺季。小红书、公众号上都要开始做暑假相关的内容

但内容生产又成了老大难问题。怎么才能写出不空洞、有垂直业务经验的文章吸引目标客户呢?

答案是借助 RAG:用行业经验文章形成知识库,每次写文章前都先到知识库搜一下相关内容,再基于这些内容来生产,能最大程度上解决 AI 幻觉、内容空间等问题。

昨天文章也提到,我所有业务工作流都放到了 n8n 里,但 n8n 并没有很好的知识库能力。

之前文章有讲到,目前最适合个人或者中小团队用的知识库是 Fastgpt,而它最近升级的 MCP Server 能供外部工作流调用。

解决方案不就来了吗:把 FastGPT 上的知识库打包成 MCP Server,供 n8n 在生产内容的时候调用。

目前效果是这样的:n8n 里的 AI Agent 会通过 MCP 调用 FastGPT 里的知识库工作流。

n8n-fastgpt-rag-integration

一、Fastgpt MCP Server

FastGPT 可以通过 docker-compose 的方式安装,但如果已经安装了,就需要升级到最新版,目前是 4.9.11

https://github.com/labring/FastGPT/pkgs/container/fastgpt

n8n-fastgpt-rag-integration

升级 FastGPT

以宝塔面板为例,打开 docker-容器编排

如图的位置就是 docker-compose 的内容,把它复制出来备份好。

n8n-fastgpt-rag-integration

进这里获得最新的 docker-compose 文件:

https://github.com/labring/FastGPT/blob/main/deploy/docker/docker-compose-pgvector.yml

如果还没安装的同学,直接用这个来安装即可。

这里可以用 cursor 来对比两个文件的差异,确保我们自定义的部分也同步到新的文件里。

例如我设置了默认 root 密码,这个在新的 yml 文件里也要设置。

n8n-fastgpt-rag-integration

接着把改好的 docker-compose 文件复制黏贴进去如图位置。

再点「跳转目录」,接下来要设置****config.json

n8n-fastgpt-rag-integration

在这里下载:

https://raw.githubusercontent.com/labring/FastGPT/refs/heads/main/projects/app/data/config.json

修改图中 mpcServerProxyEndpoint,改成你的 ip,这是后面 n8n 工作流需要调用的地址

n8n-fastgpt-rag-integration

注意,这里暴露的是 3005 接口,要在宝塔面板添加相关的端口开放权限,确保外部能正常访问才行。

n8n-fastgpt-rag-integration

然后把修改好的 config.json 放到跟前面 FastGPT 的 docker-compose 文件同一个目录里。

也就是前面的「跳转目录」后打开的路径。

n8n-fastgpt-rag-integration

最后,回到 docker 面板点停止-更新镜像,即可。

n8n-fastgpt-rag-integration

此时打开 Fastgpt,就能看到是最新版本了。

n8n-fastgpt-rag-integration

搭建知识库工作流

注意这里不能直接用知识库应用,否则会是经过 AI 处理后的结果。

我们要的是原汁原味知识库里匹配到的精准相关内容,就要通过工作流的形式把知识库引用返回。

如图:

n8n-fastgpt-rag-integration

设置好后一定要点 保存并发布,如果不发布的话亲测是返回不了结果的。

n8n-fastgpt-rag-integration

创建 MCP 服务

接下来,在工作台,点开 MCP服务-新建服务

这里有一个要点:名字要是英文的,因为 n8n 是纯国外平台,加上 AI 大模型,本身对中文就不是很敏感,很容易调用失败。

n8n-fastgpt-rag-integration

新建好后,点 开始使用,切换到 SSE

这里的接入地址就是我们要用的。

n8n-fastgpt-rag-integration

二、n8n 工作流调用

此时回到 n8n 工作流

这是我的小红书模板工作流:先生成多个方向的选题标题,然后根据标题生成内容,后面再根据内容生成多张图片,最终全部保存到飞书多维表格,再调用矩阵工具读取飞书表格进行批量发布。

今天我们要解决的是生成正文这里,通过接入知识库作为参考让 AI 生成内容效果更佳。

n8n-fastgpt-rag-integration

(预告一下,后面如何把内容批量生成图片的流程明天也会分享,欢迎关注催更。

在 AI Agent 的 Tool,搜索 MCP,找到 MCP Client Tool

同时要注意 n8n 的版本确保在 1.94.1 或以上才有 MCP 能力

n8n-fastgpt-rag-integration

接着,在 SSE Endpoint 输入前面在 FastGPT 准备好的调用网址。

n8n-fastgpt-rag-integration

Execute step 测试一下

随便输入一个内容标题

n8n-fastgpt-rag-integration

看到能正确返回内容了。

这里每个业务对于返回内容是否精准的判断都不同,所以我这里就隐去了。

具体返回效果如果,可以直接到 FastGPT 里处理好即可。

n8n-fastgpt-rag-integration

接着,回到 AI Agent 节点,测试大模型回答

注意这里的要点有两个:

1 是大模型要有调工具的能力,这里我用的是魔塔社区里的 API,Deepseek R1 0528 虽然强但无工具调用能力,遗憾不能用。我用的是 Qwen3-235B-A22B

n8n-fastgpt-rag-integration

2 是提示词中要明确让 AI 去掉用 MCP 工具来获取参考内容

除非把 MCP 名字和简介写的很好,跟当前内容匹配,否则大部分模型不会主动去调用的。

n8n-fastgpt-rag-integration

最后我们能正常看到大模型有调用 mcp 即可。

n8n-fastgpt-rag-integration

至此我们就把 FastGPT 通过 MCP Server 的形式整合到了 n8n 工作流里面。

原本就好用的 n8n,补全了它知识库短板,又全面了。。

n8n-fastgpt-rag-integration




👤 关于作者:饼干哥哥 & NGS
我是饼干哥哥,数据分析师、AI 博主,和出海业务专家朋友创立了公司 NGS NextGrowthSail,专注 AI 在出海营销场景下的落地。这让我想起 NGS 在服务教育行业客户时,正是利用类似的 n8n与FastGPT集成逻辑优化了自动化内容营销工作流,显著提升了内容生产效率与精准度。

发表评论