摘要
解决公众号文章手动录入知识库费劲的痛点,通过Dify工作流结合Firecrawl爬虫批量抓取内容并自动存入,提升AI内容生产的准确性和效率,赋能教培业务。
知识库几乎是 AI 创作的中心,能解决很多问题,例如 AI 幻觉(按着知识库的内容来输出,不会乱写)
在我教培业务中,搭建了一个内容知识库。根据这个知识库去生产小红书、公众号内容,能确保准确性,进而确保我账号人设的专业度。
但我发现,很少人在用知识库,大家的一个痛点就是把内容加进「知识库」这件事比较费劲。
虽然腾讯的 IMA 知识库能让大家把公众号文章等内容快速存到知识库里,但受限于知识库的能力、模型和工作流问题,这种形式只能日常问答一下,无法赋能业务。
今天就跟大家分享一下,Dify 如何用爬虫抓取网络内容后写入知识库中。

我的业务是数学思维的教培,经常需要制作优秀的小红书笔记、公众号内容来吸引客户。但纯 AI 生成的内容幻觉严重,而且「不落地」
所以我打算新建一个「数学思维知识库」,把小红书、公众号上优秀的内容都存进去,然后再让 AI 基于知识库来做内容的生产,效率和效果都能有保证。
以公众号的内容为例,假设我看到一个不错的文章,怎么把它加入到我 Dify 知识库呢?

前期准备
创建知识库
如图,创建一个用于装内容的知识库。这里,我们创建一个空的即可。

此时,要先从网址中,找到这个 知识库id 在 datesets 和 documents 中间的就是了。

新建 API 密钥
目前,Dify 暂没有可以直接写入数据库的插件,所以我们是通过 HTTP 请求来解决的。
而走 http 就需要密钥。按下图新建一个。

注意 ⚠️ 这个密钥是可以操作所有知识库的
接着在文档中,找到 通过文本创建文档,这里的请求规则就是后面我们需要编写的。

安装 Firecrawl
因为我们是要爬网页上的内容,所以需要一个爬虫工具。
这里选择用 Firecrawl,可以直接在插件市场里找到安装。

然后根据提示到官网注册一个账号,拿到 API Key

⚠️ 注意:Firecrawl 实际只是有一定的免费额度。
以上准备工作完成,我们就可以开发工作流了。
老规矩,一步一步来,先做一个简单的,再做一个复杂的。
青铜:抓取单页面存入知识库
以下就是完整的工作流:
逻辑是从用户的输入内容中提取出网址,接着用 Firecrawl 去读取页面内容,再用 AI 提炼出标题和正文,最后存入知识库。

- 参数提取器
如图,很简单就不多说了。

- 单页面抓取
Firecrawl 是有多个工具可以选

但这里我们选 单页面抓取 就好了
设置返回的结果是 markdown 格式
仅抓取主要内容为 True,就是把无关的页头页尾之类的删掉

其中,关键的地方在于「请求头」
要知道,所有网站都有反爬措施,尤其是公众号文章,正常去抓是会识别成机器人,返回错误结果的,如下图:

解决方案就是加个请求头,伪装成正常的浏览器:
{'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'}
这样就能正确把文章内容抓下来了。

- 参数提取器
目的是从返回的内容中把标题和正文识别出来。
注意在提示词中要让 AI 确保还原完整的内容,不要去做任何改动。

- 转义特殊符号
因为我们要走 HTTP 请求,对于内容的格式是特别敏感的,有点换行符之类的就会报错了。
这里我们直接插入一段代码,把里面的几乎所有特殊符号都做处理。

参考:
function main({arg1}) {
return {
content: arg1.replace(/\\/g, '\\\\').replace(/"/g, '\\"').replace(/\n/g, '\\n').replace(/\r/g, '\\r').replace(/\t/g, '\\t')
}
}
- HTTP 请求:存进知识库
有了内容后,就可以新建 HTTP 请求节点。
这里有个小技巧,就是把前面 API 文档里的 cURL 示例,复制过来,能自动填入


然后点上面的**「鉴权 API-Key」**
按下图把知识库的密钥加进去。

还有个要点:Headers 里一定要加Content-Type,要不然会无法识别正确的格式。
- 测试运行
至此,就完成工作流了。
测试一下:把网址放进去。

OK,存进去了

先不着急用这个知识库,今天这内容,解决的是「存入」的问题,下次来解决「读取」怎么用的问题。
白银:批量存多篇内容
假如我现在有一批内容,要存进去,怎么搞?
这样一篇一篇的加,明显效率很低。

思路是:
-
先获取这些内容的地址
-
用**「迭代」节点遍历网址,**循环调用第一步的“读取网页-存入知识库”
工作流长这样:

ok,先解决第一步。
饼干哥哥之前用 AI 编程 Cursor 开发了一个浏览器插件,功能是把打开的网址采集下来,很方便
感兴趣可以留言,我出一期具体怎么做的教程

得到:
标题 mp_url
提高数学成绩的学习方法,比补课效果强100倍(深度长文) https://mp.weixin.qq.com/s/NuFfXophlFASb2B6dpD17Q
学好数学,最重要的是抓住这个“根”!(附方法指引) https://mp.weixin.qq.com/s/uz50tLQpHisNeYT9J-naHQ
提高数学成绩的超常规学习方法(深度好文) https://mp.weixin.qq.com/s/vMqdQp0LWCO-OXgRRdJ7PQ
提高数学成绩的方法(建议永久保存) https://mp.weixin.qq.com/s/SVSXmGDfR0JCDXq8Za9pvw
数学开窍的第一步,是规则的开窍 https://mp.weixin.qq.com/s/FDIOBPZA7RMqwXeIMVdyQQ
哈罗学校讲座逐字稿:怎样培养孩子的数学思维? https://mp.weixin.qq.com/s/k_Dbkcf2fd15ItnlURiJtQ
接下来就是对工作流做修改
- 参数提取器
首先是**「参数提取器」,把提取参数改成 数组类型****Array**
同时修改**「指令」要求 AI 输出的是数组**

测试一下节点能正常输出:

- 新建「迭代」节点

把原先的流程,一模一样的在迭代里重新新建(吐槽:怎么不能直接复制进去呢?麻烦)

要点:注意迭代输入的一定是 Array 的数组类型,这样才能逐个遍历去跑。

- 运行测试
我们一次性把多篇地址扔进去,就可以看到「迭代」里面已经在跑了:

没毛病。

黄金:自动爬虫
除了手动去加之外,还有没有更极致的方法呢?
我想是有的,两个思路:
1 个是借助 AI「深度搜索」的能力,把相关内容,先搜索一遍,再整理到知识库中,这样就能快速新建多个主题的知识库内容。
(计划下一篇做用 Dify 做深度搜索工作流的内容,感兴趣的同学可以三连支持!!)
另一个是借助 Agent 的能力,给一个网站 AI 之后,让它判断这个网站有什么跟主题相关的内容,然后把内容抓下来存进数据库。
后者就有点像是 Browser-use 的能力,可以自主浏览网站,这样是不是连小红书也能爬进去知识库了?
今天的内容就是给后面这两种方式打底的:这个工作流可以打包成工具供给它们调用。