Dify工作流:用爬虫批量把公众号文章存到知识库|保姆级教程

摘要

解决公众号文章手动录入知识库费劲的痛点,通过Dify工作流结合Firecrawl爬虫批量抓取内容并自动存入,提升AI内容生产的准确性和效率,赋能教培业务。

知识库几乎是 AI 创作的中心,能解决很多问题,例如 AI 幻觉(按着知识库的内容来输出,不会乱写)

在我教培业务中,搭建了一个内容知识库。根据这个知识库去生产小红书、公众号内容,能确保准确性,进而确保我账号人设的专业度。

但我发现,很少人在用知识库,大家的一个痛点就是把内容加进「知识库」这件事比较费劲。

虽然腾讯的 IMA 知识库能让大家把公众号文章等内容快速存到知识库里,但受限于知识库的能力、模型和工作流问题,这种形式只能日常问答一下,无法赋能业务。

今天就跟大家分享一下,Dify 如何用爬虫抓取网络内容后写入知识库中。

dify-workflow-crawler-knowledge-base

我的业务是数学思维的教培,经常需要制作优秀的小红书笔记、公众号内容来吸引客户。但纯 AI 生成的内容幻觉严重,而且「不落地」

所以我打算新建一个「数学思维知识库」,把小红书、公众号上优秀的内容都存进去,然后再让 AI 基于知识库来做内容的生产,效率和效果都能有保证。

以公众号的内容为例,假设我看到一个不错的文章,怎么把它加入到我 Dify 知识库呢?

dify-workflow-crawler-knowledge-base

前期准备

创建知识库

如图,创建一个用于装内容的知识库。这里,我们创建一个空的即可。

dify-workflow-crawler-knowledge-base

此时,要先从网址中,找到这个 知识库id 在 datesets 和 documents 中间的就是了。

dify-workflow-crawler-knowledge-base

新建 API 密钥

目前,Dify 暂没有可以直接写入数据库的插件,所以我们是通过 HTTP 请求来解决的。

而走 http 就需要密钥。按下图新建一个。

dify-workflow-crawler-knowledge-base

注意 ⚠️ 这个密钥是可以操作所有知识库的

接着在文档中,找到 通过文本创建文档,这里的请求规则就是后面我们需要编写的。

dify-workflow-crawler-knowledge-base

安装 Firecrawl

因为我们是要爬网页上的内容,所以需要一个爬虫工具。

这里选择用 Firecrawl,可以直接在插件市场里找到安装。

dify-workflow-crawler-knowledge-base

然后根据提示到官网注册一个账号,拿到 API Key

dify-workflow-crawler-knowledge-base

⚠️ 注意:Firecrawl 实际只是有一定的免费额度。

以上准备工作完成,我们就可以开发工作流了。

老规矩,一步一步来,先做一个简单的,再做一个复杂的。

青铜:抓取单页面存入知识库

以下就是完整的工作流:

逻辑是从用户的输入内容中提取出网址,接着用 Firecrawl 去读取页面内容,再用 AI 提炼出标题和正文,最后存入知识库。

dify-workflow-crawler-knowledge-base

  1. 参数提取器

如图,很简单就不多说了。

dify-workflow-crawler-knowledge-base

  1. 单页面抓取

Firecrawl 是有多个工具可以选

dify-workflow-crawler-knowledge-base

但这里我们选 单页面抓取 就好了

设置返回的结果是 markdown 格式

仅抓取主要内容为 True,就是把无关的页头页尾之类的删掉

dify-workflow-crawler-knowledge-base

其中,关键的地方在于「请求头」

要知道,所有网站都有反爬措施,尤其是公众号文章,正常去抓是会识别成机器人,返回错误结果的,如下图:

dify-workflow-crawler-knowledge-base

解决方案就是加个请求头,伪装成正常的浏览器:

{'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'}

这样就能正确把文章内容抓下来了。

dify-workflow-crawler-knowledge-base

  1. 参数提取器

目的是从返回的内容中把标题和正文识别出来。

注意在提示词中要让 AI 确保还原完整的内容,不要去做任何改动。

dify-workflow-crawler-knowledge-base

  1. 转义特殊符号

因为我们要走 HTTP 请求,对于内容的格式是特别敏感的,有点换行符之类的就会报错了。

这里我们直接插入一段代码,把里面的几乎所有特殊符号都做处理。

dify-workflow-crawler-knowledge-base

参考:

function main({arg1}) {
    return {
        content: arg1.replace(/\\/g, '\\\\').replace(/"/g, '\\"').replace(/\n/g, '\\n').replace(/\r/g, '\\r').replace(/\t/g, '\\t')
    }
}
  1. HTTP 请求:存进知识库

有了内容后,就可以新建 HTTP 请求节点。

这里有个小技巧,就是把前面 API 文档里的 cURL 示例,复制过来,能自动填入

dify-workflow-crawler-knowledge-base
dify-workflow-crawler-knowledge-base

然后点上面的**「鉴权 API-Key」**

按下图把知识库的密钥加进去。

dify-workflow-crawler-knowledge-base

还有个要点:Headers 里一定要加Content-Type,要不然会无法识别正确的格式。

  1. 测试运行

至此,就完成工作流了。

测试一下:把网址放进去。

dify-workflow-crawler-knowledge-base

OK,存进去了

dify-workflow-crawler-knowledge-base

先不着急用这个知识库,今天这内容,解决的是「存入」的问题,下次来解决「读取」怎么用的问题。

白银:批量存多篇内容

假如我现在有一批内容,要存进去,怎么搞?

这样一篇一篇的加,明显效率很低。

dify-workflow-crawler-knowledge-base

思路是:

  1. 先获取这些内容的地址

  2. 用**「迭代」节点遍历网址,**循环调用第一步的“读取网页-存入知识库”

工作流长这样:

dify-workflow-crawler-knowledge-base

ok,先解决第一步。

饼干哥哥之前用 AI 编程 Cursor 开发了一个浏览器插件,功能是把打开的网址采集下来,很方便

感兴趣可以留言,我出一期具体怎么做的教程

dify-workflow-crawler-knowledge-base

得到:

标题        mp_url
提高数学成绩的学习方法比补课效果强100倍深度长文        https://mp.weixin.qq.com/s/NuFfXophlFASb2B6dpD17Q
学好数学最重要的是抓住这个”!(附方法指引        https://mp.weixin.qq.com/s/uz50tLQpHisNeYT9J-naHQ
提高数学成绩的超常规学习方法深度好文        https://mp.weixin.qq.com/s/vMqdQp0LWCO-OXgRRdJ7PQ
提高数学成绩的方法(建议永久保存)        https://mp.weixin.qq.com/s/SVSXmGDfR0JCDXq8Za9pvw
数学开窍的第一步是规则的开窍        https://mp.weixin.qq.com/s/FDIOBPZA7RMqwXeIMVdyQQ
哈罗学校讲座逐字稿怎样培养孩子的数学思维        https://mp.weixin.qq.com/s/k_Dbkcf2fd15ItnlURiJtQ

接下来就是对工作流做修改

  1. 参数提取器

首先是**「参数提取器」,把提取参数改成 数组类型****Array**

同时修改**「指令」要求 AI 输出的是数组**

dify-workflow-crawler-knowledge-base

测试一下节点能正常输出:

dify-workflow-crawler-knowledge-base

  1. 新建「迭代」节点

dify-workflow-crawler-knowledge-base

把原先的流程,一模一样的在迭代里重新新建(吐槽:怎么不能直接复制进去呢?麻烦)

dify-workflow-crawler-knowledge-base

要点:注意迭代输入的一定是 Array 的数组类型,这样才能逐个遍历去跑。

dify-workflow-crawler-knowledge-base

  1. 运行测试

我们一次性把多篇地址扔进去,就可以看到「迭代」里面已经在跑了:

dify-workflow-crawler-knowledge-base

没毛病。

dify-workflow-crawler-knowledge-base

黄金:自动爬虫

除了手动去加之外,还有没有更极致的方法呢?

我想是有的,两个思路:

1 个是借助 AI「深度搜索」的能力,把相关内容,先搜索一遍,再整理到知识库中,这样就能快速新建多个主题的知识库内容。

(计划下一篇做用 Dify 做深度搜索工作流的内容,感兴趣的同学可以三连支持!!)

另一个是借助 Agent 的能力,给一个网站 AI 之后,让它判断这个网站有什么跟主题相关的内容,然后把内容抓下来存进数据库。

后者就有点像是 Browser-use 的能力,可以自主浏览网站,这样是不是连小红书也能爬进去知识库了?

今天的内容就是给后面这两种方式打底的:这个工作流可以打包成工具供给它们调用。




👤 关于作者:饼干哥哥 & NGS
我是饼干哥哥,数据分析师、AI 博主,和出海业务专家朋友创立了公司 NGS NextGrowthSail,专注 AI 在出海营销场景下的落地。这让我想起 NGS 在服务教育行业客户时,正是利用类似的自动化内容营销工作流解决了内容生产效率低下的问题。

发表评论