AI Agent自动化知识管理流程的一次探索性实验

今天我进行了一个实验:利用 OpenCode,在20分钟内完成了从网页上批量下载66节课程字幕,到自动转化为标准 Obsidian Markdown 笔记,并建立知识库索引的全流程。展示了 Agentic AI 在本地自动化工作流中的巨大潜力。

5 min read
AgentObsidianAutomationAIOpenCode

今天做了一个实验,充分验证了Agentic AI 实现日常自动化的威力。

事情的起因是我以前买了一门统计学课程,一共 66 节课。课程页面里有各个视频的 transcript(字幕文稿),我想试试借助我 "tool box" 里已有的 AI 工具,能不能实现一个完全自动化的流程:

目标:自动下载所有视频的 transcript 到本地,存到 Obsidian 文件夹里;然后让 OpenCode 帮我批量把这些 transcript 的后缀从 .txt 改为 .md,并根据 Obsidian Skills,把原始 transcript 里的连续性文字 format 成标准的Obsidian Markdown 格式,同时根据不同笔记的具体内容自动添加 properties。

Step 1: 批量获取素材

我首先在 Perplexity 的 Comet 浏览器上让 AI 自动点击各个视频的 transcript,下载这些 txt 文件到本地。(注:理论上让 Agent 使用 Playwright MCP 或者 Chrome Devtools MCP 应该也能实现同样操作,时,不过不知道这俩现在能否实现操作已经登陆好的页面)。

Comet Auto Download

仅仅两三分钟后,所有 66 个 txt 文件就已经成功下载到本地了。

Downloaded Transcripts

Step 2: Agent 批量处理与美化

接下来我打开了 OpenCode,输入了这样的 Prompt:

我在 @Stats/folder 里放了 66 个 txt 文件(一门统计学课程 66 个视频的 transcript),请你批量转化为 markdown 文件,然后根据 Obsidian 的 skills 帮我逐一美化笔记(注意:需要添加 properties,比如 category 都是 stats,tags 请你自己根据内容来决定)

可以看到 OpenCode(使用的是 Claude 4.5 Opus 模型)收到任务后,开始吭哧吭哧干活了。

OpenCode Processing

中间过程我大概看了一下,它主要是生成 Python 脚本来进行批量文件操作和文本处理,我也没仔细去 review 代码。过了差不多 10 多分钟后,OpenCode 提示任务已经完成,并生成了总结。

OpenCode Complete

回到 Obsidian 里检查,果然看到了整理得井井有条的笔记。原本的一大段连续文本已经被格式化为易读的 Markdown,并且打上了正确的标签。

Processed Notes in Obsidian

Step 3: 自动构建知识库索引 (Base)

为了更方便地查阅这些笔记,我又让 OpenCode 帮我生成 stats.base,这样我可以根据 properties 来筛选特定笔记。

OpenCode 很快就完成了任务。

OpenCode Creating Base

打开 Obsidian,可以看到已经生成好的 Base 视图,我可以轻松地对这 66 节课进行筛选和管理。

Created Base in Obsidian

总结与感悟

整个流程,不到 20 分钟就完成了

如果纯手工做,我需要:

  1. 亲自一个一个点击下载 66 次 transcript;
  2. 逐一把各个 txt 文件,扔给ChatGPT或者Gemini等,把连续的文字内容转换成 Markdown 格式;
  3. 手动添加 properties;
  4. 手动去创建 Base 视图...

想想这工作量就很劝退...

但如今有了 Agentic AI 的加持,我们可以轻松实现这些繁琐流程的自动化,真正解放我们的时间。

更让我感慨的是,如今 Agentic AI 进行长时间规划、执行任务,以及出现问题后自我迭代解决的能力已经非常强了。不论是让 OpenCode 帮我批量处理 txt 文件,还是后来生成 base,都是一次性成功,完全没遇到需要我人工介入的情况。

这或许就是未来工作的新常态:Human defines goal, AI handles execution.