跳转至

Ship-Learn-Next 学习任务: 构建私有AI代理掌握核心工作流

任务概览

目标: 在4-8周内,从零搭建一个运行在本地的AI代理,利用你的领域专业知识解决一个具体的高价值工作问题,而不依赖云端API(保护隐私/IP)。 来源: Jensen Huang & Chuck Robbins 对话 (关于AI工厂、工具使用和"掀起引擎盖"了解原理的建议) 核心学习要点: 1. 隐式编程: 学会通过"意图"而非代码来指挥计算机(Jensen: "Programming is just typing")。 2. 自己动手构建 (Build a Computer): 不仅仅是租用云服务,而是通过亲自搭建本地环境来理解AI基础设施的运作原理("Lift the hood, change the oil")。 3. 领域专业知识为王: 利用你对客户/问题的理解(这是你的护城河),而非单纯的编程技能。 4. AI在环 (AI in the Loop): 让AI捕捉并积累你的智力资产,而不是只让人类在环。


第1轮: 跑通本地大脑 (The Local Brain)

交付目标: 在个人电脑上成功运行一个本地大模型(如DeepSeek/Llama 3),并让它能够基于你的私有文档(如PDF/笔记)回答问题。 时间线: 本周内完成 成功标准: - [ ] 成功安装本地推理工具 (如 Ollama, LM Studio 或 vLLM) - [ ] 下载并运行一个适合你硬件的模型 (推荐 7B-14B 参数量级) - [ ] 建立简单的RAG (检索增强生成) 系统,导入至少一份私有文档 - [ ] 成功与模型对话,获得基于该文档的准确回答,且无需联网

你将练习的内容 (来自学习材料): - 基础设施认知: 实践 Jensen 建议的 "Build a computer/Lift the hood",理解算力、模型和数据的基本关系。 - 数据主权: 体验在不上传数据(保护IP/提问隐私)的情况下使用AI。

行动步骤: 1. 环境准备: 下载并安装 Ollama (最简单上手)。 2. 模型获取: 运行 ollama run deepseek-r1:7b (或适合显存的其他模型)。 3. 知识库连接: 安装一个支持本地RAG的客户端 (如 AnythingLLM Desktop 或 [Obsidian + Smart Connections 插件])。 4. 数据测试: 导入一份你工作中"只有你懂"的复杂文档。 5. 验证: 问它一个只有读懂文档才能回答的问题。 6. 交付: 截图你的本地对话界面,展示它基于私有数据做出的回答。

最小必要资源: - 电脑 (推荐 Mac M系列或带NVIDIA显卡的PC,普通轻薄本可用较小模型) - Ollama 软件

交付后 - 反思: 回答以下问题: - 本地运行的速度和质量与云端(如ChatGPT)相比如何? - 你是否理解了"计算"、"内存"和"模型"在这一过程中的角色? - 看到自己的私有数据被AI理解,你产生了什么新的应用灵感? - 为本轮评分: _/10


第2轮: 从对话到行动 (Implicit Programming)

基于: 第1轮 (本地大脑) + Jensen关于"工具使用 (Tool Use)"的观点 新元素: 让AI不仅仅是"说话",而是"做事" (调用工具/API)。 交付目标: 配置你的AI代理,使其能够执行一个简单的操作(如:写文件、查询天气、整理文件夹、发送草稿)。这是从"Chatbot"到"Agent"的跨越。


第3轮: 领域知识注入 (Domain Expertise)

基于: 第2轮 + Jensen关于"领域专家是核心价值"的观点 新元素: System Prompt 深度调优。 交付目标: 将你多年的经验浓缩为一套 System Prompt (系统提示词),让AI模仿你的思维方式去处理任务。不仅是让它"做",而是让它"像专家一样做"。


第4-5轮: 未来路径

第4轮: 集成工作流 - 将这个Agent嵌入到你每天使用最频繁的软件中(如Obsidian, VS Code, 或浏览器),使其成为"AI in the loop"。 第5轮: 规模化实验 (Let 1000 flowers bloom) - 快速复制这个模式,针对你工作中的另外3个痛点,建立专门的小型Agent。


记住

  • 不要等待完美: Jensen 强调"Run, don't walk",先跑起来。
  • 关注问题而非代码: 你的价值在于你提出的"问题"(IP),而不是代码本身。
  • 亲手弄脏手: 只有亲自跑过本地模型,你才真正懂什么是"算力"和"Token"。

准备好交付第1轮了吗?