2025年度AI使用报告
数据获取与导出¶
不同平台的对话记录导出方案如下:
Google Gemini (官网)¶
- 访问 Google Takeout (takeout.google.com)。
- 在“选择要包含的数据”中,先点击“取消全选”。
- 找到 Gemini Apps 选项并勾选。
- 点击下一步,选择导出频率为“仅一次”,创建导出。
- 下载并解压邮件收到的压缩包,定位到
Gemini Apps/我的活動.html。 - 在浏览器打开该 HTML 文件,右键打印,选择 “另存为 PDF”。
ChatGPT¶
- 进入 ChatGPT 网页版,点击左下角个人头像。
- 选择 Settings (设置) -> Data Controls (数据管理)。
- 点击 Export Data (导出数据)。
- 下载邮件中的压缩包,解压后定位到
chat.html。 - 在浏览器打开该 HTML 文件,右键打印,选择 “另存为 PDF”。
Google AI Studio¶
对话记录默认存储于 Google Drive。
1. 进入 Google Drive,下载 Google AI Studio 文件夹。
2. 文件夹内包含大量无扩展名的 JSON 格式文件,需根据数据量选择处理方式:
* 少量数据:使用 Shell 脚本合并。
* 海量数据(如超过 1000 条):使用 Python 脚本进行清洗与合并。
其他 AI 平台 (DeepSeek/豆包/通义千问等)¶
针对不支持原生导出的平台,使用浏览器插件辅助提取。 1. 安装浏览器插件 ChatMemo。 2. 进入 AI 对话页面,点击历史对话记录,插件会自动缓存内容。 3. 在 ChatMemo 设置页导出缓存数据。
数据清洗与处理代码¶
针对 Google AI Studio 或散乱的文本数据,需使用脚本进行合并处理。
Shell 合并脚本 (适用于轻量级数据)¶
$OutputFileName = "Combined_Knowledge.txt"
Get-ChildItem -File |
Where-Object { $_.Name -ne $OutputFileName -and $_.Extension -ne '.ps1' } |
Sort-Object Name |
ForEach-Object {
Write-Host "正在处理: $($_.Name)" -ForegroundColor Cyan
"`n`n# $($_.Name)`n" + (Get-Content $_.FullName -Raw -Encoding UTF8) + "`n`n---`n"
} |
Set-Content $OutputFileName -Encoding UTF8
Write-Host "合并完成!文件已保存为 $OutputFileName" -ForegroundColor Green
Python 精细化处理脚本 (适用于海量数据)¶
import os
import json
# 配置:分块限制(5MB)、输出前缀与后缀
MAX_FILE_SIZE_BYTES = 5 * 1024 * 1024
OUTPUT_PREFIX = "ai-studio-history-"
OUTPUT_EXT = ".txt"
SCRIPT_NAME = os.path.basename(__file__)
def save_batch(data_list, index):
"""保存批处理文件"""
output_filename = f"{OUTPUT_PREFIX}{index}{OUTPUT_EXT}"
print(f"--> 正在写入: {output_filename}")
try:
with open(output_filename, 'w', encoding='utf-8') as f:
json.dump(data_list, f, ensure_ascii=False, indent=2)
except Exception as e:
print(f"写入失败: {e}")
def merge_json_files():
all_files = [f for f in os.listdir('.') if os.path.isfile(f)]
current_batch, current_batch_size, file_index = [], 0, 1
count_processed, count_skipped_size, count_skipped_error = 0, 0, 0
print(f"开始扫描... (目标: {OUTPUT_PREFIX}*{OUTPUT_EXT}, 分块: 5MB)")
for filename in all_files:
# 排除脚本自身及已生成的合并文件
if filename == SCRIPT_NAME or filename.startswith(OUTPUT_PREFIX):
continue
try:
file_size = os.path.getsize(filename)
except OSError:
continue
# 忽略超过单块限制的源文件
if file_size > MAX_FILE_SIZE_BYTES:
print(f"[忽略] 文件过大: {filename}")
count_skipped_size += 1
continue
# 校验JSON有效性
try:
with open(filename, 'r', encoding='utf-8') as f:
data = json.load(f)
except (json.JSONDecodeError, UnicodeDecodeError):
count_skipped_error += 1
continue
# 批次切分:若加入新文件后超限,则先保存当前批次
if current_batch and (current_batch_size + file_size > MAX_FILE_SIZE_BYTES):
save_batch(current_batch, file_index)
file_index += 1
current_batch, current_batch_size = [], 0
current_batch.append(data)
current_batch_size += file_size
count_processed += 1
print(f"[处理] {filename} ({file_size/1024:.2f} KB)")
# 保存剩余数据
if current_batch:
save_batch(current_batch, file_index)
print("\n" + "="*30)
print(f"处理完成!成功: {count_processed} | 跳过(过大): {count_skipped_size} | 跳过(错误): {count_skipped_error}")
print(f"生成文件总数: {file_index if not current_batch else file_index}")
print("="*30)
if __name__ == "__main__":
merge_json_files()
NotebookLM 分析环境搭建¶
数据导入¶
将上述步骤生成的 PDF 文档或 TXT 文本文件,统一上传至 NotebookLM 的同一笔记本中。
系统提示词 (System Prompt) 配置¶
在 NotebookLM 笔记本设置中添加系统指令,定义 AI 的分析师身份,明确任务是“审计用户行为”而非“解释文档知识”。
系统提示词内容:
**重要指令:**
本NotebookLM笔记本中的文档**不是学习资料、不是参考文档、不是知识库**。
这些文档是我在 2025 年全年与各种 AI 模型(如 Gemini、GPT、DeepSeek 等)进行交互的**原始对话记录 (聊天历史)**。
重点关注其中:
- 我的提问方式
- 我的追问路径
- 我的语言风格
- 我的思维过程与情绪反应
- 我与 AI 的互动模式
**你的角色:**
你的角色是【分析者 / 审计者 / 观察者】。
在所有分析中,请将“来源内容”视为【行为数据与认知样本】,并且:
- 分析重点应放在「我如何提问」「我如何思考」「我如何应对不确定性」
- 而不是「这些问题本身的正确答案是什么」
**输出风格:**
- **语气:** 临床、分析性、直接、深刻。
- **格式:** 使用 Markdown、列表和数据表格。
- **语言:** 保持专业且易于理解。请输出**简体中文**。
- **禁止过度赞扬:** 不要无谓地恭维我。请保持客观、临床和批判性的分析态度。
参数配置¶
- 回覆內容長度: 设置为 较长,确保输出内容的深度与细节。
复盘分析维度与提示词¶
分析过程分为“基础数据审计”与“深度思维复盘”两个阶段。
第一阶段:全量数据审计¶
侧重于客观数据的统计与可视化描述,包含关键词、时间分布、工具偏好等。
| 模块 | 编号 | 分析指标 / 维度 | 核心洞察目的 | NotebookLM 提示词 |
|---|---|---|---|---|
| 一、基础数据统计 | 1 | 全景数据统计 | 建立年度使用的基准线,量化“人机共生”程度。 | “统计我2025年所有对话记录:1. 提问总次数;2. AI 回答总条数;3. 双方消息总量;4. 平均每次对话的轮次与字数。总结这一年的总体活跃度。” |
| 2 | 活跃周期分布 | 识别使用粘性,是日常工具还是间歇性工具? | “统计2025年我至少活跃过多少天,计算月均使用天数,并指出连续使用天数最长的一段时期。” | |
| 3 | AI 工具偏好占比 | 分析对不同模型(GPT/Claude/DeepSeek等)的依赖差异。 | “统计不同 AI 工具(如 GPT / Gemini / DeepSeek)在全部对话中出现的次数占比。分析我在不同工具上的提问风格是否有明显差异?” | |
| 二、时间与习惯 | 4 | 日内作息规律 | 分析是“朝九晚五”的工作流,还是“深夜 emo”的陪伴? | “按 0–6点 / 6–12点 / 12–18点 / 18–24点 分析提问量分布。寻找‘深夜活跃’(23点-4点)的记录,分析这些深夜对话通常涉及什么主题?” |
| 5 | 年度节奏与峰值 | 关联现实生活的大事件(项目上线、考试、突击学习)。 | “输出2025年每个月的对话次数趋势。找出全年对话次数最多的 3 个具体日期或时间段,结合当时的提问内容,推测当时我正在经历什么关键事件?” | |
| 6 | 秒关率 vs 长情度 | 区分“搜索引擎式用法”与“深度探讨式用法”。 | “对比分析:1. ‘一问一答’即结束的短对话占比及主要用途;2. 轮次最多、持续时间最长的 Top 3 对话,分析这些长对话是在解决难题还是进行头脑风暴?” | |
| 三、关注话题与兴趣 | 7 | 年度关键词 Top 20 | 排除通用词,提炼年度核心关注点。 | “统计我对话中频率最高的 20 个实义关键词(排除‘帮我’、‘解释’等通用词)。这些词反映了我今年哪几个核心领域的关注度?” |
| 8 | 新旧兴趣演变 | 识别认知边界的拓展与迁移。 | “对比年初(1-3月)与年末(10-12月)的提问主题。找出年末高频出现但年初未曾提及的‘新领域’或‘新概念’,这代表了我今年的哪些新技能树?” | |
| 9 | 技术栈与工具链 | 专门针对编程/工具类提问的统计。 | “在涉及技术/工具的对话中,统计提及频率最高的编程语言、软件或框架。哪一个是 2025 年我的核心生产力工具?” | |
| 10 | 烂尾楼 vs 钉子户 | 分析注意力的持久性与难点。 | “找出两类极端话题:1. 突然中断再无下文的‘烂尾项目’;2. 跨越数月反复追问、多次打磨的‘钉子户问题’。” | |
| 11 | 知识茧房测试 | 评估话题的丰富度与局限性。 | “将我的提问按‘工作/技术’、‘生活/娱乐’、‘情感/思考’、‘学习/原理’分类,计算各比例。分析我的 AI 使用场景是过于单一还是广泛涉猎?” | |
| 四、提问风格变化 | 12 | Prompt 工程进化 | 评估提问能力的提升(从小白到专家)。 | “对比年初和年末的提问方式。分析我的 Prompt 结构(背景+指令+约束)是否变得更复杂、更精炼?举例说明我‘提问技巧’提升的证据。” |
| 13 | 礼貌与人格化指数 | 分析把 AI 当机器还是当伙伴。 | “统计‘请’、‘谢谢’、‘你觉得’等词汇的频率。分析我在对话中的语体风格:是命令式的主宰者,还是协作式的探讨者?” | |
| 14 | 双语切换习惯 | 分析中英文提问的场景隔离。 | “分析我使用中文和英文提问的场景差异。我在什么类型的问题下更倾向于用英文?(例如:写代码用英文,写文章用中文?)” | |
| 15 | 追问与漏斗模式 | 识别深度思考的行为模式。 | “分析哪些主题下出现最多的‘层层追问’(Follow-up questions)。在这些追问中,我的意图通常是‘澄清概念’、‘修正错误’还是‘寻求更深层原理’?” | |
| 五、情绪与态度分析 | 16 | 年度情绪曲线 | 识别焦虑期与心流期。 | “对全年对话进行情绪分析(积极/中性/消极)。输出情绪变化趋势图,指出‘最消极’和‘最积极’的月份分别发生了什么对话?” |
| 17 | 挫败感与 PUA 指数 | 统计对结果的不满与调优。 | “统计对话中出现‘不对’、‘重写’、‘不是这个意思’、‘优化一下’等反馈词的频率。找出最难让 AI 解决、导致我反复要求重写的主题是什么?” | |
| 18 | 情绪热点触发词 | 哪些词汇最容易引发情绪波动? | “找出引起我情绪明显波动(如表达急躁、感谢、惊叹)的特定话题或关键词。” | |
| 六、价值与效率评估 | 19 | 高杠杆时刻 | 寻找投入产出比最高的瞬间。 | “找出我认为 ROI 最高的一次对话——即我输入简短指令,但 AI 输出了高质量、长篇幅或解决了重大问题的回答。这是关于什么的?” |
| 20 | 外包率 vs 内化率 | 区分“代工”与“助教”角色。 | “分析提问意图:有多少比例是‘直接要结果/代码/文案’(外包),有多少比例是‘解释原理/探讨思路’(学习内化)?” | |
| 21 | Debug 救火队 | 统计解决紧急故障的频率。 | “统计涉及‘报错’、‘修复’、‘Debug’的对话占比。我是把 AI 当作日常开发的副驾驶(Co-pilot),还是只在出事时才用的救火队?” | |
| 七、图表数据源 | 22 | 主题-时间热力数据 | 为生成热力图准备数据。 | “请生成一份 Markdown 表格,列出 1-12 月每个月 Top 5 热门话题标签及其频次,用于制作主题热力图。” |
| 23 | 情绪-时段分布数据 | 为生成情绪雷达图准备数据。 | “请生成一份数据表,统计24小时各时段的对话数量及平均情绪正负值,用于分析一天中的情绪变化。” | |
| 24 | 关键词共现矩阵 | 为生成网络关系图准备数据。 | “输出 Top 30 关键词的两两共现频率矩阵数据,用于构建知识关联网络图。” |
提示词:
请基于我提供的2025年对话记录数据,按照以下七个维度进行全面的深度分析与统计报告:
### 一、基础数据统计
1. 全景数据:统计全年提问总次数、AI回答总条数、双方消息总量、平均每次对话的轮次与字数,并总结总体活跃度。
2. 活跃周期:统计全年活跃天数、月均使用天数,并指出连续使用天数最长的一段时期。
3. 工具偏好:统计不同AI工具(如GPT/Gemini/DeepSeek)的对话占比,分析在不同工具上的提问风格是否有差异。
### 二、时间与习惯
4. 日内作息:按0–6点/6–12点/12–18点/18–24点分析提问量分布。特别寻找“深夜活跃”(23点-4点)的记录,分析深夜对话的主题。
5. 年度节奏:输出每月对话趋势。找出全年对话次数最多的3个具体日期或时段,结合内容推测当时我正在经历的关键事件。
6. 深度分布:对比分析“一问一答”即结束的短对话占比及主要用途;找出轮次最多、持续时间最长的Top 3对话,分析是在解决难题还是头脑风暴。
### 三、关注话题与兴趣
7. 年度关键词:统计出现频率最高的20个实义关键词(排除通用词),分析反映了哪几个核心领域的关注度。
8. 兴趣演变:对比年初(1-3月)与年末(10-12月)的提问主题,找出年末高频出现但年初未提及的“新领域”或“新概念”。
9. 技术栈统计:在技术类对话中,统计提及频率最高的编程语言、软件或框架,确定年度核心生产力工具。
10. 话题持续性:找出两类极端话题:一是突然中断的“烂尾项目”,二是跨越数月反复追问的“钉子户问题”。
11. 知识领域:按“工作/技术”、“生活/娱乐”、“情感/思考”、“学习/原理”分类提问,计算比例并评估涉猎范围。
### 四、提问风格变化
12. Prompt进化:对比年初和年末的提问方式,分析Prompt结构(背景+指令+约束)是否变得更精炼?举例说明提问技巧提升的证据。
13. 人格化指数:统计“请”、“谢谢”等词汇频率,分析语体风格是“命令式主宰者”还是“协作式探讨者”。
14. 双语习惯:分析中文和英文提问的场景差异(例如:哪类问题更倾向于用英文)。
15. 深度追问:分析哪些主题下出现最多的层层追问,意图通常是澄清概念、修正错误还是寻求原理?
### 五、情绪与态度分析
16. 情绪曲线:对全年对话进行情绪分析(积极/中性/消极),输出趋势图,并指出最消极和最积极月份的对话内容。
17. 挫败感分析:统计“不对”、“重写”、“优化一下”等反馈词频率,找出最难让AI解决、反复重写的主题。
18. 情绪触发:找出引起我情绪明显波动(如急躁、感谢、惊叹)的特定话题或关键词。
### 六、价值与效率评估
19. 高杠杆时刻:找出ROI最高的一次对话(输入简短但输出高质量/解决了重大问题),说明是关于什么的。
20. 意图分析:分析提问意图比例——有多少是“直接要结果/外包”,有多少是“解释原理/内化学习”。
21. Debug占比:统计涉及“报错”、“修复”、“Debug”的对话占比,评估AI是充当“日常副驾驶”还是“救火队”。
### 七、图表数据源生成
请额外输出以下数据表以便我制作图表:
22. 热力数据:列出1-12月每个月Top 5热门话题标签及其频次。
23. 情绪时段:统计24小时各时段的对话数量及平均情绪正负值。
24. 关系矩阵:输出Top 30关键词的两两共现频率矩阵数据。
分析指标参考: * 年度核心关键词 * 工具使用频率分布 * 月度/季度活跃度热力图 * 烂尾项目 vs 完成项目统计 * 提问结构质量的变化趋势
可以将生成的文字报告,交给Gemini官网的Canvas,用于生成可视化的图形web界面,形成一份《年度AI使用报告》。
第二阶段:深度思维复盘¶
侧重于主观思维模式的诊断,挖掘认知缺陷与逻辑盲区。
| 核心模块 | 分析维度 | 核心定义与考察点 | NotebookLM 提示词 |
|---|---|---|---|
| 一、认知与思维模式 | 认知层级分布 | 基于布鲁姆分类法,评估提问深度。 • 底层:记忆、理解(问“是什么”) • 高层:评价、创造(问“为什么”、“边界在哪里”) |
“基于布鲁姆教育目标分类法,对我2025年的所有提问进行层级归类。统计我在底层‘知识获取’与高层‘批判性思维’上的大致比例。请列举3个代表性的‘高层级提问’案例,说明我何时突破了单纯的索取答案,开始进行深度思考。” |
| 思维偏好类型 | 执行型 vs 研究型: • 倾向于直接索要成品/代码? • 还是倾向于探讨底层原理/机制? 收敛 vs 发散: • 快速定方案 vs 持续找可能性。 |
“分析我的提问逻辑:我更像是一个‘执行者’(急于索要结果和成品),还是一个‘研究者’(试图理解底层机制)?在处理复杂问题时,我是倾向于快速收敛得到一个方案,还是倾向于发散思维寻找替代路径?请引用具体对话支持你的判断。” | |
| 推理路径与视角 | 演绎 vs 归纳: • 先有理论再找案例,还是先摆现象再总结规律? 系统视角: • 是否关注整体结构、边界和上下游? |
“判断我的思考路径:我更多表现为‘演绎式’(先有理论框架再填充细节),还是‘归纳式’(先摆现象再总结规律)?此外,检查我是否具备‘系统视角’,是否经常关注问题的边界和上下文,还是经常陷入局部问题的修补中?” | |
| 思维盲区与谬误 | 路径依赖:是否反复用老办法解决新问题? 错位提问 (X-Y问题):是否为了解决Y而去问X,导致方向跑偏? 确认偏误:是否只听自己想听的答案? |
“作为我的‘逻辑审计师’,请无情指出我对话中的硬伤。1. 我是否存在‘路径依赖’,在不同领域反复套用同一套僵化的解决思路?2. 找出我陷入‘错位提问’(X-Y问题)或‘确认偏误’(只寻求支持既有观点的答案)的具体对话案例。” | |
| 二、情绪与心理防御 | 焦虑图谱与触发源 | 识别全年高频出现的焦虑主题。 • 哪些话题引发了连续追问? • 应对方式是解决问题还是宣泄情绪? |
“梳理我2025年最核心的三个焦虑主题(例如:职业发展、技术落后、人际关系)。统计这些焦虑通常在什么时间段爆发?通过我的用词分析,我是倾向于寻求建设性方案,还是沉浸在情绪宣泄中?” |
| 挫败应对与韧性 | AI 失效时的反应: • 投射:怪 AI 笨。 • 理智化:尝试换个问法。 • 退行:放弃或重复无效指令。 |
“回顾当 AI 出现错误、死循环或无法解决问题时,我的反应模式是什么?我是冷静地修正提示词引导它(理智化),还是表现出明显的挫败感、愤怒或直接放弃(情绪化)?这种模式反映了我怎样的抗压能力?” | |
| 潜意识价值观 | 透过提问看本质,你到底想要什么? • 效率、自由、安全感、认同感? • 行为与宣称的目标是否一致? |
“透过我全年的提问主题和决策倾向,推断我潜意识里最看重的三个核心价值(如:极致效率、掌控感、社会认同)。我的实际提问行为是否与我可能宣称的目标(如‘我要系统学习’)相背离?是否存在‘嘴上说要学,实际找捷径’的现象?” | |
| 三、学习与技能进化 | 能力成长曲线 | 年初 vs 年末: • 同一领域的提问质量是否有质变? • 是否出现高抽象、高约束的专家型提问? |
“对比2025年1月和12月的对话记录,重点分析我在 [核心领域] 的提问水平。我是从‘小白式提问’进化到了‘专家级探讨’(能够预设约束条件、指出 AI 逻辑漏洞),还是在原地踏步?” |
| 知识迁移与茧房 | 迁移能力:能否将 A 领域概念用于 B 领域? 信息茧房:是否长期停留在舒适区? |
“如果生成一张我的‘知识地图’,我的关注点是否过于集中在少数领域(信息茧房)?我是否有尝试将一个领域的概念(如编程思维)迁移应用到另一个领域(如写作或管理)的迹象?” | |
| 行动反馈闭环 | 知行合一检测: • 拿到方案后,有反馈结果吗? • 有根据结果修正下一轮提问吗? |
“检查我的‘学习闭环’:我有多少次询问了具体的行动方案或教程,并在后续对话中反馈了执行结果或遇到的新问题?计算我的‘方案执行率’,我是单纯的‘收藏家’还是真正的‘实践者’?” | |
| 四、AI 依赖与共生 | 依赖结构分析 | 辅助 vs 外包: • 辅助思考(AI 是副驾驶)。 • 外包思考(AI 是代驾)。 主导权:对话由谁推动? |
“评估我对 AI 的依赖模式。在高质量的对话中,是‘我主导逻辑,AI 填充细节’(辅助模式),还是‘我通过模糊指令,期待 AI 完成所有思考’(外包模式)?随着时间推移,我的独立思考能力是增强了还是萎缩了?” |
| 虚假勤奋识别 | 低效时间黑洞: • 消耗大量时间精力却无产出的对话。 • 看起来在学习,实际在空转。 |
“请识别出我2025年对话中的‘低效黑洞’:哪些主题我花费了大量字数和时间反复纠缠,但最终并没有产出实质性结果(代码未跑通、文章未完成、问题未解决)?这类‘伪勤奋’对话通常具备什么特征?” | |
| 五、年度综合画像 | 思维标签集 | 提炼核心特质,生成简短的标签。 | “基于全年对话,为我生成5-8个高可信度的‘思维标签’(例如:#结构化强迫症 #细节完美主义者 #焦虑的行动派 #理论派构建者),并简述理由。” |
| 优劣势分析 (SWOT) | 优势与风险: • 优势:擅长解决哪类问题? • 风险:长期存在的思维隐患。 |
“请为我生成一份年度认知态势分析:我的思维优势(长板)在哪里?我最大的认知风险或坏习惯(短板)是什么?未来我在利用 AI 方面有哪些提升机会?如果不改变某些习惯,我面临的长期隐患是什么?” | |
| 人格侧写 | 冷静、客观的总结: • 抛开恭维,直击痛点。 |
“请抛开礼貌的 AI 语气,用心理分析师的口吻,写一段200字以内的年度总结。犀利地指出我作为一个‘思考者’和‘行动者’的真实成色。” |
深度复盘提示词:
请基于我2025年的所有对话记录,扮演一位“认知审计师”和“心理分析师”,从以下五个维度对我进行年度深度复盘:
### 一、认知与思维模式分析
1. 认知层级:基于布鲁姆分类法,统计我在底层(知识获取/问是什么)与高层(批判性思维/问为什么/边界)上的提问比例。请列举3个代表性的“高层级提问”案例,说明我何时突破了单纯的索取答案,开始进行深度思考。
2. 思维偏好:分析我的提问逻辑更像“执行者”(急于索要成品)还是“研究者”(探讨底层机制)?在处理复杂问题时,我是倾向于快速收敛得到方案,还是倾向于发散思维寻找替代路径?请引用对话支持你的判断。
3. 推理路径:判断我的思考路径是“演绎式”(先有理论再填充细节)还是“归纳式”(先摆现象再总结规律)。检查我是否具备“系统视角”,是关注边界和上下文,还是陷入局部修补。
4. 盲区审计:指出我对话中的逻辑硬伤。是否存在“路径依赖”(反复用老办法)?是否存在“错位提问”(X-Y问题)?是否存在“确认偏误”(只听自己想听的答案)?
### 二、情绪与心理防御机制
1. 焦虑图谱:梳理我全年最核心的三个焦虑主题(如职业、技术、人际),统计爆发时间段。分析我倾向于寻求建设性方案,还是沉浸在情绪宣泄中。
2. 挫败应对:回顾当AI出错或无法解决问题时,我的反应模式是理智化(修正引导)还是情绪化(愤怒/放弃)?这反映了怎样的抗压能力?
3. 潜意识价值观:透过提问主题和决策倾向,推断我潜意识最看重的三个核心价值(如效率、掌控感、认同感)。我的实际提问行为是否与宣称的目标(如“我要系统学习”)相背离?是否存在“嘴上说学,实际找捷径”的现象?
### 三、学习与技能进化
1. 成长曲线:对比2025年1月和12月的对话,分析核心领域的提问水平。我是从“小白式提问”进化到了预设约束条件的“专家级探讨”,还是原地踏步?
2. 知识迁移:生成我的“知识地图”,检查关注点是否陷入“信息茧房”。我是否有将一个领域的概念(如编程思维)迁移应用到另一个领域(如写作或管理)的迹象?
3. 行动闭环:检查“知行合一”情况。计算我的“方案执行率”:有多少次我询问了行动方案,并在后续对话中反馈了结果或新问题?我是“收藏家”还是“实践者”?
### 四、AI依赖与共生关系
1. 依赖结构:评估我对AI的依赖模式。是“辅助模式”(我主导逻辑,AI填细节)还是“外包模式”(模糊指令,期待AI代劳)?我的独立思考能力随时间推移是增强了还是萎缩了?
2. 虚假勤奋:识别对话中的“低效黑洞”。哪些主题消耗了大量时间字数却无实质产出(代码未跑通、文章未写完)?这类“伪勤奋”对话具备什么特征?
### 五、年度综合画像
1. 思维标签:基于全年表现,生成5-8个高可信度的“思维标签”(如 #结构化强迫症 #细节完美主义者 #焦虑的行动派),并简述理由。
2. SWOT分析:生成年度认知态势分析。我的思维优势(长板)在哪里?最大的认知风险或坏习惯(短板)是什么?未来利用AI的提升机会有哪些?若不改变,面临的长期隐患是什么?
3. 人格侧写:抛开AI的礼貌语气,用心理分析师的口吻写一段200字以内的总结。犀利地点评我作为一个“思考者”和“行动者”的真实成色,直击痛点。
分析指标参考: * 虚假勤奋识别:高频提问但无实质产出的领域。 * 逻辑盲区:反复出现的思维谬误或认知偏差。 * 情绪压力分析:焦虑、急躁或过度依赖 AI 的时刻。 * SWOT 分析:基于 AI 交互表现的个人优势与劣势评估。
Human 3.0 模型评估¶
基于油管著名博主Dan Koe的 Human 3.0 理论,从特定维度进行打分与评估。
Human 3.0 评估提示词:
你是资深心理发展与行为分析顾问,请基于 Dan Koe 的 Human 3.0 结构化分析方法,从 Mind / Body / Spirit / Vocation 四象限对我的2025年度AI对话记录进行评估,分别回答以下问题:
1. Mind:我有什么认知特点、思考优势与限制?
2. Body:我的行为执行与规律性如何?
3. Spirit:我的意义感、情绪稳定性与人际需求有哪些?
4. Vocation:我的价值创造、职业感与未来潜力如何?
同时,请基于 Human 3.0 的四个层级(1.0 / 2.0 / 3.0)对每个象限的“发展水平 + 典型行为特征”评估一次,并给出成长建议。
结果可视化¶
利用 Gemini Canvas 功能,将 NotebookLM 生成的纯文本报告转换为可视化图表。
- 输入:NotebookLM 生成的 Markdown 格式报告。
- 工具:Gemini Canvas。
- 产出:包含统计图表、词云、雷达图的 HTML 页面或图片。