跳转至

2025年度AI使用报告

数据获取与导出

不同平台的对话记录导出方案如下:

Google Gemini (官网)

  1. 访问 Google Takeout (takeout.google.com)。
  2. 在“选择要包含的数据”中,先点击“取消全选”。
  3. 找到 Gemini Apps 选项并勾选。
  4. 点击下一步,选择导出频率为“仅一次”,创建导出。
  5. 下载并解压邮件收到的压缩包,定位到 Gemini Apps/我的活動.html
  6. 在浏览器打开该 HTML 文件,右键打印,选择 “另存为 PDF”

ChatGPT

  1. 进入 ChatGPT 网页版,点击左下角个人头像。
  2. 选择 Settings (设置) -> Data Controls (数据管理)
  3. 点击 Export Data (导出数据)
  4. 下载邮件中的压缩包,解压后定位到 chat.html
  5. 在浏览器打开该 HTML 文件,右键打印,选择 “另存为 PDF”

Google AI Studio

对话记录默认存储于 Google Drive。 1. 进入 Google Drive,下载 Google AI Studio 文件夹。 2. 文件夹内包含大量无扩展名的 JSON 格式文件,需根据数据量选择处理方式: * 少量数据:使用 Shell 脚本合并。 * 海量数据(如超过 1000 条):使用 Python 脚本进行清洗与合并。

其他 AI 平台 (DeepSeek/豆包/通义千问等)

针对不支持原生导出的平台,使用浏览器插件辅助提取。 1. 安装浏览器插件 ChatMemo。 2. 进入 AI 对话页面,点击历史对话记录,插件会自动缓存内容。 3. 在 ChatMemo 设置页导出缓存数据。


数据清洗与处理代码

针对 Google AI Studio 或散乱的文本数据,需使用脚本进行合并处理。

Shell 合并脚本 (适用于轻量级数据)

$OutputFileName = "Combined_Knowledge.txt"

Get-ChildItem -File | 
Where-Object { $_.Name -ne $OutputFileName -and $_.Extension -ne '.ps1' } | 
Sort-Object Name | 
ForEach-Object {
    Write-Host "正在处理: $($_.Name)" -ForegroundColor Cyan
    "`n`n# $($_.Name)`n" + (Get-Content $_.FullName -Raw -Encoding UTF8) + "`n`n---`n"
} | 
Set-Content $OutputFileName -Encoding UTF8

Write-Host "合并完成!文件已保存为 $OutputFileName" -ForegroundColor Green

Python 精细化处理脚本 (适用于海量数据)

import os
import json

# 配置:分块限制(5MB)、输出前缀与后缀
MAX_FILE_SIZE_BYTES = 5 * 1024 * 1024
OUTPUT_PREFIX = "ai-studio-history-"
OUTPUT_EXT = ".txt"
SCRIPT_NAME = os.path.basename(__file__)

def save_batch(data_list, index):
    """保存批处理文件"""
    output_filename = f"{OUTPUT_PREFIX}{index}{OUTPUT_EXT}"
    print(f"--> 正在写入: {output_filename}")
    try:
        with open(output_filename, 'w', encoding='utf-8') as f:
            json.dump(data_list, f, ensure_ascii=False, indent=2)
    except Exception as e:
        print(f"写入失败: {e}")

def merge_json_files():
    all_files = [f for f in os.listdir('.') if os.path.isfile(f)]
    current_batch, current_batch_size, file_index = [], 0, 1
    count_processed, count_skipped_size, count_skipped_error = 0, 0, 0

    print(f"开始扫描... (目标: {OUTPUT_PREFIX}*{OUTPUT_EXT}, 分块: 5MB)")

    for filename in all_files:
        # 排除脚本自身及已生成的合并文件
        if filename == SCRIPT_NAME or filename.startswith(OUTPUT_PREFIX):
            continue

        try:
            file_size = os.path.getsize(filename)
        except OSError:
            continue

        # 忽略超过单块限制的源文件
        if file_size > MAX_FILE_SIZE_BYTES:
            print(f"[忽略] 文件过大: {filename}")
            count_skipped_size += 1
            continue

        # 校验JSON有效性
        try:
            with open(filename, 'r', encoding='utf-8') as f:
                data = json.load(f)
        except (json.JSONDecodeError, UnicodeDecodeError):
            count_skipped_error += 1
            continue

        # 批次切分:若加入新文件后超限,则先保存当前批次
        if current_batch and (current_batch_size + file_size > MAX_FILE_SIZE_BYTES):
            save_batch(current_batch, file_index)
            file_index += 1
            current_batch, current_batch_size = [], 0

        current_batch.append(data)
        current_batch_size += file_size
        count_processed += 1
        print(f"[处理] {filename} ({file_size/1024:.2f} KB)")

    # 保存剩余数据
    if current_batch:
        save_batch(current_batch, file_index)

    print("\n" + "="*30)
    print(f"处理完成!成功: {count_processed} | 跳过(过大): {count_skipped_size} | 跳过(错误): {count_skipped_error}")
    print(f"生成文件总数: {file_index if not current_batch else file_index}")
    print("="*30)

if __name__ == "__main__":
    merge_json_files()

NotebookLM 分析环境搭建

数据导入

将上述步骤生成的 PDF 文档或 TXT 文本文件,统一上传至 NotebookLM 的同一笔记本中。

系统提示词 (System Prompt) 配置

在 NotebookLM 笔记本设置中添加系统指令,定义 AI 的分析师身份,明确任务是“审计用户行为”而非“解释文档知识”。

系统提示词内容:

**重要指令:**
本NotebookLM笔记本中的文档**不是学习资料、不是参考文档、不是知识库**。
这些文档是我在 2025 年全年与各种 AI 模型(如 Gemini、GPT、DeepSeek 等)进行交互的**原始对话记录 (聊天历史)**。
重点关注其中:
- 我的提问方式
- 我的追问路径
- 我的语言风格
- 我的思维过程与情绪反应
- 我与 AI 的互动模式

**你的角色:**
你的角色是【分析者 / 审计者 / 观察者】。
在所有分析中,请将“来源内容”视为【行为数据与认知样本】,并且:
- 分析重点应放在「我如何提问」「我如何思考」「我如何应对不确定性」
- 而不是「这些问题本身的正确答案是什么」

**输出风格:**
-   **语气:** 临床、分析性、直接、深刻。
-   **格式:** 使用 Markdown、列表和数据表格。
-   **语言:** 保持专业且易于理解。请输出**简体中文**。
-   **禁止过度赞扬:** 不要无谓地恭维我。请保持客观、临床和批判性的分析态度。

参数配置

  • 回覆內容長度: 设置为 较长,确保输出内容的深度与细节。

复盘分析维度与提示词

分析过程分为“基础数据审计”与“深度思维复盘”两个阶段。

第一阶段:全量数据审计

侧重于客观数据的统计与可视化描述,包含关键词、时间分布、工具偏好等。

模块 编号 分析指标 / 维度 核心洞察目的 NotebookLM 提示词
一、基础数据统计 1 全景数据统计 建立年度使用的基准线,量化“人机共生”程度。 “统计我2025年所有对话记录:1. 提问总次数;2. AI 回答总条数;3. 双方消息总量;4. 平均每次对话的轮次与字数。总结这一年的总体活跃度。”
2 活跃周期分布 识别使用粘性,是日常工具还是间歇性工具? “统计2025年我至少活跃过多少天,计算月均使用天数,并指出连续使用天数最长的一段时期。”
3 AI 工具偏好占比 分析对不同模型(GPT/Claude/DeepSeek等)的依赖差异。 “统计不同 AI 工具(如 GPT / Gemini / DeepSeek)在全部对话中出现的次数占比。分析我在不同工具上的提问风格是否有明显差异?”
二、时间与习惯 4 日内作息规律 分析是“朝九晚五”的工作流,还是“深夜 emo”的陪伴? “按 0–6点 / 6–12点 / 12–18点 / 18–24点 分析提问量分布。寻找‘深夜活跃’(23点-4点)的记录,分析这些深夜对话通常涉及什么主题?”
5 年度节奏与峰值 关联现实生活的大事件(项目上线、考试、突击学习)。 “输出2025年每个月的对话次数趋势。找出全年对话次数最多的 3 个具体日期或时间段,结合当时的提问内容,推测当时我正在经历什么关键事件?”
6 秒关率 vs 长情度 区分“搜索引擎式用法”与“深度探讨式用法”。 “对比分析:1. ‘一问一答’即结束的短对话占比及主要用途;2. 轮次最多、持续时间最长的 Top 3 对话,分析这些长对话是在解决难题还是进行头脑风暴?”
三、关注话题与兴趣 7 年度关键词 Top 20 排除通用词,提炼年度核心关注点。 “统计我对话中频率最高的 20 个实义关键词(排除‘帮我’、‘解释’等通用词)。这些词反映了我今年哪几个核心领域的关注度?”
8 新旧兴趣演变 识别认知边界的拓展与迁移。 “对比年初(1-3月)与年末(10-12月)的提问主题。找出年末高频出现但年初未曾提及的‘新领域’或‘新概念’,这代表了我今年的哪些新技能树?”
9 技术栈与工具链 专门针对编程/工具类提问的统计。 “在涉及技术/工具的对话中,统计提及频率最高的编程语言、软件或框架。哪一个是 2025 年我的核心生产力工具?”
10 烂尾楼 vs 钉子户 分析注意力的持久性与难点。 “找出两类极端话题:1. 突然中断再无下文的‘烂尾项目’;2. 跨越数月反复追问、多次打磨的‘钉子户问题’。”
11 知识茧房测试 评估话题的丰富度与局限性。 “将我的提问按‘工作/技术’、‘生活/娱乐’、‘情感/思考’、‘学习/原理’分类,计算各比例。分析我的 AI 使用场景是过于单一还是广泛涉猎?”
四、提问风格变化 12 Prompt 工程进化 评估提问能力的提升(从小白到专家)。 “对比年初和年末的提问方式。分析我的 Prompt 结构(背景+指令+约束)是否变得更复杂、更精炼?举例说明我‘提问技巧’提升的证据。”
13 礼貌与人格化指数 分析把 AI 当机器还是当伙伴。 “统计‘请’、‘谢谢’、‘你觉得’等词汇的频率。分析我在对话中的语体风格:是命令式的主宰者,还是协作式的探讨者?”
14 双语切换习惯 分析中英文提问的场景隔离。 “分析我使用中文和英文提问的场景差异。我在什么类型的问题下更倾向于用英文?(例如:写代码用英文,写文章用中文?)”
15 追问与漏斗模式 识别深度思考的行为模式。 “分析哪些主题下出现最多的‘层层追问’(Follow-up questions)。在这些追问中,我的意图通常是‘澄清概念’、‘修正错误’还是‘寻求更深层原理’?”
五、情绪与态度分析 16 年度情绪曲线 识别焦虑期与心流期。 “对全年对话进行情绪分析(积极/中性/消极)。输出情绪变化趋势图,指出‘最消极’和‘最积极’的月份分别发生了什么对话?”
17 挫败感与 PUA 指数 统计对结果的不满与调优。 “统计对话中出现‘不对’、‘重写’、‘不是这个意思’、‘优化一下’等反馈词的频率。找出最难让 AI 解决、导致我反复要求重写的主题是什么?”
18 情绪热点触发词 哪些词汇最容易引发情绪波动? “找出引起我情绪明显波动(如表达急躁、感谢、惊叹)的特定话题或关键词。”
六、价值与效率评估 19 高杠杆时刻 寻找投入产出比最高的瞬间。 “找出我认为 ROI 最高的一次对话——即我输入简短指令,但 AI 输出了高质量、长篇幅或解决了重大问题的回答。这是关于什么的?”
20 外包率 vs 内化率 区分“代工”与“助教”角色。 “分析提问意图:有多少比例是‘直接要结果/代码/文案’(外包),有多少比例是‘解释原理/探讨思路’(学习内化)?”
21 Debug 救火队 统计解决紧急故障的频率。 “统计涉及‘报错’、‘修复’、‘Debug’的对话占比。我是把 AI 当作日常开发的副驾驶(Co-pilot),还是只在出事时才用的救火队?”
七、图表数据源 22 主题-时间热力数据 为生成热力图准备数据。 “请生成一份 Markdown 表格,列出 1-12 月每个月 Top 5 热门话题标签及其频次,用于制作主题热力图。”
23 情绪-时段分布数据 为生成情绪雷达图准备数据。 “请生成一份数据表,统计24小时各时段的对话数量及平均情绪正负值,用于分析一天中的情绪变化。”
24 关键词共现矩阵 为生成网络关系图准备数据。 “输出 Top 30 关键词的两两共现频率矩阵数据,用于构建知识关联网络图。”

提示词:

请基于我提供的2025年对话记录数据,按照以下七个维度进行全面的深度分析与统计报告:

### 一、基础数据统计
1. 全景数据:统计全年提问总次数、AI回答总条数、双方消息总量、平均每次对话的轮次与字数,并总结总体活跃度。
2. 活跃周期:统计全年活跃天数、月均使用天数,并指出连续使用天数最长的一段时期。
3. 工具偏好:统计不同AI工具(如GPT/Gemini/DeepSeek)的对话占比,分析在不同工具上的提问风格是否有差异。

### 二、时间与习惯
4. 日内作息:按0–6点/6–12点/12–18点/18–24点分析提问量分布。特别寻找“深夜活跃”(23点-4点)的记录,分析深夜对话的主题。
5. 年度节奏:输出每月对话趋势。找出全年对话次数最多的3个具体日期或时段,结合内容推测当时我正在经历的关键事件。
6. 深度分布:对比分析“一问一答”即结束的短对话占比及主要用途;找出轮次最多、持续时间最长的Top 3对话,分析是在解决难题还是头脑风暴。

### 三、关注话题与兴趣
7. 年度关键词:统计出现频率最高的20个实义关键词(排除通用词),分析反映了哪几个核心领域的关注度。
8. 兴趣演变:对比年初(1-3月)与年末(10-12月)的提问主题,找出年末高频出现但年初未提及的“新领域”或“新概念”。
9. 技术栈统计:在技术类对话中,统计提及频率最高的编程语言、软件或框架,确定年度核心生产力工具。
10. 话题持续性:找出两类极端话题:一是突然中断的“烂尾项目”,二是跨越数月反复追问的“钉子户问题”。
11. 知识领域:按“工作/技术”、“生活/娱乐”、“情感/思考”、“学习/原理”分类提问,计算比例并评估涉猎范围。

### 四、提问风格变化
12. Prompt进化:对比年初和年末的提问方式,分析Prompt结构(背景+指令+约束)是否变得更精炼?举例说明提问技巧提升的证据。
13. 人格化指数:统计“请”、“谢谢”等词汇频率,分析语体风格是“命令式主宰者”还是“协作式探讨者”。
14. 双语习惯:分析中文和英文提问的场景差异(例如:哪类问题更倾向于用英文)。
15. 深度追问:分析哪些主题下出现最多的层层追问,意图通常是澄清概念、修正错误还是寻求原理?

### 五、情绪与态度分析
16. 情绪曲线:对全年对话进行情绪分析(积极/中性/消极),输出趋势图,并指出最消极和最积极月份的对话内容。
17. 挫败感分析:统计“不对”、“重写”、“优化一下”等反馈词频率,找出最难让AI解决、反复重写的主题。
18. 情绪触发:找出引起我情绪明显波动(如急躁、感谢、惊叹)的特定话题或关键词。

### 六、价值与效率评估
19. 高杠杆时刻:找出ROI最高的一次对话(输入简短但输出高质量/解决了重大问题),说明是关于什么的。
20. 意图分析:分析提问意图比例——有多少是“直接要结果/外包”,有多少是“解释原理/内化学习”。
21. Debug占比:统计涉及“报错”、“修复”、“Debug”的对话占比,评估AI是充当“日常副驾驶”还是“救火队”。

### 七、图表数据源生成
请额外输出以下数据表以便我制作图表:
22. 热力数据:列出1-12月每个月Top 5热门话题标签及其频次。
23. 情绪时段:统计24小时各时段的对话数量及平均情绪正负值。
24. 关系矩阵:输出Top 30关键词的两两共现频率矩阵数据。

分析指标参考: * 年度核心关键词 * 工具使用频率分布 * 月度/季度活跃度热力图 * 烂尾项目 vs 完成项目统计 * 提问结构质量的变化趋势

可以将生成的文字报告,交给Gemini官网的Canvas,用于生成可视化的图形web界面,形成一份《年度AI使用报告》。

第二阶段:深度思维复盘

侧重于主观思维模式的诊断,挖掘认知缺陷与逻辑盲区。

核心模块 分析维度 核心定义与考察点 NotebookLM 提示词
一、认知与思维模式 认知层级分布 基于布鲁姆分类法,评估提问深度。
底层:记忆、理解(问“是什么”)
高层:评价、创造(问“为什么”、“边界在哪里”)
“基于布鲁姆教育目标分类法,对我2025年的所有提问进行层级归类。统计我在底层‘知识获取’与高层‘批判性思维’上的大致比例。请列举3个代表性的‘高层级提问’案例,说明我何时突破了单纯的索取答案,开始进行深度思考。”
思维偏好类型 执行型 vs 研究型
• 倾向于直接索要成品/代码?
• 还是倾向于探讨底层原理/机制?
收敛 vs 发散
• 快速定方案 vs 持续找可能性。
“分析我的提问逻辑:我更像是一个‘执行者’(急于索要结果和成品),还是一个‘研究者’(试图理解底层机制)?在处理复杂问题时,我是倾向于快速收敛得到一个方案,还是倾向于发散思维寻找替代路径?请引用具体对话支持你的判断。”
推理路径与视角 演绎 vs 归纳
• 先有理论再找案例,还是先摆现象再总结规律?
系统视角
• 是否关注整体结构、边界和上下游?
“判断我的思考路径:我更多表现为‘演绎式’(先有理论框架再填充细节),还是‘归纳式’(先摆现象再总结规律)?此外,检查我是否具备‘系统视角’,是否经常关注问题的边界和上下文,还是经常陷入局部问题的修补中?”
思维盲区与谬误 路径依赖:是否反复用老办法解决新问题?
错位提问 (X-Y问题):是否为了解决Y而去问X,导致方向跑偏?
确认偏误:是否只听自己想听的答案?
“作为我的‘逻辑审计师’,请无情指出我对话中的硬伤。1. 我是否存在‘路径依赖’,在不同领域反复套用同一套僵化的解决思路?2. 找出我陷入‘错位提问’(X-Y问题)或‘确认偏误’(只寻求支持既有观点的答案)的具体对话案例。”
二、情绪与心理防御 焦虑图谱与触发源 识别全年高频出现的焦虑主题。
• 哪些话题引发了连续追问?
• 应对方式是解决问题还是宣泄情绪?
“梳理我2025年最核心的三个焦虑主题(例如:职业发展、技术落后、人际关系)。统计这些焦虑通常在什么时间段爆发?通过我的用词分析,我是倾向于寻求建设性方案,还是沉浸在情绪宣泄中?”
挫败应对与韧性 AI 失效时的反应
投射:怪 AI 笨。
理智化:尝试换个问法。
退行:放弃或重复无效指令。
“回顾当 AI 出现错误、死循环或无法解决问题时,我的反应模式是什么?我是冷静地修正提示词引导它(理智化),还是表现出明显的挫败感、愤怒或直接放弃(情绪化)?这种模式反映了我怎样的抗压能力?”
潜意识价值观 透过提问看本质,你到底想要什么?
• 效率、自由、安全感、认同感?
• 行为与宣称的目标是否一致?
“透过我全年的提问主题和决策倾向,推断我潜意识里最看重的三个核心价值(如:极致效率、掌控感、社会认同)。我的实际提问行为是否与我可能宣称的目标(如‘我要系统学习’)相背离?是否存在‘嘴上说要学,实际找捷径’的现象?”
三、学习与技能进化 能力成长曲线 年初 vs 年末
• 同一领域的提问质量是否有质变?
• 是否出现高抽象、高约束的专家型提问?
“对比2025年1月和12月的对话记录,重点分析我在 [核心领域] 的提问水平。我是从‘小白式提问’进化到了‘专家级探讨’(能够预设约束条件、指出 AI 逻辑漏洞),还是在原地踏步?”
知识迁移与茧房 迁移能力:能否将 A 领域概念用于 B 领域?
信息茧房:是否长期停留在舒适区?
“如果生成一张我的‘知识地图’,我的关注点是否过于集中在少数领域(信息茧房)?我是否有尝试将一个领域的概念(如编程思维)迁移应用到另一个领域(如写作或管理)的迹象?”
行动反馈闭环 知行合一检测
• 拿到方案后,有反馈结果吗?
• 有根据结果修正下一轮提问吗?
“检查我的‘学习闭环’:我有多少次询问了具体的行动方案或教程,并在后续对话中反馈了执行结果或遇到的新问题?计算我的‘方案执行率’,我是单纯的‘收藏家’还是真正的‘实践者’?”
四、AI 依赖与共生 依赖结构分析 辅助 vs 外包
• 辅助思考(AI 是副驾驶)。
• 外包思考(AI 是代驾)。
主导权:对话由谁推动?
“评估我对 AI 的依赖模式。在高质量的对话中,是‘我主导逻辑,AI 填充细节’(辅助模式),还是‘我通过模糊指令,期待 AI 完成所有思考’(外包模式)?随着时间推移,我的独立思考能力是增强了还是萎缩了?”
虚假勤奋识别 低效时间黑洞
• 消耗大量时间精力却无产出的对话。
• 看起来在学习,实际在空转。
“请识别出我2025年对话中的‘低效黑洞’:哪些主题我花费了大量字数和时间反复纠缠,但最终并没有产出实质性结果(代码未跑通、文章未完成、问题未解决)?这类‘伪勤奋’对话通常具备什么特征?”
五、年度综合画像 思维标签集 提炼核心特质,生成简短的标签。 “基于全年对话,为我生成5-8个高可信度的‘思维标签’(例如:#结构化强迫症 #细节完美主义者 #焦虑的行动派 #理论派构建者),并简述理由。”
优劣势分析 (SWOT) 优势与风险
• 优势:擅长解决哪类问题?
• 风险:长期存在的思维隐患。
“请为我生成一份年度认知态势分析:我的思维优势(长板)在哪里?我最大的认知风险或坏习惯(短板)是什么?未来我在利用 AI 方面有哪些提升机会?如果不改变某些习惯,我面临的长期隐患是什么?”
人格侧写 冷静、客观的总结
• 抛开恭维,直击痛点。
“请抛开礼貌的 AI 语气,用心理分析师的口吻,写一段200字以内的年度总结。犀利地指出我作为一个‘思考者’和‘行动者’的真实成色。”

深度复盘提示词:

请基于我2025年的所有对话记录,扮演一位“认知审计师”和“心理分析师”,从以下五个维度对我进行年度深度复盘:

### 一、认知与思维模式分析
1. 认知层级:基于布鲁姆分类法,统计我在底层(知识获取/问是什么)与高层(批判性思维/问为什么/边界)上的提问比例。请列举3个代表性的“高层级提问”案例,说明我何时突破了单纯的索取答案,开始进行深度思考。
2. 思维偏好:分析我的提问逻辑更像“执行者”(急于索要成品)还是“研究者”(探讨底层机制)?在处理复杂问题时,我是倾向于快速收敛得到方案,还是倾向于发散思维寻找替代路径?请引用对话支持你的判断。
3. 推理路径:判断我的思考路径是“演绎式”(先有理论再填充细节)还是“归纳式”(先摆现象再总结规律)。检查我是否具备“系统视角”,是关注边界和上下文,还是陷入局部修补。
4. 盲区审计:指出我对话中的逻辑硬伤。是否存在“路径依赖”(反复用老办法)?是否存在“错位提问”(X-Y问题)?是否存在“确认偏误”(只听自己想听的答案)?

### 二、情绪与心理防御机制
1. 焦虑图谱:梳理我全年最核心的三个焦虑主题(如职业、技术、人际),统计爆发时间段。分析我倾向于寻求建设性方案,还是沉浸在情绪宣泄中。
2. 挫败应对:回顾当AI出错或无法解决问题时,我的反应模式是理智化(修正引导)还是情绪化(愤怒/放弃)?这反映了怎样的抗压能力?
3. 潜意识价值观:透过提问主题和决策倾向,推断我潜意识最看重的三个核心价值(如效率、掌控感、认同感)。我的实际提问行为是否与宣称的目标(如“我要系统学习”)相背离?是否存在“嘴上说学,实际找捷径”的现象?

### 三、学习与技能进化
1. 成长曲线:对比2025年1月和12月的对话,分析核心领域的提问水平。我是从“小白式提问”进化到了预设约束条件的“专家级探讨”,还是原地踏步?
2. 知识迁移:生成我的“知识地图”,检查关注点是否陷入“信息茧房”。我是否有将一个领域的概念(如编程思维)迁移应用到另一个领域(如写作或管理)的迹象?
3. 行动闭环:检查“知行合一”情况。计算我的“方案执行率”:有多少次我询问了行动方案,并在后续对话中反馈了结果或新问题?我是“收藏家”还是“实践者”?

### 四、AI依赖与共生关系
1. 依赖结构:评估我对AI的依赖模式。是“辅助模式”(我主导逻辑,AI填细节)还是“外包模式”(模糊指令,期待AI代劳)?我的独立思考能力随时间推移是增强了还是萎缩了?
2. 虚假勤奋:识别对话中的“低效黑洞”。哪些主题消耗了大量时间字数却无实质产出(代码未跑通、文章未写完)?这类“伪勤奋”对话具备什么特征?

### 五、年度综合画像
1. 思维标签:基于全年表现,生成5-8个高可信度的“思维标签”(如 #结构化强迫症 #细节完美主义者 #焦虑的行动派),并简述理由。
2. SWOT分析:生成年度认知态势分析。我的思维优势(长板)在哪里?最大的认知风险或坏习惯(短板)是什么?未来利用AI的提升机会有哪些?若不改变,面临的长期隐患是什么?
3. 人格侧写:抛开AI的礼貌语气,用心理分析师的口吻写一段200字以内的总结。犀利地点评我作为一个“思考者”和“行动者”的真实成色,直击痛点。

分析指标参考: * 虚假勤奋识别:高频提问但无实质产出的领域。 * 逻辑盲区:反复出现的思维谬误或认知偏差。 * 情绪压力分析:焦虑、急躁或过度依赖 AI 的时刻。 * SWOT 分析:基于 AI 交互表现的个人优势与劣势评估。

Human 3.0 模型评估

基于油管著名博主Dan Koe的 Human 3.0 理论,从特定维度进行打分与评估。

Human 3.0 评估提示词:

你是资深心理发展与行为分析顾问,请基于 Dan Koe 的 Human 3.0 结构化分析方法,从 Mind / Body / Spirit / Vocation 四象限对我的2025年度AI对话记录进行评估,分别回答以下问题:

1. Mind:我有什么认知特点、思考优势与限制?
2. Body:我的行为执行与规律性如何?
3. Spirit:我的意义感、情绪稳定性与人际需求有哪些?
4. Vocation:我的价值创造、职业感与未来潜力如何?

同时,请基于 Human 3.0 的四个层级(1.0 / 2.0 / 3.0)对每个象限的“发展水平 + 典型行为特征”评估一次,并给出成长建议。


结果可视化

利用 Gemini Canvas 功能,将 NotebookLM 生成的纯文本报告转换为可视化图表。

  • 输入:NotebookLM 生成的 Markdown 格式报告。
  • 工具:Gemini Canvas。
  • 产出:包含统计图表、词云、雷达图的 HTML 页面或图片。