Marketplace ai-partner-chat
基于用户画像和向量化笔记提供个性化对话。当用户需要个性化交流、上下文感知的回应,或希望 AI 记住并引用其之前的想法和笔记时使用。
git clone https://github.com/aiskillstore/marketplace
T=$(mktemp -d) && git clone --depth=1 https://github.com/aiskillstore/marketplace "$T" && mkdir -p ~/.claude/skills && cp -r "$T/skills/cz07cring/ai-partner-chat" ~/.claude/skills/aiskillstore-marketplace-ai-partner-chat && rm -rf "$T"
skills/cz07cring/ai-partner-chat/SKILL.mdAI Partner Chat 2.0
⚠️ IMPORTANT: 自动学习工作流程
Claude,你必须遵循以下自动化工作流程:
1. 会话开始时 - 初始化系统
import sys from pathlib import Path sys.path.insert(0, str(Path.home() / '.claude/skills/ai-partner-chat/scripts')) from orchestrator import AIPartnerOrchestrator orch = AIPartnerOrchestrator()
2. 每次对话后 - 自动记录对话
orch.handle_conversation( user_message="[用户的完整问题]", ai_response="[你的完整回复]", save_conversation=True )
重要性判断:
- 简单问候、确认:重要性 1-2(仅保存到文件)
- 技术讨论、问题解决:重要性 3-4(保存+向量化)
- 深度学习、关键决策:重要性 5(保存+向量化+重点标记)
3. 检测项目笔记 - 自动处理新笔记
使用专用的笔记处理器(推荐):
from note_processor import check_and_process_notes # 自动检测并处理新笔记 result = check_and_process_notes() print(f"✅ 已处理 {result['processed_count']} 个笔记") for note in result['notes']: print(f" 📝 {note['file']}: {note['tags']}")
触发条件(自动检测以下情况):
- ✅ 会话开始时主动检查
目录notes/ - ✅ 用户提到"我写了笔记"、"更新了 notes"
- ✅ 用户要求"处理笔记"、"学习我的笔记"
- ✅ 用户创建或修改 .md 文件后
笔记处理器特性:
- 🔍 自动扫描项目
目录notes/ - 📊 跟踪已处理笔记(避免重复处理)
- 🔄 检测修改时间,只处理新的或更新的笔记
- 💾 状态持久化到
~/.claude/skills/ai-partner-chat/data/indexes/processed_notes.json
4. 检索增强 - 使用长期记忆回答
在回答问题前,先检索相关知识:
# 检索相关内容 context = orch.handle_conversation( user_message="[用户问题]", generate_response=True, save_conversation=False # 暂不保存,等生成回复后再保存 ) # 使用 context['context']['search_results'] 中的内容来增强回复 # - notes: 用户之前的笔记 # - conversations: 历史对话 # - code: 相关代码片段
注意事项:
- ✅ 每次对话都必须记录,不要遗漏
- ✅ 主动检查
目录,处理新笔记notes/ - ✅ 使用长期记忆增强回答质量
- ✅ 如果用户明确要求"不要记录",则跳过
- ✅ 在虚拟环境中运行:确保已激活
venv - ✅ 所有数据保存到
~/.claude/skills/ai-partner-chat/data/
Overview
AI Partner Chat 2.0 是一个全功能的个性化 AI 学习私人长期伙伴系统,整合了以下核心能力:
🧠 核心功能:
- 智能标签系统 - 自动生成分层标签(主题/技术/自定义),实现高效组织和检索
- 对话历史记忆 - 记录和向量化重要对话,支持对话内容的智能检索
- 代码片段管理 - 自动识别、提取和分析笔记中的代码块,独立索引
- 状态感知对话 - 追踪学习状态和情绪变化,提供个性化回应
- 思维模式分析 - 分析学习深度和广度,生成个性化学习报告
✨ 关键特性:
- ✅ 多源检索 - 统一检索笔记、对话、代码片段
- ✅ 增量更新 - 无需重建数据库,即时添加新内容
- ✅ 状态感知 - AI 根据你的学习状态调整回应策略
- ✅ 自动分析 - 定期生成学习报告和对话摘要
- ✅ 完整历史 - 所有对话永久保存,重要对话向量化检索
- ✅ 自动记录 - Claude 在每次对话后自动保存到长期记忆
Prerequisites
1. 创建 Python 虚拟环境
为什么需要虚拟环境?
- ✅ 隔离依赖,避免与系统 Python 包冲突
- ✅ 确保依赖版本一致性
- ✅ 不同项目可以使用不同版本的依赖
创建虚拟环境:
# 在项目目录创建虚拟环境 python3 -m venv venv # 激活虚拟环境 source venv/bin/activate # macOS/Linux # 或 venv\Scripts\activate # Windows # 安装依赖 pip install -r ~/.claude/skills/ai-partner-chat/scripts/requirements.txt
注意事项:
- 首次运行会自动下载嵌入模型 BAAI/bge-m3 (~4.3GB)
- macOS/Linux: 模型缓存到
~/.cache/huggingface/hub/ - Windows: 模型缓存到
%USERPROFILE%\.cache\huggingface\hub\ - 系统会自动检测是否已缓存,避免重复下载
- macOS/Linux: 模型缓存到
- 后续运行会直接使用缓存,加载速度很快(几秒钟)
- 每次使用前需要激活虚拟环境:
- macOS/Linux:
source venv/bin/activate - Windows:
venv\Scripts\activate
- macOS/Linux:
关于 torch.load 安全警告:
- 依赖中使用
来避免 torch 2.6 依赖(macOS torch 2.6 尚未发布)transformers<4.50 - transformers 4.50+ 强制要求 torch>=2.6 解决 CVE-2025-32434 安全漏洞
- 当前方案使用
+transformers==4.49.1
是安全的torch==2.5.1 - BAAI/bge-m3 模型使用 safetensors 格式,不受此漏洞影响
- 如果你使用的是 Linux/Windows 且需要最新版本,可以升级:
pip install torch>=2.6 transformers>=4.50
2. 配置双画像系统(首次使用必须)
系统需要双画像文件来理解你和定义 AI 的行为:
步骤 1: 复制模版文件到项目配置目录
从
~/.claude/skills/ai-partner-chat/assets/ 复制到项目的 config/ 目录:
macOS/Linux:
# 创建配置目录 mkdir -p config # 复制用户画像模版 cp ~/.claude/skills/ai-partner-chat/assets/user-persona-template.md config/user-persona.md # 复制 AI 画像模版 cp ~/.claude/skills/ai-partner-chat/assets/ai-persona-template.md config/ai-persona.md
Windows:
# 创建配置目录 mkdir config # 复制用户画像模版 copy %USERPROFILE%\.claude\skills\ai-partner-chat\assets\user-persona-template.md config\user-persona.md # 复制 AI 画像模版 copy %USERPROFILE%\.claude\skills\ai-partner-chat\assets\ai-persona-template.md config\ai-persona.md
步骤 2: 自定义你的画像
编辑项目
config/ 目录中的文件:
- 描述你的背景、学习风格、沟通偏好config/user-persona.md
- 定义 AI 的角色、回复风格、个性config/ai-persona.md
为什么需要复制?
- ✅
中的模版保持不变,供参考assets/ - ✅
中的文件是你的自定义版本config/ - ✅ 每个项目可以有不同的画像配置
- ✅ Python 代码会读取项目
目录中的画像config/
3. 目录结构说明
重要改进:长期记忆设计
系统采用集中存储设计,所有运行时数据存放在 skill 目录,实现真正的长期学习伙伴:
~/.claude/skills/ai-partner-chat/ ├── scripts/ # Python 模块 │ ├── orchestrator.py │ ├── note_processor.py │ └── ... (其他模块) ├── assets/ # 模版文件 │ ├── user-persona-template.md │ └── ai-persona-template.md ├── notes-examples/ # 笔记示例(仅供参考) │ └── example-learning.md └── data/ # 运行时数据(自动创建) ├── vector_db/ # 统一向量库(长期记忆) │ └── chroma.sqlite3 # ⚡ 所有笔记/对话/代码的向量都在这里 ├── conversations/ # 对话历史 │ ├── raw/ │ │ └── YYYY-MM/ │ │ └── YYYY-MM-DD.md # 按日期组织的对话 │ ├── summary/ │ └── metadata.json ├── indexes/ # 索引文件 │ ├── tags_index.json │ ├── emotion_timeline.json │ └── processed_notes.json # 已处理笔记跟踪 └── analysis/ # 分析报告 └── weekly_*.md your-project/ # 用户项目(干净) ├── config/ # 画像配置(可选) │ ├── user-persona.md │ └── ai-persona.md ├── notes/ # ⚡ 你的笔记(项目本地,原文保留) │ └── *.md # 被处理后向量进入 skill/data/vector_db └── venv/ # 虚拟环境
核心特性:
- ✅ 长期记忆 - 所有学习历史累积在 skill 目录,永不丢失
- ✅ 跨项目复用 - 项目 A 学的知识,项目 B 也能用
- ✅ 项目干净 - 用户项目只有 config 和 notes
- ✅ 自动恢复 - 每次启动自动加载历史数据
数据流说明:
项目 notes/ 中的笔记 ↓ (检测到新笔记) note_processor.py 处理 ↓ (提取内容、标签、代码) orchestrator.process_new_note() ↓ (生成 chunks) vector_indexer.append_chunks() ↓ (向量化) skill/data/vector_db/ ← 向量存储(长期记忆) ↓ 跨项目可检索! 原笔记文件 → 保留在项目 notes/ 中
重要:
- 📝 原文件保留 - 你的笔记永远在项目
目录,不会被移动或删除notes/ - 🔍 向量入库 - 笔记内容被向量化后存入
skill/data/vector_db/ - 🌐 跨项目共享 - 向量库是全局的,所有项目共享同一个知识库
- 📊 状态跟踪 -
记录哪些笔记已处理,避免重复processed_notes.json
手动创建目录:
# 项目目录只需创建 notes mkdir -p notes # config 从模版复制(已在步骤2完成) # data 目录会自动创建在 skill 目录,无需手动操作
4. 首次运行检查清单
在开始使用系统前,请确认以下步骤:
-
虚拟环境已创建并激活
# 检查虚拟环境 which python # macOS/Linux,应显示 venv/bin/python where python # Windows,应包含 venv\Scripts\python -
依赖已安装
python -c "import chromadb; print('✅ chromadb')" python -c "import sentence_transformers; print('✅ sentence-transformers')" -
双画像已配置
# 检查画像文件是否存在 ls config/user-persona.md config/ai-persona.md # macOS/Linux dir config\user-persona.md config\ai-persona.md # Windows -
笔记目录已创建
mkdir -p notes # 创建笔记目录(如果不存在) -
测试运行
import sys from pathlib import Path sys.path.insert(0, str(Path.home() / '.claude/skills/ai-partner-chat/scripts')) from orchestrator import AIPartnerOrchestrator orch = AIPartnerOrchestrator() # 应该看到 "✅ AI Partner 协调器已初始化"
5. 长期记忆工作原理
首次使用(新用户):
>>> orch = AIPartnerOrchestrator() ✅ AI Partner 协调器已初始化 项目: ai-partner-chat 数据: ~/.claude/skills/ai-partner-chat/data/ 向量库: 0 chunks
3 天后使用(自动恢复记忆):
>>> orch = AIPartnerOrchestrator() ✅ AI Partner 协调器已初始化 项目: ai-partner-chat 数据: ~/.claude/skills/ai-partner-chat/data/ 向量库: 25 chunks ← 自动加载历史! 💭 长期记忆已加载
3 个月后使用(长期记忆):
>>> orch = AIPartnerOrchestrator() ✅ AI Partner 协调器已初始化 向量库: 1,250 chunks ← 3 个月的学习积累! 💭 长期记忆已加载 >>> context = orch.handle_conversation("useCallback 怎么用?") 🔍 检索结果: 📝 相关笔记 (3条) - 包含 90 天前的笔记 💬 相关对话 (2条) - AI 记得你之前问过
AI 回复示例:
你好!看到你又回来学习 React 了 😊 根据你 3 个月前的笔记,你已经掌握了 useCallback 的基础。 那时候你在性能优化项目中成功应用了它...
现在可以开始使用系统 →
完整工作流程
流程 1: 添加新笔记
import sys from pathlib import Path # 添加 skill 脚本路径 sys.path.insert(0, str(Path.home() / '.claude/skills/ai-partner-chat/scripts')) from orchestrator import AIPartnerOrchestrator orch = AIPartnerOrchestrator() result = orch.process_new_note( note_path="./notes/学习笔记.md", content=open("./notes/学习笔记.md").read() )
返回结果:
{ 'chunks_created': 5, 'chunks_indexed': 5, 'tags': ['React', 'Hooks', 'JavaScript'], 'emotion': {'state': 'breakthrough', 'excitement': 8}, 'thinking_level': 3, 'code_blocks': 4 }
流程 2: 处理对话
# 获取上下文 result = orch.handle_conversation( user_message="React Hooks 的 useState 为什么要用数组解构?", save_conversation=False ) context = result['context'] user_message = context['user_message'] ai_response = your_ai_generate_response(context) # 保存对话 orch.handle_conversation( user_message=user_message, ai_response=ai_response, save_conversation=True )
流程 3: 生成报告
report_path = orch.generate_weekly_report()
流程 4: 查看统计
stats = orch.get_system_stats()
核心模块说明
1. 双画像系统
画像配置已在 Prerequisites 中说明,这里简述其工作原理:
工作流程:
- Python 代码启动时读取项目
目录中的画像文件config/ - 将画像内容传递给 LLM 作为系统提示词
- LLM 根据画像调整回复风格和策略
关键点:
- 用户画像(user-persona.md)让 AI 了解你的背景和学习风格
- AI 画像(ai-persona.md)定义 AI 的角色和回应策略
- 每个项目可以有不同的画像配置,实现项目级隔离
示例场景:
# config/user-persona.md ## 学习风格 - 喜欢从原理出发,理解底层机制 - 偏好实践驱动,通过代码加深理解 # config/ai-persona.md ## 沟通风格 - 语气友好但专业 - 先给出核心原理,再展开细节 - 使用具体代码示例说明抽象概念 - 适时鼓励,认可学习进步 ## 上下文使用 - 自然引用用户的笔记: "根据你之前学习的 useState..." - 建立知识关联: "这和你上周学的 useEffect 闭包问题类似" - 追踪学习状态: 根据情绪和思维层次调整回应 - 避免重复: 不重复用户已经理解的内容
画像在系统中的作用:
- 个性化检索: 系统会根据用户画像调整检索策略
- 状态感知回应: 结合情绪分析,AI 画像指导回应风格
- 知识关联: AI 画像定义如何引用历史笔记和对话
- 持续改进: 可随时更新画像,反映学习进展
1. 统一数据模型 (chunk_schema.py)
所有内容(笔记/对话/代码)都统一为 Chunk 格式:
{ 'content': '内容文本', 'metadata': { # === 基础字段 === 'filename': 'note.md', 'filepath': '/path/to/file', 'chunk_id': 0, 'chunk_type': 'note' | 'conversation' | 'code', # === 标签系统 === 'tags': ['React', 'Hooks', 'JavaScript'], 'tag_layers': { 'topic': ['学习笔记', 'Web开发'], 'tech': ['React', 'JavaScript'], 'custom': [] }, # === 对话记忆 === 'conversation_id': 'conv_20251115_143022', 'importance': 4, # 1-5 分 # === 代码管理 === 'language': 'javascript', 'function_name': 'useState', 'purpose': 'React状态管理Hook', # === 状态追踪 === 'emotion': { 'state': 'breakthrough', 'excitement': 8, 'confusion': 2 }, # === 思维分析 === 'thinking_level': 3, # 1-4 级 'date': '2025-11-15', 'created_at': '2025-11-15T14:30:22' } }
2. 核心协调器 (orchestrator.py)
AIPartnerOrchestrator 是整个系统的大脑,串联所有功能:
主要方法:
- 处理新笔记全流程process_new_note(note_path, content)
- 处理对话全流程handle_conversation(user_msg, ai_msg)
- 生成周报generate_weekly_report()
- 获取系统统计get_system_stats()
3. 标签系统
TagGenerator - 自动生成分层标签
- 提取主题标签(学习笔记、技术文档等)
- 提取技术标签(React、Python等)
- 支持自定义标签
TagIndexer - 标签索引管理
- 快速按标签检索文件
- 标签统计分析
- 标签关系网络
4. 对话记忆 (conversation_logger.py)
功能:
- 所有对话保存为 Markdown (按日期组织)
- 自动评估对话重要性 (1-5 分)
- 重要对话向量化 (≥3 分)
- 生成每周对话摘要
存储结构:
conversations/ ├── raw/ │ └── 2025-11/ │ ├── 2025-11-15.md │ └── 2025-11-16.md ├── summary/ │ └── weekly-2025-W46.md └── metadata.json
5. 代码管理 (code_parser.py)
功能:
- 自动识别 Markdown 中的代码块
- 提取函数名、参数、依赖
- 分析代码复杂度
- 独立向量化索引
支持语言:
- Python - 函数、类、导入识别
- JavaScript/TypeScript - 函数、导入识别
- 其他语言 - 基础识别
6. 状态追踪 (emotion_analyzer.py)
追踪的学习状态:
- 探索期exploration
- 困惑期confusion
- 突破期breakthrough
- 巩固期consolidation
- 倦怠期burnout
情绪时间线:
[ { "date": "2025-11-15", "state": "breakthrough", "excitement": 8, "confidence": 7, "confusion": 2, "notes_count": 3 } ]
7. 思维分析 (thinking_analyzer.py)
思维层次 (1-4 级):
- Level 1: 记录事实 - "今天学了 useState"
- Level 2: 理解原理 - "useState 通过闭包保存状态"
- Level 3: 形成洞察 - "原来 Hooks 解决了类组件的复杂性"
- Level 4: 创新应用 - "设计了一个自定义 Hook 解决..."
学习报告内容:
- 整体统计 (笔记/对话/代码数量)
- 主题分布分析
- 思维层次分布
- 个性化建议
快速开始
⚠️ 重要: 使用前请确保已激活虚拟环境
# macOS/Linux source venv/bin/activate # Windows venv\Scripts\activate
方案 A: 使用协调器(推荐)
最简单的方式 - 所有功能一行搞定:
import sys from pathlib import Path sys.path.insert(0, str(Path.home() / '.claude/skills/ai-partner-chat/scripts')) from orchestrator import AIPartnerOrchestrator # 初始化 orch = AIPartnerOrchestrator() # 添加笔记 result = orch.process_new_note( note_path="./notes/my_note.md", content=open("./notes/my_note.md").read() ) print(f"✅ 已处理: {result['chunks_created']} chunks") # 对话交互 context = orch.handle_conversation( user_message="React Hooks 怎么用?", generate_response=True ) # 基于上下文生成 AI 回复 ai_response = your_ai_function(context) # 记录对话 orch.handle_conversation( user_message="React Hooks 怎么用?", ai_response=ai_response ) # 生成报告 orch.generate_weekly_report()
方案 B: 使用独立模块
如果需要更细粒度的控制:
import sys from pathlib import Path sys.path.insert(0, str(Path.home() / '.claude/skills/ai-partner-chat/scripts')) from tag_generator import TagGenerator from emotion_analyzer import EmotionAnalyzer from vector_indexer import VectorIndexer # 标签分析 tag_gen = TagGenerator() tags = tag_gen.generate_tag_layers(content) # 情绪分析 emotion = EmotionAnalyzer() state = emotion.analyze_emotion(content) # 向量化 indexer = VectorIndexer() indexer.append_chunks(chunks)
数据流图解
┌─────────────────┐ │ 新笔记 note.md │ └────────┬────────┘ │ ▼ ┌────────────────────────────────────────────┐ │ Orchestrator.process_new_note() │ │ │ │ ┌──────────────┐ ┌─────────────────┐ │ │ │ TagGenerator │ │ EmotionAnalyzer │ │ │ │ 提取标签 │ │ 分析情绪状态 │ │ │ └──────────────┘ └─────────────────┘ │ │ │ │ ┌──────────────┐ ┌─────────────────┐ │ │ │ CodeParser │ │ ThinkingAnalyz │ │ │ │ 提取代码 │ │ 判断思维层次 │ │ │ └──────────────┘ └─────────────────┘ │ │ │ │ ▼ │ │ 生成 Chunks (笔记主体 + 代码块) │ │ │ │ └─────────┼──────────────────────────────────┘ │ ▼ ┌─────────────────────┐ │ VectorIndexer │ │ 增量向量化 (append) │ └─────────┬───────────┘ │ ▼ ┌─────────────────────┐ │ ChromaDB │ │ 向量数据库 │ └─────────────────────┘ │ ▼ ┌─────────────────────┐ ┌──────────────┐ │ MultiSource │◄──────│ 用户查询 │ │ Retriever │ └──────────────┘ │ 多源检索 │ └─────────┬───────────┘ │ ▼ ┌─────────────────────────────────┐ │ 检索结果: │ │ - 相关笔记 (top 3) │ │ - 相关对话 (top 2) │ │ - 相关代码 (top 2) │ │ + 当前学习状态 │ └─────────┬───────────────────────┘ │ ▼ ┌─────────────────────┐ │ 生成 AI 回复 │ └─────────┬───────────┘ │ ▼ ┌──────────────────────────────────┐ │ ConversationLogger │ │ - 保存 Markdown │ │ - 评估重要性 │ │ - 向量化 (if 重要性 ≥ 3) │ └──────────────────────────────────┘
项目结构
<project_root>/ ├── notes/ # 📝 用户笔记 (Markdown) │ └── *.md │ ├── assets/ # 🎨 双画像模版(不要修改,供复制参考) │ ├── user-persona-template.md # 用户画像模版 │ └── ai-persona-template.md # AI 画像模版 │ ├── config/ # ⚙️ 配置文件(首次使用必须创建) │ ├── user-persona.md # 你的用户画像(从 assets 复制后自定义) │ ├── ai-persona.md # 你的 AI 画像(从 assets 复制后自定义) │ └── tags_taxonomy.json # 标签分类规则(可选) │ ├── conversations/ # 💬 对话历史(运行时自动生成) │ ├── raw/ # 原始对话 (按月份/日期) │ │ └── 2025-11/ │ │ └── 2025-11-15.md │ ├── summary/ # 对话摘要 │ │ └── weekly-2025-W46.md │ └── metadata.json # 对话元数据 │ ├── analysis/ # 📊 分析数据(运行时自动生成) │ ├── emotion_timeline.json # 情绪时间线 │ └── reports/ # 学习报告 │ └── learning_report_本周.md │ ├── indexes/ # 🗂️ 索引数据(运行时自动生成) │ └── tags_index.json # 标签索引 │ ├── vector_db/ # 💾 ChromaDB 向量数据库(运行时自动生成) │ └── chroma.sqlite3 │ ├── venv/ # 🐍 Python 虚拟环境 │ ├── bin/ # 可执行文件 │ ├── lib/ # 依赖包 │ └── pyvenv.cfg │ ├── scripts/ # 🔧 核心脚本 │ ├── orchestrator.py # ⭐ 核心协调器(主入口) │ ├── chunk_schema.py # 数据模型定义 │ ├── vector_indexer.py # 向量化索引 │ ├── vector_utils.py # 多源检索 │ ├── tag_generator.py # 标签生成器 │ ├── tag_indexer.py # 标签索引 │ ├── conversation_logger.py # 对话记录器 │ ├── code_parser.py # 代码解析器 │ ├── emotion_analyzer.py # 情绪分析器 │ ├── thinking_analyzer.py # 思维分析器 │ ├── example_usage.py # 使用示例 │ └── requirements.txt # Python 依赖
依赖安装: 在虚拟环境中安装
# 创建并激活虚拟环境 python3 -m venv venv source venv/bin/activate # 安装依赖 pip install -r ~/.claude/skills/ai-partner-chat/scripts/requirements.txt
技术细节
向量数据库
- 存储引擎: ChromaDB (本地持久化)
- 嵌入模型: BAAI/bge-m3 (1024维, ~4.3GB)
- 优化中文语义理解
- 多语言支持
- 高质量向量表示
- 相似度算法: Cosine Similarity
- 更新模式: 增量追加 (append) - 无需重建整个数据库
性能优化
关键突破 - 增量更新:
# ✅ 新方案: 增量追加,秒级完成 indexer.append_chunks(new_chunks) # 仅几秒钟
多源检索优化:
- 并行查询笔记/对话/代码
- 按 chunk_type 过滤
- 自动聚合结果
数据模型
统一 Chunk 格式 - 所有内容类型共享相同结构:
- 笔记 chunks: 包含标签、情绪、思维层次
- 对话 chunks: 包含重要性评分、主题
- 代码 chunks: 包含语言、函数名、复杂度
元数据扁平化 - ChromaDB 限制:
- 复杂类型 (dict/list) 自动转换为 JSON 字符串
- 检索时自动解析回原始类型
最佳实践
笔记组织
推荐格式:
- Markdown 格式,支持任意结构
- 包含代码块时使用三个反引号标注语言
- 添加清晰的标题和段落
示例:
# React Hooks 学习 今天深入学习了 useState,终于理解了状态更新的原理! ## 基础用法 ```javascript const [count, setCount] = useState(0); ``` 原来每次调用 setCount 都会触发重新渲染,这太好了! ## 注意事项 - 不要在循环/条件中调用 Hooks - state 更新是异步的
对话策略
如何让 AI 回复更个性化:
-
充分利用状态感知
# AI 会根据你的学习状态调整回应 # 困惑期: 更详细的解释,更多示例 # 突破期: 鼓励深入思考,提供进阶内容 # 巩固期: 实践项目建议,知识关联 -
利用多源检索
- 系统会自动查找相关笔记、对话、代码
- 无需重复提供背景信息
- AI 能记住你之前的学习轨迹
-
重要对话会被记住
- 重要性 ≥ 3 分的对话会向量化
- 未来对话可以引用之前的讨论
- 形成连贯的学习上下文
标签管理
标签会自动生成,但你可以优化:
创建
config/tags_taxonomy.json:
{ "topic_tags": ["学习笔记", "技术文档", "项目规划", "问题解决"], "tech_tags": ["React", "Python", "JavaScript", "TypeScript", "SQL"], "custom_tags": [] }
定期维护
每周操作:
import sys from pathlib import Path sys.path.insert(0, str(Path.home() / '.claude/skills/ai-partner-chat/scripts')) from orchestrator import AIPartnerOrchestrator orch = AIPartnerOrchestrator() # 生成周报 report = orch.generate_weekly_report() # 查看系统状态 stats = orch.get_system_stats()
每月操作:
- 审阅学习报告,调整学习方向
- 清理过期的临时笔记
- 更新 user-persona.md 反映成长
常见问题
Q: 为什么要用增量更新而不是重建数据库?
A: 性能差异巨大:
- 重建: 1000 chunks ≈ 5-10 分钟
- 增量: 10 chunks ≈ 5 秒
随着内容增长,重建会越来越慢,增量更新始终快速。
Q: 对话重要性是如何评估的?
A: 简单规则 + 长度判断:
- 包含"突破"、"理解"等关键词 → 高分
- 长对话(>500字符)→ 可能重要
- 寒暄、简单确认 → 低分
生产环境可用 LLM 替换规则。
Q: 代码块能识别哪些信息?
A: 当前支持:
- 语言识别 (Python, JS, TS 等)
- 函数名和参数 (Python/JS)
- import/from 依赖
- 代码复杂度估算
可扩展为使用 AST 进行深度分析。
Q: 如何自定义情绪分析?
A: 编辑
emotion_analyzer.py:
# 修改关键词列表 excitement_keywords = ['太好了', '明白了', '成功', ...] confusion_keywords = ['不懂', '困惑', '难', ...]
或使用 LLM:
# 使用提供的 EMOTION_ANALYSIS_PROMPT 提示词 # 调用你的 LLM API 进行情绪分析
Q: 向量数据库占用多少空间?
A: 估算:
- 嵌入模型: ~4.3GB (一次性)
- 每个 chunk: ~5KB (1024维向量 + 元数据)
- 1000 chunks ≈ 5MB
- 10000 chunks ≈ 50MB
空间占用很小,主要是嵌入模型。
Q: 可以用其他嵌入模型吗?
A: 可以,修改
vector_indexer.py:
from sentence_transformers import SentenceTransformer # 替换模型 self.model = SentenceTransformer('your-model-name')
推荐中文模型:
- BAAI/bge-m3 (当前使用)
- BAAI/bge-large-zh-v1.5
- moka-ai/m3e-base
故障排查
问题 1: ValueError: Due to torch.load CVE-2025-32434
症状:
ValueError: Due to a serious vulnerability issue in `torch.load`, even with `weights_only=True`, we now require users to upgrade torch to at least v2.6
原因: transformers 4.50+ 强制要求 torch>=2.6,但 macOS 的 torch 2.6 尚未发布
解决方案:
macOS 用户(推荐):
# 使用当前配置(transformers 4.49.1 + torch 2.5.1) # 这是安全的,因为 BAAI/bge-m3 使用 safetensors 格式 pip install -r ~/.claude/skills/ai-partner-chat/scripts/requirements.txt
Linux/Windows 用户(可选升级):
# 如果需要最新版本 pip install torch>=2.6 transformers>=4.50
补充说明:
- BAAI/bge-m3 模型文件使用 safetensors 格式(不受 torch.load 漏洞影响)
- transformers<4.50 的配置是安全的,专门为 macOS 兼容性设计
- 等 macOS torch 2.6 发布后可以升级到最新版本
问题 2: ModuleNotFoundError: No module named 'chromadb'
原因: Python 环境不一致,依赖安装到了不同的 Python
解决方案:
# 1. 确保虚拟环境已激活 source venv/bin/activate # macOS/Linux venv\Scripts\activate # Windows # 2. 确认当前 Python which python # macOS/Linux,应显示 venv/bin/python where python # Windows,应包含 venv\Scripts\python # 3. 重新安装依赖到当前环境 pip install -r ~/.claude/skills/ai-partner-chat/scripts/requirements.txt # 4. 验证安装 python -c "import chromadb; print('✅ chromadb 已安装')"
问题 3: 对话没有保存
原因: 调用
handle_conversation 时未正确设置参数
解决方案:
# 方式 1 - 两步调用(推荐) result = orch.handle_conversation( user_message=user_msg, save_conversation=False ) orch.handle_conversation( user_message=user_msg, ai_response=ai_response, save_conversation=True ) # 方式 2 - 一步调用(默认保存) orch.handle_conversation( user_message=user_msg, ai_response=ai_response )
问题 4: 模型重复下载
原因: 模型缓存路径不对或被清理
检查缓存:
# macOS/Linux ls ~/.cache/huggingface/hub/models--BAAI--bge-m3 # Windows dir %USERPROFILE%\.cache\huggingface\hub\models--BAAI--bge-m3
如果缓存存在但仍然下载: 环境变量可能不对
# 设置缓存目录 export HF_HOME=~/.cache/huggingface # macOS/Linux set HF_HOME=%USERPROFILE%\.cache\huggingface # Windows
问题 5: 虚拟环境激活失败
Windows PowerShell 权限问题:
# 如果报错: 无法加载文件,因为在此系统上禁止运行脚本 Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser # 然后再激活 venv\Scripts\activate
macOS/Linux 权限问题:
# 如果 venv/bin/activate 没有执行权限 chmod +x venv/bin/activate source venv/bin/activate
问题 6: FileNotFoundError: config/user-persona.md 不存在
症状: 初始化时报错找不到画像文件
原因: 没有从 assets 复制画像模版到项目 config 目录
解决方案:
# macOS/Linux mkdir -p config cp ~/.claude/skills/ai-partner-chat/assets/user-persona-template.md config/user-persona.md cp ~/.claude/skills/ai-partner-chat/assets/ai-persona-template.md config/ai-persona.md # Windows mkdir config copy %USERPROFILE%\.claude\skills\ai-partner-chat\assets\user-persona-template.md config\user-persona.md copy %USERPROFILE%\.claude\skills\ai-partner-chat\assets\ai-persona-template.md config\ai-persona.md
然后编辑
config/user-persona.md 和 config/ai-persona.md 自定义你的画像。
问题 7: 导入路径错误
症状:
ModuleNotFoundError: No module named 'orchestrator'
原因: sys.path 没有正确设置
解决方案:
import sys from pathlib import Path # 获取用户home目录 skills_path = Path.home() / '.claude' / 'skills' / 'ai-partner-chat' / 'scripts' sys.path.insert(0, str(skills_path)) # 现在可以导入 from orchestrator import AIPartnerOrchestrator
进阶功能
使用 LLM 增强分析
系统预留了 LLM 提示词模板,可用于更精确的分析:
1. 情绪分析 (emotion_analyzer.py)
from emotion_analyzer import EMOTION_ANALYSIS_PROMPT # 使用 LLM 替换简单规则 prompt = EMOTION_ANALYSIS_PROMPT.format(content=note_content) emotion_result = your_llm_api(prompt)
2. 代码分析 (code_parser.py)
from code_parser import CODE_ANALYSIS_PROMPT prompt = CODE_ANALYSIS_PROMPT.format( language='python', code=code_snippet ) code_analysis = your_llm_api(prompt)
3. 对话重要性评估 (conversation_logger.py)
from conversation_logger import IMPORTANCE_EVALUATION_PROMPT prompt = IMPORTANCE_EVALUATION_PROMPT.format( user_message=user_msg, ai_response=ai_msg ) importance_score = your_llm_api(prompt)
自定义工作流
基于 Orchestrator 构建自己的工作流:
from scripts.orchestrator import AIPartnerOrchestrator class MyCustomWorkflow(AIPartnerOrchestrator): def process_daily_notes(self): """每日笔记批量处理""" today = datetime.now().strftime('%Y-%m-%d') daily_notes = Path('./notes').glob(f'*{today}*.md') for note in daily_notes: result = self.process_new_note( str(note), note.read_text() ) print(f"✅ {note.name}: {result['chunks_created']} chunks") def generate_monthly_insights(self): """月度深度分析""" # 获取最近 30 天的所有内容 chunks = self.retriever.get_recent(days=30, top_k=500) # 生成深度报告 report = self.thinking_analyzer.generate_learning_report( chunks, period="本月" ) # 生成知识图谱 # ... 自定义分析逻辑
版本历史
v2.0 (当前版本)
新增功能:
- ✅ 智能标签系统 (分层标签)
- ✅ 对话历史记忆 (重要性评分)
- ✅ 代码片段管理 (独立索引)
- ✅ 状态感知对话 (情绪追踪)
- ✅ 思维模式分析 (学习报告)
核心突破:
- ✅ 增量更新 - 10x+ 性能提升
- ✅ 多源检索 - 统一检索笔记/对话/代码
- ✅ 统一数据模型 - 所有内容类型共享架构
技术改进:
- ✅ 重构 chunk_schema - 完整元数据支持
- ✅ 重构 vector_indexer - append 模式
- ✅ 重构 vector_utils - MultiSourceRetriever
- ✅ 新增 orchestrator - 核心协调器
总结
AI Partner Chat 2.0 是一个完整的个性化学习伙伴系统,通过整合 5 大核心功能:
- 标签系统 - 自动组织和分类
- 对话记忆 - 记住重要讨论
- 代码管理 - 独立索引代码片段
- 状态追踪 - 感知学习状态
- 思维分析 - 生成学习洞察
实现了:
- 📝 智能笔记管理 - 自动标签、代码提取、情绪分析
- 💬 连贯对话体验 - 多源检索、状态感知、历史记忆
- 📊 学习洞察报告 - 思维层次分析、主题分布、个性化建议
- ⚡ 高性能更新 - 增量追加,秒级完成
使用起来很简单:
from scripts.orchestrator import AIPartnerOrchestrator orch = AIPartnerOrchestrator() # 一行代码处理笔记 orch.process_new_note(note_path, content) # 一行代码处理对话 context = orch.handle_conversation(user_msg) # 一行代码生成报告 orch.generate_weekly_report()
享受你的 AI 私人长期伙伴学习伙伴! 🚀