Skills daily-producer
每日一报生产引擎。从用户画像出发,自动采集多平台资讯,筛选去噪,AI 生成结构化日报,渲染为 HTML。
git clone https://github.com/openclaw/skills
T=$(mktemp -d) && git clone --depth=1 https://github.com/openclaw/skills "$T" && mkdir -p ~/.claude/skills && cp -r "$T/skills/ailab2026/daily-producer" ~/.claude/skills/openclaw-skills-daily-producer && rm -rf "$T"
T=$(mktemp -d) && git clone --depth=1 https://github.com/openclaw/skills "$T" && mkdir -p ~/.openclaw/skills && cp -r "$T/skills/ailab2026/daily-producer" ~/.openclaw/skills/openclaw-skills-daily-producer && rm -rf "$T"
skills/ailab2026/daily-producer/SKILL.mdDaily Producer Skill
个性化每日资讯日报的完整生产系统。
启动协议
当用户表达"生成日报 / 跑 daily / 今天的日报"时:
- 读取
config/profile.yaml - 不存在 → 读取并执行
初始化流程(参考init/daily-init.md
模板)reference/profile_template.yaml - 存在 → 进入日报生产流程
禁止: 未读取 profile 就问用户"你关注什么";profile 存在时主动触发初始化。
运行时指令:用户提供信息源
用户在对话中提到某个网站、账号、平台或 URL,想纳入日报采集范围时,agent 必须正确写入
config/profile.yaml,而不是仅在本次临时使用。
判断类型并写入对应字段
情况一:网站 / 媒体 / 官方博客(有 URL,无 opencli 适配器) → 写入
sources.websites.cn 或 sources.websites.global
sources: websites: global: - name: "The Verge AI" url: "https://www.theverge.com/ai-artificial-intelligence" type: "media" # media | official | community
情况二:直达 URL(每次必看的固定页面,跳过搜索直接抓取) → 写入
sources.direct
sources: direct: - "https://openai.com/news/" - "https://www.anthropic.com/news"
情况三:有 opencli 适配器的平台(微博/知乎/Twitter/Reddit 等) → 写入
sources.platforms.cn 或 sources.platforms.global,参考 reference/opencli_platforms.yaml 确认平台名
sources: platforms: cn: - name: "小红书" opencli: "xiaohongshu" commands: - "search \"{keyword}\" --limit 10" login_required: yes
操作流程
- 读取当前
config/profile.yaml - 判断类型,写入对应字段(追加,不覆盖已有内容)
- 告知用户"已添加到 profile.yaml,下次生成日报时生效"
- 若用户希望立即生效(本次日报也包含),在 Step 02 采集时额外处理该来源
禁止: 仅在对话中记住该来源而不写入 profile.yaml;禁止覆盖已有的 sources 列表。
生产流水线
共 11 步。步骤 01-05、07-09 有自动化脚本,步骤 06 由 AI 执行,步骤 00 和 10 为 feedback 系统集成。
每步的详细说明、参数、输入输出格式见
目录。reference/pipeline/
profile.yaml ↓ 00 【读取历史 feedback】 自动加载前一天 data/feedback/{date}.json ↓ 01 build_queries.py 生成搜索查询 ↓ 02 collect_sources_with_opencli.py 采集候选池 ↓ 03 filter_index.py 时间筛选 ↓ 04 collect_detail.py 深抓正文 ↓ 05 prepare_payload.py 去噪打分(自动读取 feedback 加权) ↓ 06 【AI】 生成日报 JSON ↓ 07 validate_payload.py 校验 JSON ↓ 08 render_daily.py 渲染 HTML ↓ 09 send_feishu_card.py 飞书卡片通知(交互卡片,禁止降级为纯文本) ↓ 10 feedback_server.py 启动反馈服务(后台,保持运行)
Step 01: 生成搜索查询
从 profile 的 topics/keywords 生成两类查询:platform(纯关键词给各平台搜索)和 google(带
after: 日期过滤)。
python3 scripts/build_queries.py --date {date} --window 3
→ 详见
reference/pipeline/01_build_queries.md
Step 02: 采集候选池
用 opencli 从 profile 配置的所有平台(微博/小红书/B站/Twitter/Reddit 等)和网站(机器之心/量子位/TechCrunch 等)采集资讯。
python3 scripts/collect_sources_with_opencli.py --date {date} --max-keywords 5 --max-results 5
- 采集前自动运行
检查连接opencli doctor - cn 关键词分发给国内平台,en 关键词分发给国外平台
- Reddit 自动探测 opencli 可用性,不通走 API+代理
- 每次请求间隔 3 秒防限流
→ 详见
reference/pipeline/02_collect_sources.md
→ 各平台输出字段参考 reference/opencli_output_formats.md
Step 03: 时间筛选
过滤掉超出时间窗口的旧内容。无时间字段的条目直接过滤,网站类条目(Google site: 搜索自带时间过滤)直接保留。
python3 scripts/filter_index.py --date {date} --window 3
→ 详见
reference/pipeline/03_filter_index.md
Step 04: 深抓正文
平台类条目已有完整内容(直接保留),网站类条目只有标题+URL(用
opencli web read 抓正文)。同一 URL 不重复抓取。
python3 scripts/collect_detail.py --date {date}
→ 详见
reference/pipeline/04_collect_detail.md
Step 05: 去噪打分
基于 profile 关键词匹配度过滤噪音(不用硬编码黑名单,通用于任何画像),按热度+关键词匹配打分排序。
python3 scripts/prepare_payload.py --date {date}
→ 详见
reference/pipeline/05_prepare_payload.md
Step 06: AI 生成日报 JSON(核心)
AI 读取
output/raw/{date}_candidates.json,从候选中选出 15 条目标条目,写 summary/relevance/sidebar,生成日报 JSON。
必须参考:
— 生成规则和 JSON 结构reference/pipeline/06_generate_json.md
— 结构示例reference/daily_payload_example.json
— 用户画像(决定 relevance 和 sidebar 角度)config/profile.yaml
输出:
output/daily/{date}.json
Step 07: 校验 JSON
生成后必须校验,不通过则修改后重新校验。
python3 scripts/validate_payload.py output/daily/{date}.json
→ 详见
reference/pipeline/07_validate_payload.md
Step 08: 渲染 HTML
python3 scripts/render_daily.py output/daily/{date}.json --output output/daily/{date}.html --force
→ 详见
reference/pipeline/08_render_html.md
Step 09: 飞书卡片通知
HTML 渲染完成后,立即向飞书群发送交互卡片(
msg_type: interactive)。
PUBLIC_URL=$(grep 'public_url' config/profile.yaml | head -1 | awk -F'"' '{print $2}') python3 scripts/send_feishu_card.py "${PUBLIC_URL}/daily/${DATE}.html"
格式强制要求: 必须使用交互卡片,禁止降级为纯文本。飞书机器人发的纯文本消息没有链接预览;只有
msg_type: interactive 才能显示带标题和按钮的卡片。
配置前提(在
config/profile.yaml 中):
server: public_url: "http://your-domain.com" feishu: notification: enabled: true chat_id: "oc_xxx"
→ 详见
reference/pipeline/09_notify_feishu.md
快速执行
DATE=$(date +%Y-%m-%d) # Step 00: feedback 由 prepare_payload.py 自动读取,无需手动操作 python3 scripts/build_queries.py --date $DATE --window 3 python3 scripts/collect_sources_with_opencli.py --date $DATE --max-keywords 5 --max-results 5 python3 scripts/filter_index.py --date $DATE --window 3 python3 scripts/collect_detail.py --date $DATE python3 scripts/prepare_payload.py --date $DATE # 自动读取前一天 feedback 加权 # AI 生成 output/daily/$DATE.json python3 scripts/validate_payload.py output/daily/$DATE.json python3 scripts/render_daily.py output/daily/$DATE.json --output output/daily/$DATE.html --force # Step 09: 飞书卡片通知(必须用卡片,不得用纯文本) PUBLIC_URL=$(grep 'public_url' config/profile.yaml | head -1 | awk -F'"' '{print $2}') python3 scripts/send_feishu_card.py "${PUBLIC_URL}/daily/${DATE}.html" # Step 10: 启动反馈服务(同时自动启动 graphify watch,如果 profile 中已启用) nohup python3 scripts/feedback_server.py >> output/server.log 2>&1 &
Step 10 说明(反馈服务)
- 用
启动,会话关闭不受影响nohup - 端口被占时明确报错(不再静默漂移到 +1 端口)
- 自动 24 小时后退出(可在
的config/profile.yaml
调整)server.timeout_hours - 日志写入
output/server.log - 若服务已在运行,
会自动关闭旧进程再重启feedback_server.py
→ 完整流水线说明见
reference/pipeline/00_overview.md
目录结构
config/ profile.yaml 用户画像 scripts/ build_queries.py 01 生成搜索查询 collect_sources_with_opencli.py 02 采集候选池 filter_index.py 03 时间筛选 collect_detail.py 04 深抓正文 prepare_payload.py 05 去噪打分 validate_payload.py 07 校验 JSON render_daily.py 08 渲染 HTML send_feishu_card.py 09 飞书卡片通知(交互卡片,禁止纯文本) render_index.py 站点首页生成 feedback_server.py 10 反馈服务 reference/ pipeline/ 流水线各步骤详细文档(8 个 .md) profile_template.yaml profile 结构模板 opencli_platforms.yaml opencli 全量平台目录(31 个平台) opencli_output_formats.md 各平台输出字段和时间格式 daily_collection_guide.md 采集执行指南 daily_payload_example.json 日报 JSON 结构示例 daily_example.html HTML 视觉基线 index_to_detail_guide.md index → detail 流程说明 init/ daily-init.md 画像初始化向导 output/ daily/{date}.json 日报 JSON daily/{date}.html 日报 HTML raw/{date}_queries.txt 搜索查询 raw/{date}_index.txt 原始候选池 raw/{date}_index_filtered.txt 筛选后候选池 raw/{date}_detail.txt 深抓详情 raw/{date}_candidates.json 去噪打分后候选 archive/ 旧 HTML 归档
工具依赖
opencli(首选采集工具)
通过 Chrome DevTools Protocol 连接本地 Chrome,复用登录态采集 73+ 平台。
opencli doctor # 检查连接状态
不可用时退回
web_search + web_fetch,不阻断生产。
Python 3.10+
本地脚本依赖,pyyaml 用于解析 profile(无则用内置 parser)。
Graphify(可选,知识图谱收藏功能)
日报中的「收藏」按钮依赖 Graphify 将文章写入本地知识图谱。首次使用前必须安装并启动 watch 模式:
pip install graphifyy # 启动 watch 模式(后台持续监听新收藏) graphify ~/graphify-data --watch &
启动后,用户在日报中点击收藏 → 文章自动写入
~/graphify-data/raw/ → Graphify 增量更新知识图谱。
开启方式: 在
config/profile.yaml 中设置:
graphify: enabled: true data_dir: "~/graphify-data" # 与上方 graphify 命令路径保持一致
不需要此功能可跳过(
enabled: false 时收藏按钮不写入文件,点击无副作用)。
质量约束
- 前 3 条优先产品/模型/平台级变化
- 默认最近 3 天窗口
- URL 用具体文章页,不用首页
- 信号多样性:官方/媒体/社区/开源/研究
- 所有中间产物必须留痕到
output/raw/ - JSON 必须通过
校验后才能渲染validate_payload.py