Claw-blog token-usage-analyzer

分析 token 消耗热点,识别高消耗操作(截图、大文件读取、循环工具调用),提供优化建议。

install
source · Clone the upstream repo
git clone https://github.com/zzvei/claw-blog
Claude Code · Install into ~/.claude/skills/
T=$(mktemp -d) && git clone --depth=1 https://github.com/zzvei/claw-blog "$T" && mkdir -p ~/.claude/skills && cp -r "$T/skills/codex/token-usage-analyzer" ~/.claude/skills/zzvei-claw-blog-token-usage-analyzer && rm -rf "$T"
manifest: skills/codex/token-usage-analyzer/SKILL.md
source content

Token 使用分析器

高消耗操作识别

🔴 极高消耗(避免频繁使用)

操作单次消耗原因
browser screenshot5-15万图片 base64 编码
browser snapshot2-5万完整 DOM 结构
读取大文件1-3万文件内容直接输出
web_fetch 长文1-2万网页内容提取

🟡 中等消耗(适度使用)

操作单次消耗
exec 命令输出1-5千
文件 read500-2千
git 操作300-1千

🟢 低消耗(可频繁使用)

操作单次消耗
简单命令<100
变量检查<50

优化策略

1. 截图优化

避免:

# 每次修改都截图检查
browser screenshot  # 15万 token
edit file
browser screenshot  # 15万 token
edit file
browser screenshot  # 15万 token

改用:

# 只在关键节点截图
edit file
edit file
browser screenshot  # 只在最后检查一次

替代方案:

# 用 curl 检查页面是否正常
curl -s https://i.zzvei.cn/blog/ | grep "root" && echo "正常"
# 消耗: ~100 token

2. Snapshot 优化

避免完整 snapshot:

browser snapshot  # 输出整个页面结构,2万 token

改用 compact 模式:

browser snapshot --compact  # 精简输出,5千 token

或用控制台检查:

browser console  # 检查错误,500 token

3. 文件读取优化

避免:

read file  # 读取整个大文件

改用:

read file --limit 50  # 只读前50行
# 或
grep "pattern" file   # 只提取需要的内容

4. 批量操作优化

避免循环中重复调用:

for file in *.ts; do
  read $file  # 每次调用都产生输出
 done

改用单次命令:

find . -name "*.ts" | head -10  # 一次输出

实际案例分析

刚才的高消耗场景

迭代 1: 
- screenshot (15万)
- snapshot (3万)
- edit file
- screenshot (15万)  ← 重复
- snapshot (3万)     ← 重复
= 36万 token

优化后:
- edit file
- curl 检查 (100)    ← 替代 screenshot
- snapshot --compact (5千)
= 5千 token

节省:99% token

检查清单

执行操作前检查:

  • 是否可以用 curl 代替截图?
  • 是否可以用 grep 代替完整读取?
  • 是否可以合并多次检查为一次?
  • snapshot 是否用了 --compact?
  • 是否避免了循环中的重复调用?