humanize-chinese
git clone https://github.com/voidborne-d/humanize-chinese
git clone --depth=1 https://github.com/voidborne-d/humanize-chinese ~/.claude/skills/voidborne-d-humanize-chinese-humanize-chinese
SKILL.mdHumanize Chinese AI Text v3.0
检测和改写中文 AI 生成文本的完整工具链。可独立运行(统一 CLI 或独立脚本),也可作为 LLM prompt 指南使用。
v3.0 亮点: HC3 accuracy 51→73% (+22 pts);句长 CV Cohen's d=1.22 最强统计特征;40 paraphrase 模板 + 122 学术替换;统一 CLI +
--quick 18× 速度。
CLI Tools
统一 CLI(推荐)
./humanize detect 文本.txt -v # 检测 + 详细 ./humanize rewrite 文本.txt -o 改后.txt --quick # 快速改写(18× 速度) ./humanize academic 论文.txt -o 改后.txt --compare # 学术降重 + 双评分对比 ./humanize style 文本.txt --style xiaohongshu # 风格转换 ./humanize compare 文本.txt -a # 前后对比
独立脚本形式(等价)
所有脚本在
scripts/ 目录下,纯 Python,无依赖。
# 检测 AI 模式(20+ 规则维度 + 8 统计特征,0-100 分) python scripts/detect_cn.py text.txt python scripts/detect_cn.py text.txt -v # 详细 + 最可疑句子 python scripts/detect_cn.py text.txt -s # 仅评分 python scripts/detect_cn.py text.txt -j # JSON 输出 # 改写(三档自适应:conservative/moderate/full) python scripts/humanize_cn.py text.txt -o clean.txt python scripts/humanize_cn.py text.txt --scene social -a # 社交 + 激进 python scripts/humanize_cn.py text.txt --quick # 18× 速度,纯替换 python scripts/humanize_cn.py text.txt --cilin # 启用 CiLin 同义词扩展 # 风格转换(先自动 humanize 再套风格) python scripts/style_cn.py text.txt --style zhihu -o out.txt # 前后对比 python scripts/compare_cn.py text.txt --scene tech -a # 学术论文 AIGC 降重(11 维度 + 扩散度 + 双评分) python scripts/academic_cn.py paper.txt -o clean.txt --compare python scripts/academic_cn.py paper.txt -o clean.txt -a --compare # 激进 python scripts/academic_cn.py paper.txt -o clean.txt --quick # 快速模式
评分标准
| 分数 | 等级 | 含义 |
|---|---|---|
| 0-24 | LOW | 基本像人写的 |
| 25-49 | MEDIUM | 有些 AI 痕迹 |
| 50-74 | HIGH | 大概率 AI 生成 |
| 75-100 | VERY HIGH | 几乎确定是 AI |
参数速查
| 参数 | 说明 |
|---|---|
| 详细模式,显示可疑句子 |
| 仅评分 |
| JSON 输出 |
| 输出文件 |
| 激进模式 |
| 固定随机种子 |
| general / social / tech / formal / chat |
| casual / zhihu / xiaohongshu / wechat / academic / literary / weibo |
| 前后对比(学术双评分) |
| 快速模式(跳过统计优化,18× 速度) |
| 启用 CiLin 同义词扩展(humanize,38873 词) |
| style 转换前不先去 AI 词 |
工作流
# 1. 检测 ./humanize detect document.txt -v # 2. 改写 + 对比 ./humanize compare document.txt -a -o clean.txt # 3. 验证 ./humanize detect clean.txt -s # 4. 可选:转风格 ./humanize style clean.txt --style zhihu -o final.txt
HC3-Chinese 基准测试
v3.0 所有阈值都基于 HC3-Chinese 300+300 人类/AI 样本的 Cohen's d 校准:
- 句长变异系数 CV: d = 1.22(最强单信号)
- 短句占比 (< 10 字): d = 1.21
- 困惑度: d = 0.47
- GLTR top-10 bucket: d = 0.44
- DivEye skew / kurt: d = 0.41 / 0.29
- 逗号密度: d = -0.47
100 样本回归测试:73% 正确分离率 / 9.9 分差距 / +4.2 平均降幅。
LLM 直接使用指南
当用户要求"去 AI 味"、"降 AIGC"、"人性化文本"、"改成人话"时,如果无法运行 CLI 工具,按以下流程手动处理。
第一步:检测 AI 写作模式
扫描文本中的以下模式,按严重程度分类:
🔴 高危模式(一眼就能看出是 AI)
三段式套路:
- 首先…其次…最后
- 一方面…另一方面
- 第一…第二…第三
机械连接词: 值得注意的是、综上所述、不难发现、总而言之、与此同时、由此可见、不仅如此、换句话说、更重要的是、不可否认、显而易见、不言而喻、归根结底
空洞宏大词: 赋能、闭环、数字化转型、协同增效、降本增效、深度融合、全方位、多维度、系统性、高质量发展、新质生产力
🟠 中危模式
AI 高频词: 助力、彰显、凸显、底层逻辑、抓手、触达、沉淀、复盘、迭代、破圈、颠覆
填充废话: 值得一提的是、众所周知、毫无疑问、具体来说、简而言之
模板句式:
- 随着…的不断发展
- 在当今…时代
- 在…的背景下
- 作为…的重要组成部分
- 这不仅…更是…
平衡论述套话: 虽然…但是…同时、既有…也有…更有
🟡 低危模式
- 犹豫语过多(在一定程度上、某种程度上 出现 >5 次)
- 列举成瘾(动辄①②③④⑤)
- 标点滥用(大量分号、破折号)
- 修辞堆砌(排比对偶过多)
⚪ 风格信号
- 段落长度高度一致
- 句子长度单调
- 情感表达平淡
- 开头方式重复
- 信息熵低(用词可预测)
第二步:改写策略
按以下顺序处理:
1. 砍掉三段式 把"首先…其次…最后"打散,用自然过渡代替。不是每个论点都要编号。
2. 替换 AI 套话
- 综上所述 → 总之 / 说到底 / (直接删掉)
- 值得注意的是 → (直接删掉,后面的话自己能说清楚)
- 赋能 → 帮助 / 支持 / 提升
- 数字化转型 → 信息化改造 / 技术升级
- 不难发现 → 可以看到 / (删掉)
- 助力 → 帮 / 推动
3. 句式重组
- 过短的句子合并("他很累。他决定休息。" → "他累了,干脆歇会儿。")
- 过长的句子拆开(在"但是""不过""同时"等转折处断开)
- 打破均匀节奏(长短句交替,不要每句差不多长)
4. 减少重复用词 同一个词出现 3 次以上就换同义词。比如"进行"可以换成"做""搞""开展""着手"。
5. 注入人味
- 加一两句口语化表达(场景允许的话)
- 用具体的例子代替抽象概括
- 偶尔加个反问或感叹
- 不要每段都总分总结构
6. 段落节奏 打破每段差不多长的格局。有的段落 2 句话,有的 5 句话,像人写东西时自然的长短变化。
第三步:学术论文特殊处理
当文本是学术论文时,改写规则不同——不能口语化,要保持学术严谨性:
学术专用检测维度:
- AI 学术措辞("本文旨在""具有重要意义""进行了深入分析")
- 被动句式过度("被广泛应用""被认为是")
- 段落结构过于整齐(每段总-分-总)
- 连接词密度异常
- 同义表达匮乏("研究"出现 8 次)
- 引用整合度低(每个引用都是"XX(2020)指出…")
- 数据论述模板化("从表中可以看出")
- 过度列举(①②③④ 频繁出现)
- 结论过于圆满(只说好不说局限)
- 语气过于确定("必然""毫无疑问")
学术改写策略:
-
替换 AI 学术套话(保持学术性):
- 本文旨在 → 本文尝试 / 本研究关注
- 具有重要意义 → 值得关注 / 有一定参考价值
- 研究表明 → 前人研究发现 / 已有文献显示 / 笔者观察到
- 进行了深入分析 → 做了初步探讨 / 展开了讨论
- 取得了显著成效 → 产生了一定效果 / 初见成效
-
减少被动句:
- 被广泛应用 → 得到较多运用 / 在多个领域有所应用
- 被认为是 → 通常被看作 / 一般认为
-
注入学术犹豫语(hedging): 在过于绝对的判断前加"可能""在一定程度上""就目前而言""初步来看"
-
增强作者主体性:
- 研究表明 → 笔者认为 / 本研究发现
- 可以认为 → 笔者倾向于认为
-
补充局限性: 如果结论段没有提到局限,补一句"当然,本研究也存在一定局限…"
-
打破结构均匀度: 调整段落长度,避免每段都一样。合并过短的段落,拆分过长的。
第四步:验证
改写完成后,用 CLI 工具验证效果:
./humanize detect output.txt -s
目标(基于 v3.0 的强化检测器):
- 通用文本降到 50 分以下(MEDIUM 区间)
- 学术论文降到 40 分以下(学术专用),通用评分降到 35 分以下
- 真实 ChatGPT 输出 baseline 通常已在 5-25 分,改写后能降 3-10 分就算成功
- 刻板化 AI 样板文(论文模板/八股)可以看到 50+ 分降幅
注:v3.0 detect_cn 加了句长 CV + 短句占比 + 逗号密度三个强指标,相同文本的分数会比 v2.x 略高(更准确),这是正常现象。
配置说明
所有检测模式和替换规则在
scripts/patterns_cn.json,可自定义:
- 添加新 AI 词汇
- 调整权重
- 增加替换规则
- 修改正则匹配
外部配置字段
critical_patterns — 高权重检测(三段式、连接词、空洞词) high_signal_patterns — 中权重检测(AI 高频词、模板句) replacements — 替换词库(正则 + 纯文本) academic_patterns — 学术专用检测与替换 scoring — 权重和阈值配置