Everything-claude-code regex-vs-llm-structured-text
选择在解析结构化文本时使用正则表达式还是大型语言模型的决策框架——从正则表达式开始,仅在低置信度的边缘情况下添加大型语言模型。
install
source · Clone the upstream repo
git clone https://github.com/affaan-m/everything-claude-code
Claude Code · Install into ~/.claude/skills/
T=$(mktemp -d) && git clone --depth=1 https://github.com/affaan-m/everything-claude-code "$T" && mkdir -p ~/.claude/skills && cp -r "$T/docs/zh-CN/skills/regex-vs-llm-structured-text" ~/.claude/skills/affaan-m-everything-claude-code-regex-vs-llm-structured-text && rm -rf "$T"
manifest:
docs/zh-CN/skills/regex-vs-llm-structured-text/SKILL.mdsource content
正则表达式 vs LLM 用于结构化文本解析
一个用于解析结构化文本(测验、表单、发票、文档)的实用决策框架。核心见解是:正则表达式能以低成本、确定性的方式处理 95-98% 的情况。将昂贵的 LLM 调用留给剩余的边缘情况。
何时使用
- 解析具有重复模式的结构化文本(问题、表单、表格)
- 决定在文本提取时使用正则表达式还是 LLM
- 构建结合两种方法的混合管道
- 在文本处理中优化成本/准确性权衡
决策框架
文本格式是否一致且重复? ├── 是 (>90% 遵循某种模式) → 从正则表达式开始 │ ├── 正则表达式处理 95%+ → 完成,无需 LLM │ └── 正则表达式处理 <95% → 仅为边缘情况添加 LLM └── 否 (自由格式,高度可变) → 直接使用 LLM
架构模式
[正则表达式解析器] ─── 提取结构(95-98% 准确率) │ ▼ [文本清理器] ─── 去除噪声(标记、页码、伪影) │ ▼ [置信度评分器] ─── 标记低置信度提取项 │ ├── 高置信度(≥0.95)→ 直接输出 │ └── 低置信度(<0.95)→ [LLM 验证器] → 输出
实现
1. 正则表达式解析器(处理大多数情况)
import re from dataclasses import dataclass @dataclass(frozen=True) class ParsedItem: id: str text: str choices: tuple[str, ...] answer: str confidence: float = 1.0 def parse_structured_text(content: str) -> list[ParsedItem]: """Parse structured text using regex patterns.""" pattern = re.compile( r"(?P<id>\d+)\.\s*(?P<text>.+?)\n" r"(?P<choices>(?:[A-D]\..+?\n)+)" r"Answer:\s*(?P<answer>[A-D])", re.MULTILINE | re.DOTALL, ) items = [] for match in pattern.finditer(content): choices = tuple( c.strip() for c in re.findall(r"[A-D]\.\s*(.+)", match.group("choices")) ) items.append(ParsedItem( id=match.group("id"), text=match.group("text").strip(), choices=choices, answer=match.group("answer"), )) return items
2. 置信度评分
标记可能需要 LLM 审核的项:
@dataclass(frozen=True) class ConfidenceFlag: item_id: str score: float reasons: tuple[str, ...] def score_confidence(item: ParsedItem) -> ConfidenceFlag: """Score extraction confidence and flag issues.""" reasons = [] score = 1.0 if len(item.choices) < 3: reasons.append("few_choices") score -= 0.3 if not item.answer: reasons.append("missing_answer") score -= 0.5 if len(item.text) < 10: reasons.append("short_text") score -= 0.2 return ConfidenceFlag( item_id=item.id, score=max(0.0, score), reasons=tuple(reasons), ) def identify_low_confidence( items: list[ParsedItem], threshold: float = 0.95, ) -> list[ConfidenceFlag]: """Return items below confidence threshold.""" flags = [score_confidence(item) for item in items] return [f for f in flags if f.score < threshold]
3. LLM 验证器(仅用于边缘情况)
def validate_with_llm( item: ParsedItem, original_text: str, client, ) -> ParsedItem: """Use LLM to fix low-confidence extractions.""" response = client.messages.create( model="claude-haiku-4-5-20251001", # Cheapest model for validation max_tokens=500, messages=[{ "role": "user", "content": ( f"Extract the question, choices, and answer from this text.\n\n" f"Text: {original_text}\n\n" f"Current extraction: {item}\n\n" f"Return corrected JSON if needed, or 'CORRECT' if accurate." ), }], ) # Parse LLM response and return corrected item... return corrected_item
4. 混合管道
def process_document( content: str, *, llm_client=None, confidence_threshold: float = 0.95, ) -> list[ParsedItem]: """Full pipeline: regex -> confidence check -> LLM for edge cases.""" # Step 1: Regex extraction (handles 95-98%) items = parse_structured_text(content) # Step 2: Confidence scoring low_confidence = identify_low_confidence(items, confidence_threshold) if not low_confidence or llm_client is None: return items # Step 3: LLM validation (only for flagged items) low_conf_ids = {f.item_id for f in low_confidence} result = [] for item in items: if item.id in low_conf_ids: result.append(validate_with_llm(item, content, llm_client)) else: result.append(item) return result
实际指标
来自一个生产中的测验解析管道(410 个项目):
| 指标 | 值 |
|---|---|
| 正则表达式成功率 | 98.0% |
| 低置信度项目 | 8 (2.0%) |
| 所需 LLM 调用次数 | ~5 |
| 相比全 LLM 的成本节省 | ~95% |
| 测试覆盖率 | 93% |
最佳实践
- 从正则表达式开始 — 即使不完美的正则表达式也能提供一个改进的基线
- 使用置信度评分 来以编程方式识别需要 LLM 帮助的内容
- 使用最便宜的 LLM 进行验证(Haiku 类模型已足够)
- 切勿修改 已解析的项 — 从清理/验证步骤返回新实例
- TDD 效果很好 用于解析器 — 首先为已知模式编写测试,然后是边缘情况
- 记录指标(正则表达式成功率、LLM 调用次数)以跟踪管道健康状况
应避免的反模式
- 当正则表达式能处理 95% 以上的情况时,将所有文本发送给 LLM(昂贵且缓慢)
- 对自由格式、高度可变的文本使用正则表达式(LLM 在此处更合适)
- 跳过置信度评分,希望正则表达式“能正常工作”
- 在清理/验证步骤中修改已解析的对象
- 不测试边缘情况(格式错误的输入、缺失字段、编码问题)
适用场景
- 测验/考试题目解析
- 表单数据提取
- 发票/收据处理
- 文档结构解析(标题、章节、表格)
- 任何具有重复模式且成本重要的结构化文本