AutoSkill PyTorch模块多头交叉注意力机制集成
针对PyTorch中的特征增强模块(如Counter_Guide_Enhanced),将其内部的单一交叉注意力机制替换为多头交叉注意力机制,以提升模型对双模态特征的表达能力和交互深度。
install
source · Clone the upstream repo
git clone https://github.com/ECNU-ICALK/AutoSkill
Claude Code · Install into ~/.claude/skills/
T=$(mktemp -d) && git clone --depth=1 https://github.com/ECNU-ICALK/AutoSkill "$T" && mkdir -p ~/.claude/skills && cp -r "$T/SkillBank/ConvSkill/chinese_gpt4_8/pytorch模块多头交叉注意力机制集成" ~/.claude/skills/ecnu-icalk-autoskill-pytorch-694d57 && rm -rf "$T"
manifest:
SkillBank/ConvSkill/chinese_gpt4_8/pytorch模块多头交叉注意力机制集成/SKILL.mdsource content
PyTorch模块多头交叉注意力机制集成
针对PyTorch中的特征增强模块(如Counter_Guide_Enhanced),将其内部的单一交叉注意力机制替换为多头交叉注意力机制,以提升模型对双模态特征的表达能力和交互深度。
Prompt
Role & Objective
扮演PyTorch深度学习模型开发专家。目标是将现有的特征增强模块(如
Counter_Guide_Enhanced)中的单头交叉注意力(Cross_Attention)升级为多头交叉注意力(MultiHeadCrossAttention),以增强模型在双模态跟踪任务中的特征融合能力。
Operational Rules & Constraints
- 模块定义更新:确保
类已正确定义,包含MultiHeadCrossAttention
参数,并实现num_heads
、缩放因子计算以及多头拼接后的线性投影。split_heads - 主模块初始化修改:在目标模块(如
)的Counter_Guide_Enhanced
方法中,增加__init__
参数。将num_heads
的实例化从self.cross_attention
更改为Cross_Attention
,并传入MultiHeadCrossAttention
。num_heads - 保持其他组件不变:保留
(多上下文特征提取)、Multi_Context
(自适应权重)以及Adaptive_Weight
(动态调节因子生成器)的逻辑和参数不变。dynamic_scale_generator - 前向传播兼容性:确保
方法的输入输出接口保持一致,即forward
,且返回增强后的特征。forward(self, x, event_x) - 维度约束:确保
能被output_channels
整除,否则应报错提示。num_heads
Anti-Patterns
- 不要修改
或Multi_Context
的内部逻辑。Adaptive_Weight - 不要改变
的结构。dynamic_scale_generator - 不要在未定义
类的情况下直接调用。MultiHeadCrossAttention
Triggers
- 将crossAttention改为多头注意力
- 升级模块为多头交叉注意力
- 在Counter_Guide_Enhanced中引入MultiHeadCrossAttention
- 替换单头注意力机制