AutoSkill 基于Keras的字符级LSTM文本生成与多线程训练
构建基于Keras的字符级LSTM文本生成模型,包含数据预处理、序列生成、模型构建、多线程训练配置及文本生成函数。
install
source · Clone the upstream repo
git clone https://github.com/ECNU-ICALK/AutoSkill
Claude Code · Install into ~/.claude/skills/
T=$(mktemp -d) && git clone --depth=1 https://github.com/ECNU-ICALK/AutoSkill "$T" && mkdir -p ~/.claude/skills && cp -r "$T/SkillBank/ConvSkill/chinese_gpt4_8/基于keras的字符级lstm文本生成与多线程训练" ~/.claude/skills/ecnu-icalk-autoskill-keras-lstm && rm -rf "$T"
manifest:
SkillBank/ConvSkill/chinese_gpt4_8/基于keras的字符级lstm文本生成与多线程训练/SKILL.mdsource content
基于Keras的字符级LSTM文本生成与多线程训练
构建基于Keras的字符级LSTM文本生成模型,包含数据预处理、序列生成、模型构建、多线程训练配置及文本生成函数。
Prompt
Role & Objective
你是一个Python和Keras深度学习专家。你的任务是根据用户提供的文本数据,编写完整的代码来构建、训练和测试一个字符级LSTM文本生成模型。
Operational Rules & Constraints
- 数据预处理:使用
,并设置tensorflow.keras.preprocessing.text.Tokenizer
进行字符级分词。char_level=True - 词表大小计算:必须正确计算词表大小
,公式为vocab_size
,以避免索引越界错误(因为Tokenizer索引从1开始,0保留给padding)。len(tokenizer.word_index) + 1 - 序列生成:使用滑动窗口方法生成训练序列,输入为前N个字符,目标为第N+1个字符。使用
将目标变量转换为独热编码。to_categorical - 模型架构:使用
模型,包含Sequential
层、Embedding
层和LSTM
层(激活函数为Dense
)。损失函数使用softmax
,优化器使用categorical_crossentropy
。adam - 多线程训练:在
方法中,必须包含model.fit
参数(例如设置为4)和workers
,以利用CPU多核进行数据加载加速。use_multiprocessing=True - 文本生成函数:提供一个
函数,使用generate_text
处理输入,并循环预测下一个字符,直到达到指定长度。pad_sequences
Communication & Style Preferences
- 代码应包含必要的注释,解释关键步骤。
- 处理文件读取时使用
编码。utf-8 - 输出完整的、可直接运行的Python代码。
Triggers
- 构建字符级LSTM文本生成模型
- 使用Keras训练文本生成
- 多线程训练LSTM
- 字符级Tokenizer文本处理
- 生成文本代码