Skills Funai-skill
橙星梦工厂AI视频制作工具,通过对话式操作,用户可以创建项目、配置剧本、生成角色/分镜/视频、查询任务状态。当用户要求使用橙星梦工厂平台、创建 AI 漫剧项目、或通过 API 与平台交互时使用。触发词:橙星梦工厂、ai.fun.tv、漫剧制作、AI漫剧、FunAI。
git clone https://github.com/openclaw/skills
T=$(mktemp -d) && git clone --depth=1 https://github.com/openclaw/skills "$T" && mkdir -p ~/.claude/skills && cp -r "$T/skills/amireux0013/funai-skill" ~/.claude/skills/openclaw-skills-funai-skill && rm -rf "$T"
T=$(mktemp -d) && git clone --depth=1 https://github.com/openclaw/skills "$T" && mkdir -p ~/.openclaw/skills && cp -r "$T/skills/amireux0013/funai-skill" ~/.openclaw/skills/openclaw-skills-funai-skill && rm -rf "$T"
skills/amireux0013/funai-skill/SKILL.md橙星梦工厂 Agent Skill
橙星梦工厂是一个 AI 驱动的漫剧制作平台。通过 API 创建项目、提交剧本、提取角色、生成分镜、配置成片并最终合成视频。
内测提示
当前您正在使用的是 Funai-skill 内测版。 Agent 在与用户交互时,应明确告知当前处于内测阶段。
重要结论
真实后端不是“只看
的线性流程”,而是:workflow.currentStep
- 一层是项目级步骤:
workflow.currentStep- 一层是章节级隐藏任务:
中的comicPreset.data.chapters[]、sceneCaptionsTaskStatus、dialogTaskStatussceneTaskStatusAgent 如果只看
就继续调用下一步,非常容易报错。currentStep
Skill 更新约束(创建类操作前必须执行)
本地机器可读版本文件:
VERSION
说明:对外文案不再重复写死版本号;实际版本以本地
与远端 setup 元数据中的VERSION为准。latest_version / minimum_required_version
每当 Agent 准备调用本 Skill 执行任何会创建、推进、修改平台任务的操作前,必须先访问固定更新入口:
https://neirong.funshion.net/skills/setup-skill.md
至少检查以下字段:
latest_versionminimum_required_versionforce_updateskill_package_url
执行规则:
- 如果本地尚未安装本 Skill,必须先自动安装。
- 如果远端要求强制更新,或本地版本低于
,必须先自动更新。minimum_required_version - 版本检查完成后,才能继续执行创建项目、提交剧本、推进步骤、生图、生视频、回退、合成等操作。
快速配置
1. 获取 Token
引导用户访问
https://ai.fun.tv/#/openclaw 并登录,获取 Token 后由 Agent 代为写入配置文件。
2. 配置 Token
cp config/.env.example config/.env # 编辑 config/.env # AIFUN_TOKEN=...
3. 验证配置
./scripts/api-client.sh setup-check ./scripts/api-client.sh check
4. 运行完整自检示例
./examples/create-comic.sh
示例脚本是自检脚本,会使用
返回的实时默认值自动创建测试项目。select-options面向真实用户的 Agent 交互中,仍然必须先读取实时可选项;其中
必须展示给用户并让用户选择,aspect / style可按当前默认值静默使用,generateType / scriptType在用户未指定时可继续使用实时默认值。model / videoModel另外,示例脚本为了验证整条链路,会在自检场景下先提交剧本再展示“确认点”;这不代表真实用户交互可以跳过“先确认再继续”的节奏要求。
Agent 必须遵守的执行规则
0. 默认模式静默使用,不要主动向用户解释
除非用户明确提出要切换模式,否则 Agent 应直接使用平台默认模式:
(文生图)generateType = 1
(以scriptType = 解说漫模式
返回的默认剧本模式为准)select-options
但这条“静默默认”只适用于模式层级,不适用于项目视觉配置。
创建项目时,以下两个字段不能静默默认,必须让用户明确选择:
(画面比例)aspect
(风格)style
重要:
- 这是 Agent 的内部默认决策,不要主动把“现在默认使用文生图 / 解说漫模式”当成一个需要告诉用户的配置项。
- 只有当用户明确要求切换到其他模式时,才需要说明并调整。
- 即使静默使用默认模式,底层仍然必须先调
,并使用当次接口返回的默认值,而不是写死常量。select-options
不能因为接口返回了aspect / style
就直接替用户决定,必须向用户展示可选项并让用户确认。isDefault
1. 创建项目前必须先调 select-options
select-optionsPOST /service/workflow/project/story/select-options {"appCode":"ai-story","generateType":"1"}
规则:
- 必须使用接口返回的
、ratios
、generateTypes
、models
、videoModels
、stylesscriptTypes - 禁止硬编码风格、模型、比例、剧本类型
是请求相关的,不要把历史默认值写死在代码或文档里isDefault- 如果用户没有明确要求切换模式,则直接静默使用当次接口返回的默认
generateType / scriptType - 但
必须向用户展示并让用户选择,不能静默默认aspect / style
若用户没有额外要求,可以继续使用model / videoModel
返回的当前默认值select-options- 面向用户交互时,不需要主动把“文生图 / 解说漫模式”当作默认项拿出来解释;但必须明确让用户选择
aspect / style
2. 解说剧 / 解说漫模式下,AI 代写剧本必须写成旁白叙述式小说体
如果用户让 AI 帮忙写剧本,而当前走的是解说剧 / 解说漫模式,Agent 必须把剧本写成旁白叙述式的小说 / 故事正文,而不是分镜脚本。
必须符合:
- 连续叙事
- 以旁白持续讲述故事推进为主
- 可以穿插少量自然对白,但整体仍应是讲述型正文
- 适合后续交给平台自动拆分角色、分镜与解说
禁止出现这类写法:
/镜头1镜头2
这种显式台本标签旁白:...林舟说:...
/【音效:脚步声】
/砰!
这类音效描述咚——- 舞台说明式条目
- 分镜表 / 台本格式
正确风格示意:
清晨,城市公园的林荫道上,年轻人林舟正在慢跑。阳光穿过树叶,在青石板路上投下斑驳的金色光影。 他刚想加快脚步,一只金毛犬忽然从灌木旁窜了出来,差点撞上他的膝盖。林舟猛地停住脚步,呼吸一乱,循声抬头望去。 不远处,一个扎着马尾的女孩正快步跑来。她一边抓紧手里的牵引绳,一边有些不好意思地朝林舟笑了笑。
错误风格示意:
镜头1:公园远景。 旁白:清晨的城市公园里,林舟正在跑步。 林舟说:今天一定要把状态跑出来。 镜头2:金毛犬冲出。
3. 创建项目成功后,先展示项目链接
创建成功后必须立即把项目链接告诉用户:
https://ai.fun.tv/#/comic/multiple?projectId={projectId}
4. 不要只看 workflow.currentStep
workflow.currentStep以下三类 readiness 都要检查:
| 场景 | 检查位置 | 继续条件 |
|---|---|---|
| 项目处于哪个大步骤 | → | 当前步骤正确 |
| 角色图是否完成 | → / | 全部 且 非空 |
| 章节级隐藏任务是否完成 | → | 对应状态字段为 |
5. 不要硬编码 tts
/ voice-clone-select
输入
ttsvoice-clone-selectnovel_extract_roles 不是只传 chapterNum 就够。真实可运行的做法是:
- 先调
GET /comic/roles/{presetResourceId} - 从
或data.voiceInputs[0]
取出 live 的data.roles[0].inputs[0]
输入对象tts - 将它和
一起提交chapterNum
6. 不要把 sceneUuid
当 sceneId
sceneUuidsceneIdscene-list 里的 sceneUuid 只是短 ID,不能直接用于分镜/视频接口。
正确流程:
comicPreset/{presetResourceId} → chapters[].sceneTaskId → GET /task/{sceneTaskId} → data.resourceId (storyboardId) → GET /resource/{storyboardId} → data.data.scenes[].id (完整 sceneId)
7. 优先向用户返回 videoPlayUrl
videoPlayUrl如果后端返回了新的可播放字段:
- scene 视频资源:
videoPlayUrl - 最终成片资源:
videoPlayUrl
则正确做法是:
- 对外只返回
videoPlayUrl - 高层 helper、示例脚本、模型可见输出中不要暴露原始视频
url - 项目链接仍可作为补充入口一起返回
8. scene/ai/video
必须使用 scene 当前基准分镜图
scene/ai/video图转视频的正确图片来源是当前 scene 的基准分镜图:
- 优先使用
中的GET /storyboard/scene/{sceneId}/prompt/detail?sceneId={sceneId}video.imageId - 再到
中找到与这个GET /storyboard/scene/{sceneId}/resources
对应的 image 资源imageId - 如果当前仍有
的 image,它通常就是同一张图selected == true
不要直接使用:
返回的GET /comic/roles/{presetResourceId}roles[].imgUrl
重要:这不是“后端一定会报错”的约束,而是“Agent 必须主动保证语义正确”的约束。
live 测试里,后端接受了
roles[].imgUrl + roles[].imageResourceId,并成功生成了一条 video 资源。也就是说,传错图时接口可能仍然返回 200 success,但生成出来的是语义错误的视频。
所以:
- 正确图源 = scene 当前基准分镜图(优先
对应的 image)video.imageId - 错误图源 = 角色图 / 其他非当前 scene 图片
- 不要依赖后端帮你兜底
面向 Agent 的权威执行顺序
第 0 步:先做 setup 检查
先读取
https://neirong.funshion.net/skills/setup-skill.md,确认本地 skill 版本可用。
第 1 步:获取项目可选项
POST /service/workflow/project/story/select-options {"appCode":"ai-story","generateType":"1"}
第 2 步:创建项目
使用上一步接口返回的实时值创建项目。
live 后端通常会让
自动完成,所以项目创建后常见的novel_config是currentStep,这是正常现象。novel_input
如果用户没有特别说明,不要额外告诉用户“当前默认使用文生图 / 解说漫模式”。
但在真正创建项目之前,必须先让用户明确选择:
- 画面比例
aspect- 风格
style只有这两个字段确认后,才可以结合实时默认的
创建项目。generateType / scriptType / model / videoModel
第 3 步:提交剧本
POST /service/workflow/project/step/next { "userProjectId": "项目ID", "step": "novel_input", "inputs": [ {"name": "content", "type": "text", "value": "剧本内容"}, {"name": "scriptType", "type": "text", "value": "0"}, {"name": "isSplit", "type": "text", "value": "0"} ] }
返回
resultId 后轮询 GET /task/{resultId}。
如果剧本是 AI 代写,并且当前是解说剧 / 解说漫模式,则剧本正文必须保持旁白叙述式小说体,不要写成分镜脚本,也不要写音效描述。
第 4 步:智能分集
POST /service/workflow/project/step/next {"userProjectId":"项目ID","step":"novel_opt","inputs":[]}
返回
resultId 后轮询任务。
第 5 步:等待角色图完成,再执行角色步骤
先调:
GET /service/workflow/comic/roles/{presetResourceId}
必须满足:
roles[].taskStatus == SUCCESS
非空roles[].imgUrl
然后再调:
POST /service/workflow/project/step/next { "userProjectId": "项目ID", "step": "novel_extract_roles", "inputs": [ {"type": "number", "name": "chapterNum", "value": 1}, { ...来自 roles/voiceInputs 的 tts 输入对象... } ] }
如果跳过这一步,常见报错是:
角色 [xxx] 图片未完成
如果用户在这一阶段要求修改角色形象,则必须满足:
- 当前
workflow.currentStep == novel_extract_roles - 先对目标角色发起新图生成
- 等待新图在角色候选图列表里变成
且SUCCESS
非空imgUrl - 再显式应用这张新图
- 最后重新读取角色列表,确认角色主图已切换,并把新的图片 URL 返回给用户
只生图不应用,不算修改完成。
第 6 步:等待 sceneCaptionsTaskStatus=SUCCESS
,再执行智能分镜
sceneCaptionsTaskStatus=SUCCESS先调:
GET /service/workflow/resource/comicPreset/{presetResourceId}
等待:
chapters[chapterNum].sceneCaptionsTaskStatus == SUCCESS
补充说明:live 数据里,这类章节字段在短时间内可能先出现空值,再进入
RUNNING / SUCCESS。空值不一定代表异常,更不能据此提前推进下一步。
然后再调:
POST /service/workflow/project/step/next { "userProjectId": "项目ID", "step": "novel_scene_captions", "inputs": [ {"type": "number", "name": "chapterNum", "value": 1}, {"name": "imgGenTypeRef", "value": 1} ] }
这个步骤返回的是
,不是 dialogTaskId
resultId。
如果调早了,常见报错是:
该章节提取分镜场景任务未完成,请稍后再试
第 7 步:轮询 dialogTaskId
后,还要再等 sceneTaskStatus=SUCCESS
dialogTaskIdsceneTaskStatus=SUCCESS轮询
dialogTaskId 成功后,仍然不能立刻推进到成片。
还需要再看:
chapters[chapterNum].sceneTaskStatus == SUCCESS
补充说明:live 数据里,
sceneTaskStatus 在一段时间内可能为空,再变成 SUCCESS;判断 readiness 时应继续轮询,而不是把空值直接当失败。
如果调早了,常见报错是:
该章节分镜图任务未完成,请稍后再试
第 8 步:推进到成片步骤
等
sceneTaskStatus=SUCCESS 后,再调:
POST /service/workflow/project/step/next { "userProjectId": "项目ID", "step": "novel_chapter_scenes", "inputs": [{"type": "number", "name": "chapterNum", "value": 1}] }
第 9 步:解析 storyboard 与 sceneId
用
sceneTaskId -> task -> resourceId -> resource 链路拿到:
storyboardIdscenes[].idscenes[].image
第 9.5 步:单场景图转视频(如用户明确要求)
先确认:
- 当前步骤已处于
novel_chapter_scenes sceneTaskStatus == SUCCESS- 使用完整
sceneId - 先取
,再从prompt/detail.video.imageId
中找到对应 image 资源resources
推荐 payload 形态:
{ "sceneId": "完整 sceneId", "prompt": "来自 prompt/detail 的视频提示词", "cameraPrompt": "来自 prompt/detail 的镜头提示词", "model": "doubao-pro", "duration": "-1", "firstImage": "scene 当前基准分镜图 URL", "tailImage": "", "clarity": "720p", "imageId": "scene 当前基准 image 资源ID" }
不要写成:
firstImage = roles[].imgUrl imageId = roles[].imageResourceId
因为这可能不会报错,却会生成错误语义的视频。
第 10 步:成片配置与合成
这里必须明确区分成片设置阶段和视频合成阶段。
第 10A 步:进入 novel_chapter_video
= 进入成片设置阶段
novel_chapter_video当章节从
novel_chapter_scenes 推进到 novel_chapter_video 后,用户并不是立刻就能看到最终成片。
live 测试里,这个阶段常见特征是:
workflow.currentStep = novel_chapter_videochapters[].currentStep = novel_chapter_videochapters[].currentSubStep = setting
这表示当前处于成片设置阶段,此时需要准备并确认成片参数。
第 10B 步:保存成片设置
顺序如下:
POST /storyboard/prepareVideoCompositeGET /storyboard/getVideoSetting?userProjectId=...&type=2&chapterNum=1POST /storyboard/saveVideoComposeConfig
这一阶段主要对应:
- 封面设置
- 字幕设置
- 背景音乐
- 以及后续生成视频前需要确认的合成相关参数
在 live 测试中,
saveVideoComposeConfig 成功后,章节仍可能保持:
currentSubStep = setting
也就是说,保存设置成功 ≠ 已经开始合成视频。
第 10C 步:点击“生成视频” = 真正发起视频合成
只有当调用:
withPOST /project/step/actionstep=novel_chapter_video
之后,才是真正开始视频合成。
live 测试里,这一步会:
- 返回新的
(视频合成任务 ID)resultId - 将章节的
更新为新的任务 IDvideoTaskId - 让章节
从currentSubStep
进入settingvideo
然后才需要:
- 轮询返回的
resultId
live 自检里,这个最终合成任务可能会在
QUEUED 状态停留明显长于普通步骤;不要沿用前面普通任务的短轮询预算直接判超时。
第 10D 步:只有合成任务成功后,用户才能看到最终成片
只有在视频合成任务
SUCCESS 后:
- 才会得到新的最终视频
resourceId - 用户这时才能在平台里看到最终成片结果
换句话说:
- 进入
不是最终成片完成novel_chapter_video - 保存封面 / 字幕 / 背景音乐也不是最终成片完成
- 必须等视频合成任务成功后,最终成片才真正可见
saveVideoComposeConfig 的可运行 payload 需要至少包含:
selectCovercoverListselectCoverUrlselectMusicIdselectTitleFontselectSubtitleFonttitlebgmVolumetypechapterNumuserProjectId
回退后必须重新合成
live 测试确认:
- 在
合成成功后,章节会记录当前的novel_chapter_videovideoTaskId - 一旦回退到
再做调整,重新进入novel_chapter_scenes
后,旧的合成结果不会自动变成新的最终成片novel_chapter_video - 再次调用
时,会产生新的project/step/actionvideoTaskId - 最终也会生成新的视频
resourceId
这说明:
每次从成片步骤回退调整后,都必须重新合成视频。
任务简报与逐步确认机制
Agent 的角色应该像“持续陪伴的智能漫剧助理”,而不是闷头执行器。
每完成一个用户可感知的重要任务,都应立即给用户一条简报,至少包含:
- 刚完成了什么
- 本步产出了什么关键结果
- 下一步准备做什么
- 如果需要用户决策,明确告诉用户要选什么
- 明确询问用户:是否继续;如果当前步骤支持修改,再询问是否要修改当前结果
如果项目已创建,简报优先附上项目链接:
https://ai.fun.tv/#/comic/multiple?projectId={projectId}
强制节奏要求
除纯技术性的中间动作外,Agent 不得在用户没有确认的情况下自动把整条链路一路做完。
正确节奏是:
完成一个大步骤 → 详细汇报当前结果 → 询问用户是否满意、是否继续下一步;如果当前步骤支持修改,再询问是否需要修改 → 等用户确认后再继续
这里的“大步骤”至少包括:
- 创建项目完成
- 剧本写完 / 提交完成
- 角色整理完成
- 智能分镜完成
- 分镜图生成完成
- 图转视频完成
- 成片配置完成 / 合成完成
三个强制停点(不可跳过)
以下三个节点完成后,Agent 必须立即停下来等待用户确认,不能自动进入下一步:
-
小说 / 剧本生成完成后
- 必须把完整或核心剧本内容回给用户
- 明确询问:是否需要修改剧情、人物设定、语气风格
- 用户确认后,才能继续提交剧本或进入后续步骤
-
角色生成完成后
- 必须把每个角色的角色图片的URL返回给用户
- 如果当前项目仍处于
(角色与配音)步骤,应主动询问用户是否需要修改某个角色的形象novel_extract_roles - 如果用户要求修改,必须先生成新图、等待新图完成、再显式应用新图;只有主图真正切换后,才算修改完成
- 修改完成后,必须把新的角色图片 URL 返回给用户
- 用户确认无误后,才能继续进入场景 / 分镜相关步骤
-
场景 / 分镜生成完成后
- 必须把场景的场景描述返回给用户
- 如果有可展示的分镜图,也应一并返回或说明项目链接中的查看方式
- 如果用户对一个或多个场景不满意,应允许在
步骤继续调整单场景的图片提示词或视频提示词后重新生成novel_chapter_scenes - 必须主动询问用户:
- 是否要将分镜图继续转为视频
- 还是直接进入“成片”界面,用当前分镜图直接合成
- 用户明确选择后,才能继续进入图转视频或成片步骤
角色确认时必须包含的内容
角色确认阶段的回报,至少要包含:
- 角色名称
- 角色图片
不能只说“角色已生成完成”,而不把角色图片回给用户。
角色确认时的修改规则
角色形象修改只允许在 角色与配音 步骤执行。
角色确认阶段:
- 可以询问“是否要修改角色形象”
- 但前提是当前仍停留在
novel_extract_roles - 如果项目已推进到后续步骤,就不能再按角色改图链路修改
- 只要执行了修改,就必须等待新图完成、显式应用,并把新的图片 URL 返回给用户
场景确认时必须包含的内容
场景确认阶段的回报,至少要包含:
- 场景名称或场景编号
- 场景描述
- 如已生成可视化结果,可附分镜图或项目链接查看方式
不能只说“场景已生成完成”,而不把场景描述回给用户确认。
场景不满意时的调整规则
如果用户对某一个或多个 scene 的结果不满意,Agent 应先判断问题属于哪一类:
- 图片本身不对:调整
后重生图sceneDescription + prompt - 图片基本正确,但视频表现不对:调整
后重生视频prompt(动作) + cameraPrompt(运镜)
分镜图重生图
重生图时,真实提示词由两部分共同组成:
sceneDescriptionprompt
其中
prompt 里可能包含:
@[人物](id:xxxx)
这类 live 人物引用用于保持角色一致性,不应随意删除。
图转视频
图转视频时应区分:
= 动作prompt
= 运镜cameraPrompt
这里不要再使用图片侧的
@[人物](id:xxxx) 结构,而应直接写纯文本动作和镜头描述。
多模态模型的可选增强
如果当前 Agent / 模型具备多模态看图能力,可在每次重生图或重生视频后先查看当前结果,再决定是否继续微调:
- 图片侧优先检查当前
的 scene imageselected=true - 视频侧优先检查当前视频资源的
videoCover
然后再针对问题定向修改 prompt,而不是盲目重试。
分镜图完成后的下一步必须让用户二选一
当分镜图已经生成完成时,Agent 不能直接默认进入成片。
必须主动问用户:
- 是否需要将分镜图转为视频(会增加梦想值消耗)
- 还是直接进入成片界面合成(默认更省)
只有拿到这个选择后,才能继续往下执行。
哪些动作可以不单独等待确认
以下仍然属于同一步内部的技术动作,可以合并在一步里完成:
- 轮询任务状态
- 读取
/comicPreset
/storyboardtask - 解析
/sceneIdstoryboardId - 回退到分镜图步骤
- 读取
select-options
但是一旦形成了新的用户可感知结果,就必须停下来等确认。
生图 / 生视频约束
生图或生视频必须在 分镜图步骤 下执行,不能在成片步骤直接执行。
检查顺序:
看GET /project/{projectId}workflow.currentStep- 如果当前是
,先novel_chapter_videoPOST /project/step/prev - 回到
后再继续novel_chapter_scenes
live 测试确认:
- 回退成功后,
会变成workflow.currentStepnovel_chapter_scenes - 章节的
可能仍保留为currentSubStepvideo
这不代表异常。真正要继续操作前,应继续确认:
sceneTaskStatus == SUCCESS- scene 当前基准 image 资源可用
梦想值规则
默认不消耗梦想值的推荐流程
默认流程是:
分镜图生成完成 → 直接配置成片 → 合成最终视频
但这不意味着 Agent 可以自动一路执行到底。
正确做法是:
分镜图生成完成 → 先向用户展示分镜结果并询问是否修改 / 是否继续 → 用户确认后再进入成片配置与合成
需要用户确认的高消耗操作
以下操作会消耗梦想值,必须先明确征得用户同意:
- 批量转视频
对应的真实转视频动作check/batchAiVideo - 单张图转视频
scene/ai/video - 重绘分镜图
scene/ai/image
check/batchAiVideo
只是查询,不是执行
check/batchAiVideo它返回的是:
noVideoCount- 当前还有多少画面没有转动态
不要把这个接口误认为“已经开始批量转视频”。
常见问题与解决方案
1. Token 过期
- 错误:
/401未登录或登陆状态已失效 - 解决:重新获取 token,更新
config/.env
2. 角色步骤失败
- 错误:
角色 [xxx] 图片未完成 - 原因:角色图还没生成完,或者没有传 live
输入tts - 解决:先检查
,等角色就绪后把GET /comic/roles/{presetResourceId}
一起提交voiceInputs[0]
3. 智能分镜步骤失败
- 错误:
该章节提取分镜场景任务未完成,请稍后再试 - 解决:等待
sceneCaptionsTaskStatus=SUCCESS
4. 推进成片步骤失败
- 错误:
该章节分镜图任务未完成,请稍后再试 - 解决:等待
sceneTaskStatus=SUCCESS
5. sceneUuid
误用
sceneUuid- 错误:
分镜场景资源不存在 - 原因:把短 ID 当成完整
sceneId - 解决:按
解析完整 sceneIdsceneTaskId -> storyboardId -> scenes[].id
6. 图转视频拿错图片来源
- 现象:接口可能返回
,但生成出来的视频内容与当前分镜不一致200 success - 原因:把
/roles[].imgUrl
当成了roles[].imageResourceId
的scene/ai/video
/firstImageimageId - 解决:必须改用 scene 当前基准分镜图资源(优先
对应的 image 资源)prompt/detail.video.imageId
7. 视频配置保存失败
- 错误:
请选择封面 - 原因:
缺少saveVideoComposeConfig
/coverList
/selectCoverselectCoverUrl - 解决:先取
,再按返回内容构造完整 payloadgetVideoSetting
代码与参考文档
:可复用的 API 工具函数与等待逻辑scripts/api-client.sh
:按真实后端行为执行的完整自检流程examples/create-comic.sh
:项目创建与配置选项references/01-project-management.md
:各步骤请求体与隐藏章节状态references/02-script-management.md
:角色图状态与references/03-character-management.md
输入tts
:storyboard / sceneId / 分镜资源references/05-storyboard-management.md
:成片配置、批量视频检查与合成references/06-video-generation.md
:task 轮询与章节级隐藏状态references/07-task-status.md
:常见错误与处理方式references/09-error-codes.md
:实时配置与 workflow 总览references/10-models-and-config.md
:面向 Agent 的执行建议references/11-best-practices.md