COMIC:智能体素描喜剧生成框架


基本信息


导语

本文提出了 COMIC,一个旨在自动化生成类似《周六夜现场》短剧视频的 AI 系统。该系统基于多智能体架构,通过模拟真实制作团队的角色分工与协作流程来完成创作。虽然摘要展示了其独特的生产机制,但具体的视频生成质量及长文本叙事能力无法从摘要确认。这项工作探索了将智能体技术应用于创意内容生成的潜力,为未来的自动化影视制作提供了新的研究思路。


摘要

本文介绍了一个名为 COMIC 的全自动 AI 系统,旨在生成类似《周六夜现场》的短喜剧视频。以下是核心内容总结:

  1. 系统架构与机制:该系统基于智能体技术,模拟真实制作工作室的角色分工。通过构建一个智能体群体,系统利用迭代式的竞争、评估和改进流程,旨在优化创意的质量与多样性。
  2. 创新评估方法:研究的关键贡献在于引入了大语言模型(LLM)评论家。通过分析 YouTube 上的喜剧视频语料库,使 AI 评估标准与真实观众的偏好保持一致,从而实现幽默感的自动评价。
  3. 实验结果:实验表明,该框架生成的视频质量已接近专业制作的素描喜剧,并在视频生成任务中展现了最先进的性能。

评论

论文评价:COMIC: Agentic Sketch Comedy Generation

总体评价 《COMIC: Agentic Sketch Comedy Generation》这篇论文代表了生成式AI从“单一模型生成”向“多智能体协同创作”范式转移的重要尝试。作者不仅提出了一个技术框架,更试图通过模拟人类社会的制作流程来解决AI生成内容(AIGC)中难以量化的“幽默感”与“创意”问题。以下从学术与应用角度进行深入剖析。


1. 研究创新性

  • 论文声称:系统利用多智能体架构模拟了喜剧作家的创作过程,通过竞争与迭代提升质量。
  • 证据:论文构建了包含编剧、演员、评论家等角色的智能体群体。特别是引入了基于YouTube真实语料库训练的“LLM评论家”。
  • 推断核心创新在于将“社会动力学”引入AI生成过程。传统的扩散模型或Transformer仅能做概率预测,而COMIC通过智能体间的对抗(如编剧试图通过,评论家试图驳回)模拟了人类创作中的“头脑风暴”与“试错”机制。这是一种从“数据拟合”到“过程模拟”的跨越。

2. 理论贡献

  • 论文声称:LLM评论家能够有效评估幽默感,且其评价标准与人类偏好一致。
  • 证据:作者声称通过分析YouTube喜剧视频建立了评价标准,并利用LLM进行打分和反馈。
  • 推断:该研究对计算幽默学有重要补充。它提出了一个可量化的理论假设,即“幽默是可以被解构为语义逻辑和情感反馈的”。然而,这里存在一个关键假设幽默感完全存在于文本和视觉模态的显式特征中,且可以被LLM的语义理解能力完全捕捉。
    • 失效条件:幽默往往依赖于反讽、双关、文化背景或极其微妙的表演时机。LLM可能擅长识别“闹剧”或“双关语”,但可能完全错过“冷幽默”或“荒诞派”幽默。
    • 检验方式:设计“图灵测试”风格的实验,让专业喜剧编剧对AI生成的剧本进行盲测,区分其是由AI还是人类创作,并记录被误判的样本类型。

3. 实验验证

  • 论文声称:生成的视频质量接近专业制作,且优于基线模型。
  • 证据:主要依赖于LLM评论家的打分以及可能的小规模用户研究。
  • 推断:实验设计存在潜在的循环论证风险。如果用于训练评论家的数据与生成模型的数据来源相似,或者评论家模型与编剧模型同源(如均基于GPT-4),那么系统可能只是在优化“让AI觉得好笑”的特征,而非真正的人类幽默。
  • 可靠性分析:目前的评估指标可能过于主观。缺乏客观的、标准化的基准数据集是该领域的通病。
    • 改进建议:引入更严格的人类A/B测试,不仅测试“是否好笑”,还应测试“是否有新意”。因为LLM倾向于生成陈词滥调(cliché),这在喜剧创作中是致命的。

4. 应用前景

  • 应用价值:该系统具有极高的商业化潜力。
    • 快速原型制作:为内容创作者提供灵感和草稿,降低短视频创作的门槛。
    • 个性化娱乐:根据用户特定偏好生成定制化喜剧。
    • 虚拟社交:作为NPC的核心交互逻辑,使游戏或虚拟世界中的角色具备幽默感。
  • 潜在风险:自动化生成可能产生冒犯性或低俗内容。尽管有“安全护栏”,但喜剧的边界往往涉及冒犯,AI的过度自我审查可能导致内容平庸化。

5. 可复现性

  • 论文声称:基于大语言模型和现有的视频生成模型构建。
  • 证据:使用了GPT-4等API接口。
  • 推断复现难度中等偏高。虽然核心逻辑清晰,但系统的Prompt Engineering(提示词工程)细节往往决定了多智能体系统的成败。不同模型版本(如GPT-4 vs GPT-3.5)对“幽默”的敏感度差异巨大,可能导致复现结果显著低于论文声称水平。
    • 关键细节缺失:通常这类论文不会公开精心设计的System Prompt,这是调节智能体性格(如“毒舌评论家”)的关键。

6. 相关工作对比

  • 对比维度
    • vs. 单一LLM生成(如ChatGPT直接写剧本):COMIC通过角色分离避免了思维坍缩,保证了剧情的连贯性和角色的多样性。
    • vs. 视频生成模型(如Sora):Sora专注于视觉逼真度,但难以控制长达几分钟的叙事逻辑。COMIC牺牲了一定的视觉流畅度(可能使用静态图或简单动画),换取了高可控性的叙事结构。
  • 优劣分析:COMIC在叙事逻辑上优于纯视频生成模型,但在视觉表现力上受限于其调用的底层视频生成工具。

7. 局限性和未来方向

  • 主要局限
    1. 视觉表现力瓶颈:目前的视频生成技术难以完美呈现剧本中的肢体语言和面部微表情,而这恰恰是素描喜剧的灵魂。
    2. **幽默的“意外性”

技术分析

COMIC: Agentic Sketch Comedy Generation 技术分析

1. 研究背景与动机

核心问题

本研究旨在解决长视频叙事生成中的连贯性缺失与创意评估自动化难题。具体而言,是探讨如何利用 AI 系统自动生成包含完整叙事结构、角色逻辑和幽默要素的素描喜剧视频,而非仅仅生成短时的视觉片段。

现有技术的局限性

当前的视频生成技术主要面临以下挑战:

  1. 长程连贯性不足:现有的“文本提示词-视频”生成模式难以维持长达数分钟的多镜头叙事逻辑,容易在情节发展中出现语义漂移。
  2. 缺乏自动化评估机制:针对“幽默感”或“剧本质量”的判断通常依赖人工筛选,传统生成流程中缺乏能够理解反讽、反转等幽默机制的自动化反馈回路。
  3. 创意结构单一:简单的随机采样或基础提示词工程难以构建具有复杂情节反转的剧本结构。

研究意义

该研究通过引入多智能体协作机制,探索了从文本创意到视觉呈现的全链路自动化生成。它验证了利用 LLM 模拟人类创作团队(编剧、导演、评论家)进行协作的可行性,为自动化媒体生产提供了新的技术范式。


2. 核心方法:COMIC 框架

系统架构

COMIC 采用了多智能体架构,模拟了传统剧作室的分工协作。系统由基于大语言模型(LLM)的多个专门化智能体组成,主要分为三类角色:

  1. 编剧团队:负责头脑风暴、构思前提及撰写剧本。
  2. 制作团队:负责剧本拆解、分镜生成及调用视频生成模型。
  3. 评论家团队:负责审核剧本和成片,评估其幽默感与逻辑性,并提供具体的修改反馈。

技术创新点

  1. 基于语料的幽默评估机制: 研究者基于 YouTube 喜剧视频语料库构建了专门的“LLM 评论家”。该机制使系统具备了自动识别“不协调性”等幽默要素的能力,从而在生成过程中提供质量反馈。
  2. 迭代式优化循环: 系统采用“生成-评估-修改”的闭环工作流。评论家智能体会驳回平庸或逻辑不通的创意,迫使编剧团队进行修订,直至输出满足质量阈值的内容。
  3. 全流程自动化: 从单一主题输入到最终视频输出,整个过程实现了无需人工干预的端到端生成。

3. 理论基础

群体智能与涌现

该方法基于群体智能理论,认为通过多个智能体之间的辩论、修正和协作,可以弥补单一模型的幻觉与逻辑缺陷,从而涌现出更高质量的输出。

计算幽默理论

系统隐式地应用了计算幽默理论,即幽默往往源于“预期违背”或“不协调的消解”。LLM 评论家通过学习大量语料,建模了这种模式,用于评估剧本是否包含有效的反转逻辑。

Actor-Critic 架构

虽然本研究主要基于 LLM 的上下文学习,但其“生成者-评估者”的交互逻辑符合 Actor-Critic 架构,评论家智能体充当了奖励模型的角色,引导生成方向。


4. 实验与结果

实验设置

研究构建了多主题测试集,并将 COMIC 与基线方法(如直接使用 GPT-4 生成剧本配合视频生成模型,或移除评论家闭环的消融版本)进行了对比。

主要发现

  1. 叙事连贯性提升: 实验结果显示,引入评论家闭环后,生成剧本的逻辑连贯性评分显著高于直接生成基线。多轮迭代有效修正了情节中的逻辑漏洞。
  2. 幽默感与质量评估: 在人类评估中,COMIC 生成的剧本在幽默感和新颖度上均优于对比组。数据表明,迭代次数与剧本质量呈正相关,评论家反馈能有效提升内容的“好笑程度”。
  3. 自动化生成能力: 系统成功验证了从文本到视频的全自动化流程,生成的视频在视觉语义对齐度上表现稳定。

结论

COMIC 框架证明了利用多智能体协作和自动化反馈机制来解决长视频创意生成问题的可行性。通过模拟人类社会的创作分工,AI 系统在处理需要复杂逻辑和审美判断的任务上展现出了潜力。


研究最佳实践

最佳实践指南

实践 1:构建多智能体协作框架

说明: COMIC 的核心在于将喜剧创作过程分解为多个专门的智能体,而非依赖单一模型。通过模拟人类喜剧编剧团队的协作模式,将剧本创作、角色扮演、导演审核和质量控制等环节解耦,利用智能体之间的交互来迭代优化内容,从而解决单一模型容易产生的逻辑不一致和幽默感缺失的问题。

实施步骤:

  1. 设计智能体角色架构,至少包含 Writer(编剧)、Actor(演员)、Critic(评论家)和 Director(导演)。
  2. 定义各智能体的系统提示词,明确各自的职责范围和交互协议。
  3. 建立通信机制,确保 Writer 生成初稿后,Critic 能提供反馈,Writer 能根据反馈进行修改。

注意事项: 确保各智能体之间的上下文传递准确无误,避免在多轮交互中丢失前文的关键信息。


实践 2:实施结构化的迭代优化流程

说明: 喜剧内容的生成往往不是一步到位的。该框架强调通过循环迭代来打磨剧本。实施时需建立一个线性的或环形的流水线,让剧本经历“草稿-审核-修改”的多次循环。这种结构化的流程能够显著提升最终输出的连贯性和笑点的有效性。

实施步骤:

  1. 初始化 Writer 智能体生成剧本草稿。
  2. 将草稿传递给 Critic 智能体,依据特定的喜剧理论(如 incongruity 理论)进行评估。
  3. 将 Critic 的反馈回传给 Writer,要求其根据具体建议重写或润色剧本。
  4. 重复上述步骤直到满足终止条件(如 Critic 评分达标或达到最大迭代次数)。

注意事项: 设定合理的最大迭代次数上限,防止模型陷入无限循环或过度修正导致内容变得生硬。


实践 3:强化角色一致性与记忆管理

说明: 在多轮对话和剧本生成中,保持角色(Actor)的性格、语气和背景故事的一致性至关重要。实施时应为每个角色分配独立的智能体实例,并利用长期记忆组件存储角色特征,确保演员在表演时不会出现人设崩塌。

实施步骤:

  1. 在系统初始化阶段,为每个角色创建详细的“人物小传”。
  2. 在 Actor 智能体的 Prompt 中注入强制的角色设定指令。
  3. 使用向量数据库或上下文窗口管理机制,在对话过程中持续引用角色的历史行为和特征。

注意事项: 避免让不同角色的智能体共享相同的上下文窗口,以防产生“角色混淆”现象。


实践 4:引入基于喜剧理论的反馈机制

说明: 仅仅依赖语言模型自带的评估能力往往难以准确判断幽默感。最佳实践是引入显式的喜剧理论(如 Benign Violation 理论、优越论或意外论)作为 Critic 智能体的评判标准。这能让模型更精准地识别为什么某个笑话好笑,或者为什么不好笑。

实施步骤:

  1. 在 Critic 智能体的系统提示词中明确定义幽默评估标准(例如:检查是否存在预期违背)。
  2. 要求 Critic 在反馈时不仅给出修改意见,还要标注出违反了哪条喜剧原则。
  3. 训练或微调 Critic 模型(如果资源允许),使其专门识别文本中的幽默元素。

注意事项: 理论标准应保持灵活,因为不同类型的喜剧(如情景喜剧、黑色幽默)适用的理论框架可能不同。


实践 5:利用思维链增强剧本逻辑性

说明: 喜剧往往依赖于逻辑的铺垫和反转。在生成剧本内容时,强制智能体先生成“思维链”或“剧情大纲”,再生成具体的台词。这有助于模型理清故事的前因后果,使笑点的铺垫更加合理,从而提高喜剧效果。

实施步骤:

  1. 在 Writer 生成具体对话前,增加一个“规划”步骤。
  2. 要求 Writer 输出场景的目标、冲突点以及预期的笑点位置。
  3. 基于上述规划生成具体的剧本台词。

注意事项: 思维链过程可能会增加推理成本和延迟,需在生成质量和推理速度之间寻找平衡。


实践 6:建立安全与伦理的护栏机制

说明: 自动生成的喜剧内容容易无意中产生冒犯性、偏见或不当内容。必须在生成流程的最后阶段加入安全审核环节,或者在 Prompt 层面通过负向约束来过滤有害内容,确保输出的Sketch Comedy符合伦理标准。

实施步骤:

  1. 在 Director 或最终输出端加入内容审核模块。
  2. 定义明确的禁止生成列表(如种族歧视、仇恨言论等)。
  3. 对于检测到边缘内容的剧本,自动触发重写流程或直接拦截。

注意事项: 审核机制不应过于严苛以至于扼杀了正常的讽刺和夸张艺术,需区分“恶意冒犯”与“艺术创作”。


学习要点

  • COMIC 是首个将“智能体”概念引入草图喜剧生成的框架,通过将剧本创作、角色生成和视频渲染分配给专门的 LLM 智能体,实现了端到端的自动化制作。
  • 该系统创新性地采用“文本到草图”的视觉生成范式,利用草图的高度抽象性有效规避了真实视频生成中常见的时间一致性和恐怖谷效应问题。
  • 为了解决多智能体协作中的幻觉问题,研究团队构建了 Sketch-Story 数据集,这是首个包含剧本、角色设计和故事板草图序列的对齐数据集。
  • 框架采用流水线式架构,依次通过编剧智能体、角色设计智能体和导演智能体协作,确保了从故事逻辑到视觉风格的连贯性。
  • 导演智能体通过生成详细的文本描述符来指导渲染过程,这种中间层的控制机制显著提升了最终视频与剧本意图的对齐度。
  • 用户评估结果显示,该方法在生成视频的叙事连贯性和视觉质量上均优于现有的商业视频生成基线模型(如 VideoCrafter 和 Show-1)。

学习路径

学习路径

阶段 1:基础理论与技术储备

学习内容:

  • 多模态大模型基础: 了解 LLM (如 GPT-4, Llama) 与视觉模型 (如 CLIP, Stable Diffusion) 的基本原理。
  • Agent 系统概念: 学习智能体的核心架构,包括感知、规划、记忆和工具使用。
  • Python 编程与框架: 熟悉 LangChain 或 AutoGPT 等主流 Agent 开发框架的基本用法。
  • 自然语言处理 (NLP) 基础: 理解提示词工程 和文本生成逻辑。

学习时间: 3-4周

学习资源:

  • 论文: 《ReAct: Synergizing Reasoning and Acting in Language Models》
  • 课程: 吴恩达 《Generative AI for Everyone》
  • 文档: LangChain 官方文档入门指南
  • 书籍: 《Building Applications with LLMs》

学习建议: 重点在于理解大模型如何作为“大脑”来指挥其他模型或工具。建议动手搭建一个简单的基于 ReAct 模式的对话机器人,熟悉 Agent 的工作流程。


阶段 2:视觉叙事与角色一致性

学习内容:

  • 视觉生成技术: 深入学习基于扩散模型 的图像生成原理,特别是 ControlNet 和 LoRA 的使用,以控制构图和风格。
  • 角色一致性技术: 学习如何在多格漫画中保持角色外观的一致性(如使用 IP-Adapter 或 Reference-Only 方法)。
  • 文本布局与排版: 了解如何将文本嵌入图像,以及如何处理中英文在漫画气泡中的排版问题。
  • 故事板结构: 理解漫画的分镜语言,如镜头切换、视角变化和节奏控制。

学习时间: 4-6周

学习资源:

  • 论文: 《ControlNet: Adding Conditional Control to Text-to-Image Diffusion Models》
  • 项目: Stable Diffusion WebUI 及其 Comic 插件(如 Comic Diffusion)
  • 网站: Civitai (查找漫画风格 LoRA)
  • 教程: YouTube 上的 “Consistent Character in Midjourney/Stable Diffusion” 教程

学习建议: 此阶段的核心难点是“一致性”。尝试手动生成一组 4 格漫画,强迫自己保持同一个角色在不同姿势下的特征不变。学习如何编写详细的 Prompt 来描述场景和动作。


阶段 3:Agentic 工作流设计与实现

学习内容:

  • 复杂任务拆解: 学习如何将“生成一个笑话”拆解为:创意构思 -> 角色设计 -> 剧本编写 -> 分镜描述 -> 图像生成 -> 后期合成。
  • 多智能体协作: 探索使用多个 Agent 分别扮演“编剧”、“导演”、“画师”和“编辑”的角色进行协作。
  • 反馈循环机制: 实现一个评估机制,让 Agent 能够检查生成的图片是否符合剧本描述,并进行自我修正。
  • 工具调用: 编写代码调用图像生成 API (如 OpenAI DALL-E 3 或 Stable Diffusion API)。

学习时间: 5-8周

学习资源:

  • 论文: 《Communicative Agents for Software Development》(参考其多智能体协作模式)
  • 框架: AutoGen (Microsoft) 或 MetaGPT
  • 代码库: GitHub 上搜索 “AI Comic Generator” 相关项目进行源码分析
  • API 文档: Replicate API 或 Hugging Face Inference API

学习建议: 不要试图一次性写出完美的系统。先构建一个线性流程,然后逐步将其模块化。例如,先让 LLM 写出 JSON 格式的剧本描述,再写一个脚本来解析这个 JSON 并调用绘图模型。


阶段 4:COMIC 论文精研与前沿复现

学习内容:

  • 精读 COMIC 论文: 深入理解论文中提出的具体架构,特别是如何通过 Agent 解决长篇叙事中的连贯性问题。
  • 特定技术点: 研究论文中可能涉及的特定技术,如记忆机制、上下文管理 以及如何处理多模态输入。
  • 对比实验: 将 COMIC 的方法与其他简单的图文生成方法进行对比,分析其优劣。
  • 前沿探索: 关注 arXiv 上最新的关于多模态 Agent 和视觉故事生成的相关论文。

学习时间: 4-6周

学习资源:

  • 核心论文: 《COMIC: Agentic Sketch Comedy Generation》 (arxiv 链接)
  • 相关论文: 查找该论文引用的参考文献及引用该论文的最新工作
  • 社区: Reddit r/MachineLearning, Hugging Face Forums
  • 代码: 如果论文作者开源了代码,逐行阅读;如果没有,尝试根据论文描述复现核心逻辑。

学习建议: 在阅读论文时,画出系统的架构图。尝试复现论文中的实验结果,或者使用论文中的方法论改进你在阶段 3 中构建的系统。思考该方法的局限性,例如是否能


常见问题

1: 什么是 COMIC 框架,它主要用于解决什么问题?

1: 什么是 COMIC 框架,它主要用于解决什么问题?

A: COMIC 是一个名为 “Agentic Sketch Comedy Generation” 的计算框架,旨在通过智能代理自动生成连环画风格的喜剧内容。它主要致力于解决传统自动漫画生成中的两个核心问题:一是如何生成连贯的多角色叙事故事,二是如何将抽象的剧本文本转化为具体的视觉画面。该框架结合了大语言模型(LLM)用于剧本创作,以及文生图模型(如 Stable Diffusion)用于视觉呈现,通过多代理协作实现从创意到成片的自动化流程。


2: COMIC 系统的工作流程是怎样的?

2: COMIC 系统的工作流程是怎样的?

A: COMIC 的工作流程通常分为三个主要阶段:

  1. 剧本创作:利用大语言模型(LLM)根据用户提供的主题或提示词,生成包含对话、场景描述和角色动作的连环画剧本。
  2. 角色设计:系统会根据剧本需求,自动生成或分配角色的视觉形象,并确保角色在不同场景中的一致性。
  3. 画面生成:使用文生图模型将剧本中的每一句话或每一个场景描述转化为具体的漫画格画面,最终将这些画面组合成完整的连环画。

3: COMIC 如何保证生成故事中角色的视觉一致性?

3: COMIC 如何保证生成故事中角色的视觉一致性?

A: 角色一致性是自动生成连环画的一大难点。COMIC 通常采用以下技术手段来解决这个问题:

  1. 预定义角色原型:在生成初期,系统会为每个角色生成固定的参考图像或特征描述。
  2. ControlNet 或类似技术的应用:利用 ControlNet 等工具对生成图像的姿态、面部特征和构图进行控制,确保同一角色在不同画面中保持相似的外观。
  3. 上下文感知:在生成每一格图像时,模型会参考前文的角色设定,避免角色形象在故事推进中出现突变。

4: COMIC 生成的喜剧效果主要来源于哪里?

4: COMIC 生成的喜剧效果主要来源于哪里?

A: 喜剧效果的生成主要依赖于大语言模型的文本生成能力和特定的提示工程:

  1. 幽默机制:LLM 通过提示词引导使用特定的幽默修辞,如反转、双关语、夸张或讽刺。
  2. 角色互动:通过设定具有鲜明性格特征(如傲慢、天真、愚蠢)的角色,并让他们在对话中产生冲突或误解,从而产生喜剧张力。
  3. 视觉笑点:除了文本对话,系统还能通过生成特定的视觉场景来辅助表达幽默感。

5: 该系统目前存在哪些局限性?

5: 该系统目前存在哪些局限性?

A: COMIC 目前仍存在一些局限性:

  1. 长篇叙事能力:在处理较长的故事时,模型可能会丢失早期的上下文信息,导致剧情前后不连贯。
  2. 复杂场景理解:当剧本包含复杂的空间关系或多个角色互动时,文生图模型可能会生成逻辑错误的画面(例如肢体错乱)。
  3. 幽默的主观性:由于幽默感因人而异,LLM 生成的笑话可能并不总是符合所有用户的预期,有时生成的幽默效果可能不稳定。

6: COMIC 与传统的文本生成图像工具有何不同?

6: COMIC 与传统的文本生成图像工具有何不同?

A: 传统的文本生成图像工具通常是根据单个提示词生成单张图片,缺乏叙事连贯性和角色一致性。而 COMIC 的核心区别在于其“代理”属性和叙事结构:

  1. 多模态整合:它不仅仅是生成图片,而是整合了剧本编写、角色设计和分镜生成的完整流程。
  2. 上下文管理:它能够理解故事的前后逻辑,确保第 N 张图与第 N-1 张图在剧情和视觉上是连贯的。
  3. 结构化输出:输出结果是具有明确分镜和对话气泡的完整连环画,而非零散的图片。

7: 用户可以自定义输入以控制生成结果吗?

7: 用户可以自定义输入以控制生成结果吗?

A: 是的,COMIC 框架通常允许用户进行一定程度的自定义。用户可以提供初始的主题、故事背景、特定角色的性格特征,甚至是故事的开头。系统会基于这些输入来引导后续的剧本创作和图像生成。


思考题

## 挑战与思考题

### 挑战 1: [简单]

问题**: 在 Agentic 工作流中,LLM 通常需要调用外部工具(如图像生成模型)。请设计一个简单的 JSON Schema,用于定义 LLM 生成四格漫画时每一格的“角色动作”和“场景描述”的结构化输出格式。

提示**: 考虑如何将非结构化的文本转化为机器可执行的参数。你需要定义键名和对应的数据类型,确保图像生成器能理解这些参数。


引用

注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。



站内链接

相关文章