AI时代的创意所有权界定


基本信息


导语

针对生成式AI模仿风格引发的版权界定难题,本文提出了基于“反事实依赖”的侵权判定标准,并利用闭包算子模型对生成过程进行了形式化分析。研究发现,原创作品的分布特征(轻尾或重尾)决定了AI对特定训练数据的依赖程度,进而深刻影响监管政策的长期效力。虽然该理论框架极具启发性,但摘要未提及具体法律适用性或实证数据,无法从摘要确认其在司法实践中的直接转化路径。


摘要

本文针对人工智能时代的版权归属问题,探讨了生成式AI模仿现有作品风格时的法律界定。

文章指出,现有的版权法侧重于判断新作品是否与现有作品“实质相似”,但生成式AI能够在不直接复制内容的情况下高度模仿风格,这使得现行侵权定义不再适用。为此,作者提出了一个新的侵权判定标准:如果一项生成式AI的输出结果若不包含某特定训练数据就无法生成,则该输出构成对该作品的侵权。

为了量化这一标准,作者将生成系统建模为一种“闭包算子”,即从现有作品语料库到新输出的映射。在此基础上,文章揭示了合规生成的结构性特征及其渐近二分法:

  1. 轻尾分布(Light-tailed): 当人类原创作品的自然生成过程呈轻尾分布时,AI对单个作品的依赖度最终会消失,因此监管不会对AI生成施加限制。
  2. 重尾分布(Heavy-tailed): 当原创作品呈重尾分布时,AI对特定作品的依赖将持续存在,监管将长期限制AI的生成空间。

综上所述,该研究为界定AI生成内容的版权合法性提供了新的理论框架,并指出了不同创作分布模式下监管政策的长期影响。


评论

论文评价:Creative Ownership in the Age of AI

总体评价 Annie Liang 与 Jay Lu 的《Creative Ownership in the Age of AI》是一篇将经济学理论、法律哲学与计算机科学形式化方法深度融合的跨学科力作。论文敏锐地捕捉到了生成式AI对现有版权体系的挑战——即“风格模仿”与“实质相似”之间的法律断层。作者并未停留在定性的伦理探讨,而是通过构建“闭包算子”模型,试图为AI生成内容的版权侵权判定提供一套可量化的数学标准。这不仅是对法律经济学边界的拓展,也为理解大模型的内在生成机制提供了新颖的视角。

以下是针对该论文的深入维度评价:

1. 研究创新性

  • 核心声称: 现有的基于“实质相似”的侵权判定标准在AI时代失效,应当转向基于“反事实依赖”的判定标准,即如果输出结果在移除特定训练数据后无法生成,则构成侵权。
  • 方法论创新: 论文最大的创新在于引入闭包算子来对生成系统建模。
    • Claim: 作者将生成过程定义为从输入语料库 $S$ 到输出集合 $f(S)$ 的映射,并满足闭包性质(扩张性和幂等性)。
    • Evidence: 这种数学建模使得原本模糊的“风格”或“影响力”可以被转化为集合论中的包含与排除关系。
    • Inference: 通过这种形式化,作者能够推导出合规生成的渐近性质,特别是关于“轻尾分布”与“重尾分布”对侵权概率的决定性影响。这种将法律侵权问题转化为概率分布尾部分析的思路极具开创性。

2. 理论贡献

  • 对现有理论的突破: 传统版权法理论难以处理“非表达性模仿”。该论文提出的“反事实依赖”标准,实际上是将知识产权的保护客体从“具体的表达”延伸到了“生成能力”。
  • 渐近二分法:
    • Claim: 论文揭示了合规生成的结构性特征:当生成概率分布呈现轻尾分布时,随着模型参数量或数据量的增加,侵权的概率趋近于0;反之,在重尾分布下,侵权风险持续存在。
    • Inference: 这为理解为何某些模型(如处理高频通用数据的模型)更容易“稀释”特定版权贡献提供了理论解释。它暗示了AI模型的“安全区”在于数据分布的高熵性和长尾性。

3. 实验验证与可靠性

  • 局限性分析: 由于论文主要侧重于理论建模与数学推导,其“实验验证”更多体现为数学证明与仿真模拟,而非基于真实大模型(如GPT-4或Stable Diffusion)的实证测试。
  • 推断: 虽然数学推导严密,但现实世界的生成模型并不完全符合理想的闭包算子假设。
  • 可验证检验方式: 为了增强结论的可靠性,建议进行以下实证检验:
    • 指标: 构建“Influence Function”(影响函数)来量化特定训练样本对输出的梯度贡献。
    • 实验: 设计“留一法”实验,训练两个模型,一个包含特定艺术家作品,另一个不包含,在控制变量的情况下统计输出语义分布的KL散度变化,验证“反事实依赖”在真实参数空间中的可分性。

4. 应用前景

  • 法律合规与检测: 该理论可直接用于开发AI版权检测工具。不同于目前的查重算法,基于该理论的工具将专注于检测“生成依赖性”。
  • 模型训练策略:
    • Claim: 如果模型输出符合轻尾分布,则在大规模生成中自然合规。
    • 应用: 这暗示了AI开发者可以通过调整采样温度或数据增强策略,人为地将输出分布推向“轻尾”,从而在法律上构建“安全港”。

5. 可复现性与关键假设

  • 关键假设: 论文成立的核心假设是生成系统的确定性或可映射性,即 $f(S)$ 是一个明确定义的集合,且输出与输入子集之间存在明确的函数映射关系。
  • 可能失效条件:
    1. 随机性破坏: 现实中的LLM基于随机采样,同样的输入集 $S$ 在不同温度下可能产生完全不同的输出,这使得“反事实”判断变得模糊。
    2. 潜在空间混淆: 模型可能学到了某种风格的“潜变量”,而非直接依赖特定样本。移除样本A,模型可能用样本B和C合成出A的风格,此时根据论文标准可能不侵权,但法律上仍存争议。
  • 复现建议: 论文的理论推导部分清晰可复现,但若要复现其在真实AI系统中的表现,需要明确定义“无法生成”的阈值(例如,输出语义向量的余弦相似度变化低于多少算作“无影响”)。

6. 相关工作对比

  • 对比传统查重: 传统方法基于文本或像素重叠,无法检测风格迁移。本文方法基于因果依赖,维度更高。
  • 对比数据遗忘: 现有的Machine Unlearning研究侧重于从模型权重中抹去数据影响,而本文提供了一个判定“抹去是否成功”的理论标尺。
  • 优劣分析: 本文优于纯法学讨论的实证性,优于纯工程讨论的经济学解释力。但劣势在于,其数学

技术分析

技术分析

1. 研究背景与核心问题

核心问题 本研究旨在解决生成式人工智能模型训练中的版权侵权界定难题。具体而言,当AI模型学习了特定艺术家的风格,但输出结果并未直接复制原作品的像素或文字时,这种基于风格的模仿是否构成侵权?

研究背景 随着生成式模型的广泛应用,现有的版权法体系面临挑战。传统法律判定标准主要基于“实质相似”,即判断新作是否窃取了原作的特定表达。然而,AI模型通常提取的是高维特征(如风格、笔触、句式),而非直接复制内容。这种“去质化”的模仿使得传统的法律标准难以直接适用。

现有局限 目前的法律讨论多停留在定性层面,缺乏定量的经济学模型。传统观点往往陷入二元对立:要么认为AI学习属于合理使用,要么认为所有基于受版权保护数据的训练均属侵权。这种视角忽略了数据分布特性对侵权概率的影响。

2. 核心方法:反事实侵权标准

方法定义 作者提出了一个基于反事实依赖性的侵权判定标准:

  • 判定逻辑: 如果移除训练集中的特定作品 $i$ 后,AI模型无法生成(或显著改变)某输出结果,则该输出侵犯了作品 $i$ 的版权。
  • 直观理解: 这类似于“药准实验”中的对照组逻辑。如果去掉作品A,AI画不出目标画作,说明作品A在生成过程中具有决定性作用。

数学建模 作者将生成系统建模为一个数学上的“闭包算子”,利用格论和集合论工具,将输入集合(训练数据)映射到输出集合(生成空间)。这种方法将复杂的法律定性问题转化为可计算的概率问题,即关注特定数据点在生成过程中的边际贡献。

3. 理论模型:渐近二分法

论文的核心理论贡献在于证明了随着训练数据量 $n \to \infty$,侵权行为的发生频率取决于人类创作内容的概率分布特征(尾部厚度):

  1. 轻尾分布

    • 特征: 极端值(极具特色的作品)出现的概率呈指数衰减(如正态分布)。
    • 推论: 在大数据量下,没有任何单个作品是“不可替代”的。即使移除某部著名作品,其他数据也能提供类似信息。
    • 结果: 无侵权。AI对单一数据的依赖度趋于0,监管不会限制AI生成。
  2. 重尾分布

    • 特征: 极端值出现的概率衰减较慢(如幂律分布),意味着存在具有极高影响力的“超级明星”作品或独特作品。
    • 推论: 某些独特作品包含无法被其他数据替代的信息。
    • 结果: 持续侵权。为了规避侵权,AI必须放弃生成那些高度依赖特定数据的输出,这在客观上限制了AI的生成空间。

理论意义 该模型揭示了数据分布是决定版权风险和监管后果的关键变量。它表明,在AI时代,版权保护的效果并非一成不变,而是取决于创意内容在数学上的分布形态。


研究最佳实践

最佳实践指南

实践 1:建立透明的数据来源与使用披露机制

说明: 在人工智能生成内容(AIGC)的创作过程中,训练数据的来源和生成过程往往是不透明的。为了维护创作者的权益和信任,必须建立一套完整的披露机制,明确告知受众哪些部分是由AI辅助生成的,以及使用了哪些基础数据集或风格参考。这不仅是道德要求,也是未来法律合规的必然趋势。

实施步骤:

  1. 建立记录清单: 在项目开始时,记录所有使用的AI工具、版本以及具体的提示词工程记录。
  2. 使用元数据标准: 利用内容凭证标准(如C2PA)将作者信息、AI使用情况及编辑历史嵌入到文件元数据中。
  3. 公开发布声明: 在作品发布页面附带详细的“创作说明”,列出人类贡献与AI生成贡献的比例。

注意事项: 确保披露的信息符合各平台(如Adobe Stock或图库网站)的具体标签要求,避免因未标注而被下架。


实践 2:实施“人机协作”的版权验证流程

说明: AI模型有时会输出与受版权保护材料高度相似的内容,这会给使用者带来侵权风险。最佳实践要求创作者在采用AI生成内容之前,建立一套严格的验证流程,确保输出内容的原创性,避免直接侵犯第三方的知识产权。

实施步骤:

  1. 逆向图像搜索: 对AI生成的视觉作品进行反向搜索,检查是否存在高度相似的现有作品。
  2. 文本查重检测: 对AI生成的文本段落使用学术或专业的查重工具进行比对。
  3. 多重生成与修改: 不要直接使用第一次生成的结果,应要求AI生成多个变体,并进行实质性的人工修改(“实质性修改”是获得版权保护的关键)。

注意事项: 即使通过了工具检测,也不能完全保证法律上的无瑕疵,因为目前的版权法仍在不断演进中,需保持关注。


实践 3:构建负责任的AI伦理审查框架

说明: AI模型可能继承训练数据中的偏见,或生成误导性、冒犯性内容。创作者作为内容的发布者,必须对最终输出负责。建立伦理框架旨在确保创作内容不仅合法,而且符合社会公序良俗,减少算法偏见带来的负面影响。

实施步骤:

  1. 设立审查清单: 包含种族、性别、宗教、文化敏感性等维度的检查项。
  2. 多元化测试: 如果可能,让来自不同背景的团队成员审查AI生成的内容,以识别潜在的盲点。
  3. 偏见纠正: 在提示词中明确指令要求中立、客观或包容性的内容,并对输出结果进行人工校准。

注意事项: 伦理审查应贯穿于构思、生成和最终审核的全过程,而非仅在最后一步进行。


实践 4:明确界定“创意构思”与“机械执行”的边界

说明: 在AI辅助创作中,人类的核心价值在于“创意构思”和“审美判断”,而AI通常承担“机械执行”部分。为了最大化主张创意所有权,创作者需要清晰地界定并展示自己在指导、选择和编排AI输出方面的智力投入。

实施步骤:

  1. 文档化创作意图: 保存草图、情绪板或文字描述,证明作品在AI介入前已具备完整的独创性构思。
  2. 强调编排与选择: 记录从海量AI生成结果中进行筛选、组合和二次创作的决策过程。
  3. 突出人类贡献: 在最终作品中,确保人类添加的元素(如独特的后期处理、手绘细节、叙事结构)占据主导地位。

注意事项: 法律倾向于保护具有“人类作者身份”的作品。如果仅仅是输入一个简单的提示词并直接使用结果,可能被视为缺乏足够的独创性而无法获得版权。


实践 5:采用数据保护与隐私合规策略

说明: 在使用生成式AI工具时,用户输入的数据可能会被用于模型训练,从而导致商业机密或敏感信息的泄露。保护创作过程中的数据隐私是维护创意资产所有权的重要一环。

实施步骤:

  1. 企业级/私有化部署: 对于敏感项目,优先考虑使用企业版AI工具或本地部署的开源模型(如Stable Diffusion本地版)。
  2. 匿名化处理: 在将任何数据输入公共AI工具之前,移除敏感的名称、地点或特定的专有信息。
  3. 审查隐私政策: 仔细阅读AI服务商的隐私条款,确认他们是否保留使用用户输入数据进行训练的权利,并关闭相应的数据共享设置。

注意事项: 永远不要将未公开的代码库、核心战略文档或客户隐私数据直接粘贴到公共AI聊天窗口中。


实践 6:建立适应AI时代的知识产权管理策略

说明: 随着AI工具的普及,传统的知识产权管理策略需要更新。这包括重新审视员工合同中的知识产权归属条款,以及制定关于外包给AI生成内容的资产归属规则。

实施步骤:

  1. 更新合同条款: 在与自由职业者或员工的合同中,明确规定AI辅助生成工具的使用

学习要点

  • 基于对 arXiv 上关于“AI 时代的创意所有权”相关文献的梳理,以下是 5 个关键要点:
  • AI 模型仅通过概率预测生成内容,缺乏人类创作者所具备的意图性与心理体验,因此在本质上难以被赋予与传统作者同等的法律人格。
  • 现行版权体系的核心原则是“人类智力投入”,这意味着完全由 AI 自主生成的作品因缺乏人类直接贡献而面临被排除在版权保护之外的风险。
  • 人类创作者在使用 AI 辅助创作时,必须确保其贡献构成了作品的“核心表达”或进行了实质性的创造性转化,才能满足版权法对独创性的要求。
  • AI 训练数据的合法性面临挑战,基于受版权保护作品训练出的模型若生成与原作实质性相似的内容,可能构成侵权,并引发关于合理使用边界的法律争议。
  • AI 时代的创意所有权正在从单一的“创作权”向“提示工程权”和“数据控制权”演变,掌握如何有效引导和筛选 AI 输出将成为确立创意资产归属的关键能力。

学习路径

学习路径

阶段 1:概念认知与背景建立

学习内容:

  • 生成式人工智能 (Generative AI) 的基本原理:理解扩散模型、大语言模型 (LLM) 以及它们如何生成内容。
  • 版权法基础:了解知识产权 (IP) 的核心概念,包括独创性、思想与表达二分法。
  • AI 时代的“创意”定义:探讨人类创造力与机器输出的区别,以及“作者”身份的法律界定。

学习时间: 2-3周

学习资源:

  • 书籍: 《知识产权法教程》(相关章节)、“The Coming Wave”(Mustafa Suleyman, 了解技术影响)。
  • 在线课程: Coursera 上的 “Copyright Law” 或 “AI For Everyone” 课程。
  • 报告: World Intellectual Property Organization (WIPO) 关于 AI 与 IP 的对话议题概览。

学习建议: 在此阶段,不必深究复杂的法律条文,重点在于建立对“AI 生成内容是否具有版权”这一核心争议的直觉认知。尝试使用 Midjourney 或 ChatGPT,亲身体验“创作”过程,思考其中的“所有权”归属。


阶段 2:核心争议与法律框架

学习内容:

  • 训练数据的合法性:学习“合理使用”原则在 AI 模型训练中的应用与争议。
  • 侵权判定标准:了解实质性相似与接触原则在 AI 生成内容中的适用性。
  • 全球法律视角:对比美国、欧盟和中国在 AI 版权方面的最新判例和立法进展(如美国版权局的指南、欧盟《人工智能法案》)。
  • 人机协作中的贡献度:分析人类在使用 AI 工具时,需要付出多少努力才能获得版权保护。

学习时间: 3-4周

学习资源:

  • 论文: arXiv 上的综述文章,如 “Copyright and Artificial-Generated Art: A US and EU Perspective”。
  • 案例库: 查阅 Thaler v. Perlmutter (美国)、北京互联网法院 AI 著作权案 (中国) 的判决书。
  • 博客/网站: Jupyter (知识产权法律博客)、Stanford Law School 的相关研究简报。

学习建议: 重点关注“输入端”(数据抓取是否侵权)和“输出端”(生成内容是否受保护)这两个维度的法律辩论。尝试阅读几篇具体的法律判决书摘要,理解法官的逻辑。


阶段 3:技术实现与经济模型

学习内容:

  • 水印与溯源技术:学习 C2PA 标准和数字水印技术如何用于证明内容来源和所有权。
  • 智能合约与版税分配:探索区块链技术如何自动化处理 AI 生成内容的微额版税支付。
  • 去中心化所有权协议:研究像 Story Protocol 这样的试图在链上重构 IP 管理的新协议。
  • 平台政策与合规:分析主流创意平台对 AI 内容的标注要求和变现限制。

学习时间: 3-4周

学习资源:

  • 技术文档: Coalition for Content Provenance and Authenticity (C2PA) 的技术规范。
  • 项目官网: Story Protocol, Spawning (Have I Been Trained)。
  • 行业报告: a16z 或其他 VC 关于创意经济和 AI 的投资论题。

学习建议: 从法律理论转向技术实现。如果你有编程基础,可以尝试调用 API 查看生成内容的元数据,或者研究一下 NFT 与 AI 艺术结合的早期案例,理解技术如何确权。


阶段 4:前沿研究与伦理哲学

学习内容:

  • 人机共创的哲学边界:深入研究“作者之死”在 AI 时代的含义,探讨意图在创作中的地位。
  • 算法偏见与文化挪用:分析 AI 模型如何通过训练数据边缘化某些群体的文化表达,以及所有权如何对此进行补偿。
  • 开源与闭源的博弈:探讨 OpenAI 等封闭模型与 Stable Diffusion 等开源模型在创意所有权分配上的不同路径。
  • 未来趋势预测:阅读 arXiv 上关于 AI 版权的最新学术论文,思考 AGI (通用人工智能) 到来后的所有权形态。

学习时间: 持续学习 (4周以上)

学习资源:

  • 学术期刊: arXiv (cs.CY, cs.AI 分类), Journal of Copyright Society。
  • 深度文章: 新新闻主义 关于 AI 与人类未来的深度长文。
  • 社区: 参与 LessWrong 或相关学术论坛的讨论。

学习建议: 这是“精通”阶段。你需要形成自己的观点。尝试撰写一篇博客文章或白皮书,阐述你认为 AI 时代“创意所有权”应该如何被重新定义。关注跨学科视角,结合伦理学、社会学和计算机科学进行综合思考。


常见问题

1: 在人工智能生成内容(AIGC)时代,人类创作者还拥有哪些核心权利?

1: 在人工智能生成内容(AIGC)时代,人类创作者还拥有哪些核心权利?

A: 尽管AI技术能够自动生成文本、图像和代码,但人类创作者依然掌握着关键的权利。首先,创意构思与表达的选择权仍然属于人类。AI主要是基于概率预测来生成内容,而人类创作者在决定创作什么、如何表达以及传达何种情感方面具有不可替代的主观能动性。其次,数据的控制权至关重要。AI模型依赖于人类创作的历史数据进行训练,因此,原始数据的创作者和所有者有权决定其作品是否被用于训练,以及如何获得补偿。最后,最终作品的编辑与审核权也在人类手中,人类对AI生成内容的筛选、修改和发布过程,构成了创作链中不可或缺的“创造性劳动”。


2: 根据目前的法律和学术观点,AI生成的作品是否享有版权?

2: 根据目前的法律和学术观点,AI生成的作品是否享有版权?

A: 这是一个复杂且正在快速演变的法律问题。目前的普遍共识(特别是在美国和欧盟的司法实践中)倾向于认为,完全由AI自主生成的作品不享有版权。版权法的核心在于保护“人类作者的智力成果”。例如,美国版权局多次明确表示,缺乏人类创造性干预的纯AI生成作品属于公有领域。然而,如果人类创作者在使用AI工具时进行了大量的创造性输入(如精心设计的提示词、复杂的后期编辑、筛选与组合),那么这部分人类贡献的元素可能受到版权保护。未来的法律趋势可能会更多地关注“人类贡献度”在最终作品中的比例。


3: AI训练数据的版权问题如何解决?是否属于“合理使用”?

3: AI训练数据的版权问题如何解决?是否属于“合理使用”?

A: 这是目前AI领域最大的争议点之一。AI公司通常主张其训练行为属于合理使用,理由是AI模型分析的是数据的统计规律而非直接复制表达,且这种转化性使用有助于创新。然而,内容创作者和版权所有者则认为,未经授权的商业级训练数据抓取侵犯了其复制权和获得报酬的权利。目前的解决方案正在向授权许可模式发展,例如OpenAI、Google等公司与主要出版商和内容平台签署协议,购买数据使用权。此外,技术层面也在探索“数据退出”机制,允许创作者声明其作品不得用于AI训练。


4: 在人机协作创作中,如何界定“创意所有权”的归属?

4: 在人机协作创作中,如何界定“创意所有权”的归属?

A: 在人机协作(Co-creation)的场景下,所有权的界定通常取决于人类贡献的显著性。如果AI仅作为辅助工具(类似于摄影师使用的相机或作家使用的文字处理器),且人类在构思、构图、情感注入和最终定稿上占据主导地位,那么人类通常被视为唯一的版权所有者。但是,如果AI生成了作品的核心实质性部分,而人类仅进行了微小的调整,那么人类可能无法主张完整的版权,甚至无法主张版权。学术界建议,在创作过程中保留详细的创作日志(如提示词迭代记录、修改历史),作为证明人类智力投入的证据,这对于界定所有权至关重要。


5: AI是否会削弱创作者的经济价值?如何应对?

5: AI是否会削弱创作者的经济价值?如何应对?

A: AI确实降低了内容生成的门槛,可能导致低端、重复性内容的市场价值下降(如基础插图、初级文案)。然而,AI同时也提升了高阶创意能力的价值。在AI时代,独特的个人风格、深度的情感共鸣、复杂的叙事结构以及将AI生成元素整合为完整作品的能力变得更加稀缺且昂贵。应对这一趋势,创作者应当从“内容生产者”转变为“创意总监”或“策展人”,利用AI提高生产效率,专注于打磨个人IP和提供AI无法模仿的深度人际连接价值。


6: 学术界和工业界正在探索哪些新的所有权模式来适应AI时代?

6: 学术界和工业界正在探索哪些新的所有权模式来适应AI时代?

A: 传统的“单一作者/单一版权”模式正在受到挑战。新的模式包括:1. 联合所有权模式:承认人类与AI系统(或其开发者)之间的某种形式的共同创作权益,尽管这在法律上仍存争议。2. 源数据补偿机制:通过区块链或元数据追踪技术,使AI生成内容的收益能够自动回馈给原始训练数据的贡献者。3. 功能许可模式:不再出售作品版权,而是授权AI模型在特定条件下使用作品风格或内容。4. 公有领域强化:鼓励更多创作者自愿将作品贡献给公有领域,用于训练开源AI模型,以促进技术普惠。


7: 为什么“风格”在AI时代难以被独占?

7: 为什么“风格”在AI时代难以被独占?

A: 在法律和哲学层面,风格通常被视为一种通用技法或公有领域的元素,而不是受版权保护的具体表达。版权法保护的是具体的作品,而不是某种艺术风格或抽象的思想。AI模型极其擅长学习并模仿特定艺术家的风格(如笔触、配色、构图),而不直接复制其具体的画作。这意味着,除非立法引入新的“风格权”或“形象权”保护,否则创作者很难通过法律手段阻止AI生成与其风格高度相似的作品。因此,保护个人品牌和建立不可替代的声誉,比试图垄断某种风格更为现实。


思考题

## 挑战与思考题

### 挑战 1: [简单]

问题**:

假设一位传统画家使用 Photoshop 中的“填充”功能(基于传统算法而非生成式 AI)完成了作品的一部分,而另一位设计师使用 Midjourney 生成了背景图并进行了后期处理。请分析:在判定“独创性”时,这两种工具的使用在法律和伦理层面有何核心区别?

提示**:


引用

注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。



站内链接

相关文章