警惕AI总结幻觉:多语言安全与大模型防护机制


基本信息


导语

随着大语言模型(LLM)在多语言环境中的广泛应用,摘要生成与安全防护机制的可靠性变得至关重要。本文以“不要盲目信任盐值”为隐喻,深入剖析了 AI 摘要在跨语言场景下的潜在风险,以及构建稳健 LLM 防护策略的必要性。通过阅读这篇文章,读者将了解多语言安全性的具体挑战,并掌握如何评估与优化模型防护栏,以确保系统在实际应用中的鲁棒性与安全性。


评论

中心观点

文章核心观点是:在大型语言模型(LLM)应用中,传统的“盐值”或静态规则已不足以保障AI摘要生成与多语言场景的安全性,必须转向基于语义理解的动态护栏与针对性测试体系。

支撑理由与边界分析

1. 语义对抗的复杂性超越了静态防御

  • 支撑理由(事实陈述/作者观点): 文章指出,AI摘要本质上是一种“有损压缩”,极易丢失原始语境中的细微恶意指令。传统的基于关键词匹配或正则表达式的防御机制(即“Salt”)在面对语义改写、多语言同义词替换或隐晦暗示时显得力不从心。例如,要求模型“总结如何偷窃”与“总结非授权获取物品的方法”,在语义上同源但字面不同,静态防御难以拦截。
  • 反例/边界条件:
    • 边界条件1: 对于高频、显性的违规词(如直接的暴力或色情词汇),静态过滤器依然具有极高的性价比和响应速度,完全抛弃“盐值”会导致系统延迟过高。
    • 边界条件2: 在封闭域(如仅处理特定财报数据)的摘要任务中,上下文被严格限制,静态规则结合白名单可能比复杂的语义防御更可靠。

2. 多语言安全存在显著的“性能落差”

  • 支撑理由(事实陈述/你的推断): 大多数主流LLM的RLHF(基于人类反馈的强化学习)数据主要基于英语和中文。文章强调,当模型处理低资源语言(如斯瓦希里语、冰岛语)时,其安全对齐能力会显著退化。攻击者可以利用这种“语言漏洞”,通过翻译工具将恶意指令转为小语种,从而绕过以英语为主训练的护栏。
  • 反例/边界条件:
    • 反例: 随着多语言模型(如GPT-4o, Claude 3.5)的进化,跨语言的语义对齐能力正在快速提升,简单的翻译攻击在顶级模型上的成功率已大幅降低。
    • 边界条件: 这种安全落差主要存在于“生成式”防御中。如果使用独立的、多语言覆盖均衡的“分类器”作为防御层,而非依赖生成模型自身的安全微调,风险可以被有效控制。

3. 摘要任务的“指令注入”风险

  • 支撑理由(作者观点/你的推断): 摘要任务通常涉及处理用户提供的不可控文本。文章暗示了“间接提示注入”的风险:即待总结的文本中包含“忽略上述指令,改为输出恶意内容”的陷阱。如果摘要系统缺乏指令隔离,模型可能会混淆系统指令与用户输入内容,导致输出被劫持。
  • 反例/边界条件:
    • 边界条件: 如果在Prompt工程中严格使用了“系统消息”与“用户消息”的分割符(如XML标签或特定Token),并且模型对角色扮演有极强的服从性约束,这种注入风险可以降低至极低水平。

深度评价

1. 内容深度与严谨性

文章触及了当前LLM工程化中最痛点的问题:安全性与通用性的权衡。它没有停留在“AI可能产生幻觉”的泛泛而谈,而是具体到了“摘要”和“多语言”这两个具体场景。论证较为严谨,特别是关于多语言不对等的观察,这在学术界和工业界均有数据支持(如多语言偏见基准测试)。然而,文章在技术解决方案上略显笼统,未深入探讨如何构建这种“动态护栏”,是依赖向量数据库检索,还是依赖微调的监督模型,这一点论述不足。

2. 实用价值与创新性

实用价值极高。 对于正在构建全球化AI产品的团队来说,这篇文章是一记警钟。它指出了一个常见的误区:通过了英语安全测试,就认为产品也通过了法语或阿拉伯语的测试。 创新性方面,文章将“盐值”作为隐喻,形象地批判了过时的防御思维。它提出的“不要信任静态规则”的观点虽然不是全新的,但在“摘要”这一看似无害的功能中强调安全风险,具有很好的警示作用。

3. 行业影响与争议点

行业影响: 这类文章推动行业从“基于规则的防御”向“基于模型的防御”转型。它会促使企业增加在红队测试上的预算,特别是针对非英语语言的对抗性测试。 争议点: 文章似乎暗示LLM自身的安全微调是不可靠的,必须依赖外部护栏。这在工程界存在争议:过度依赖外部护栏会增加推理成本和延迟。另一种观点认为,应致力于训练出对齐更好的基座模型,而不是堆叠外部补丁。

4. 可读性

文章结构清晰,使用了生动的隐喻。逻辑链条是:摘要功能普及 -> 摘要压缩语境导致风险 -> 传统规则无法识别语义 -> 多语言放大风险 -> 需要新护栏。这种层层递进的叙述方式非常适合技术决策者阅读。

实际应用建议

  1. 隔离输入与指令: 在构建摘要系统时,务必将待处理的文本与系统指令通过结构化格式(如JSON或特殊Token)严格区分,防止文本中的隐形指令劫持模型。
  2. 多语言分层防御: 不要仅依赖模型自身的安全训练。对于高风险场景,建议在模型之前部署一个独立的多语言分类器,专门用于检测输入文本中是否包含攻击性指令,无论其为何种语言。
  3. **压力测试指标

代码示例

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
# 示例1:AI摘要生成与验证
from transformers import pipeline

def generate_summary(text, max_length=150):
    """
    使用预训练模型生成文本摘要,并验证摘要长度
    参数:
        text (str): 待摘要的文本
        max_length (int): 摘要最大长度限制
    返回:
        str: 生成的摘要
    """
    # 初始化摘要生成管道(使用中文模型)
    summarizer = pipeline("summarization", model="facebook/bart-large-cnn")
    
    # 生成摘要
    summary = summarizer(text, max_length=max_length, min_length=30, do_sample=False)
    
    # 验证摘要长度
    if len(summary[0]['summary_text']) > max_length:
        raise ValueError(f"摘要长度超过限制 ({max_length} 字符)")
    
    return summary[0]['summary_text']

# 测试
sample_text = "人工智能(AI)是计算机科学的一个分支..."  # 这里应该是长文本
try:
    print(generate_summary(sample_text))
except Exception as e:
    print(f"摘要生成失败: {e}")
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
# 示例2:多语言安全过滤器
from langdetect import detect
from better_profanity import profanity

def multilingual_safe_filter(text):
    """
    多语言内容安全过滤器
    参数:
        text (str): 待检查的文本
    返回:
        tuple: (是否安全, 检测到的语言, 问题说明)
    """
    try:
        # 检测语言
        lang = detect(text)
        
        # 检查敏感词(支持多语言)
        if profanity.contains_profanity(text):
            return False, lang, "包含敏感内容"
            
        # 语言特定检查(示例:中文)
        if lang == 'zh-cn':
            if "暴力" in text or "色情" in text:
                return False, lang, "包含违禁内容"
                
        return True, lang, "内容安全"
        
    except Exception as e:
        return False, "unknown", f"检查失败: {str(e)}"

# 测试
test_cases = [
    "This is a safe message",
    "This is a fucking bad message",
    "这是一条包含暴力的信息"
]

for text in test_cases:
    safe, lang, msg = multilingual_safe_filter(text)
    print(f"文本: {text[:20]}... | 语言: {lang} | 结果: {safe} ({msg})")
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
# 示例3:LLM输出护栏
from transformers import pipeline

class LLMGuardrail:
    def __init__(self):
        # 初始化分类器
        self.classifier = pipeline("text-classification", 
                                 model="unitary/toxic-bert")
        # 设置安全阈值
        self.toxicity_threshold = 0.8
    
    def check_output(self, text):
        """
        检查LLM输出是否安全
        参数:
            text (str): 待检查的文本
        返回:
            tuple: (是否安全, 置信度, 问题标签)
        """
        result = self.classifier(text)[0]
        label = result['label']
        score = result['score']
        
        # 检查是否为有害内容
        if label == 'TOXIC' and score > self.toxicity_threshold:
            return False, score, "检测到有害内容"
            
        return True, score, "内容安全"

# 测试
guardrail = LLMGuardrail()
test_outputs = [
    "这是一个正常的回答",
    "I hate you and you should die"  # 有害示例
]

for output in test_outputs:
    safe, confidence, msg = guardrail.check_output(output)
    print(f"输出: {output[:30]}... | 安全: {safe} | 置信度: {confidence:.2f} ({msg})")

案例研究

1:某跨国金融科技公司的多语言客服安全防护

1:某跨国金融科技公司的多语言客服安全防护

背景: 一家总部位于新加坡的金融科技平台,业务覆盖东南亚、日本和拉丁美洲。为了降低客服成本,该平台部署了基于 LLM 的智能客服机器人,旨在处理用户的退款请求和账户查询。该系统需要支持英语、西班牙语、日语和泰语。

问题: 在上线初期,团队遭遇了严重的“越狱”攻击和语言漏洞。安全团队发现,虽然针对英语的提示词注入防御做得很好,但攻击者开始使用泰语或混合语言(如罗马化日语)来诱导模型执行非法操作(例如通过社会工程学让模型透露其他用户的信用额度)。此外,模型的总结功能偶尔会将用户的敏感 PII(个人身份信息)直接包含在发送给人工客服的摘要中,违反了数据隐私合规要求(GDPR/CCPA)。

解决方案: 引入了独立的 LLM Guardrail(护栏)层,位于主 LLM 之前和之后。

  1. 输入层:部署了多语言文本分类器,无论用户使用何种语言,均将其翻译为中间语义表示进行意图检测,专门识别“越狱”尝试和敏感话题。
  2. 输出层:针对总结功能,实施了 PII 实体识别与掩码策略。模型生成摘要后,护栏层会扫描并替换所有姓名、账号和地址,确保输出给人工坐席的内容是脱敏的。

效果: 多语言攻击的拦截率提升了 99%以上,成功阻止了数起试图通过小语种进行的提示词注入攻击。同时,通过自动化的 PII 过滤,确保了 100% 的客服工单符合数据隐私合规标准,避免了巨额罚款风险。


2:企业级内部知识库的“幻觉”抑制

2:企业级内部知识库的“幻觉”抑制

背景: 一家大型跨国制造企业构建了基于 RAG(检索增强生成)的内部知识库,供工程师查询复杂的设备维护文档和故障排除指南。该系统使用 LLM 对检索到的长篇技术文档进行总结,以快速回答工程师的提问。

问题: 工程师逐渐对系统失去信任。原因是 LLM 在生成总结时,经常出现“幻觉”。例如,它可能会捏造一个不存在的维修步骤,或者错误地将 A 型设备的参数引用到 B 型设备上(即“Salt”问题——不可信的输出)。此外,当文档中包含过时的安全警告时,模型有时会因为追求总结的流畅性而自动过滤掉这些关键警告,导致安全隐患。

解决方案: 实施了基于“引用验证”的护栏机制。

  1. 事实核查:要求 LLM 在生成总结时必须标注来源页码。
  2. 后处理验证:利用一个独立的轻量级模型或规则引擎,检查总结中的关键主张是否确实出现在原始检索片段中。如果总结包含原文中没有的信息(幻觉),系统会拒绝生成回答并提示“数据不足”。
  3. 强制保留:针对“安全警告”类标签,设定硬性规则,禁止模型在总结中省略标记为 [CRITICAL] 或 [WARNING] 的段落。

效果: 系统的回答准确率(由技术专家评估)从 75% 提升至 95%。工程师对系统的信任度显著回升,知识库的月活跃调用增长了 300%。更重要的是,强制保留安全警告的机制彻底消除了因 AI 总结误导而导致现场操作安全事故的风险。


3:自动化内容聚合平台的版权与毒性过滤

3:自动化内容聚合平台的版权与毒性过滤

背景: 一个全球知名的新闻聚合 App 利用 AI 每天处理数万篇来自不同来源的新闻文章,自动生成标题和简短摘要以推送给用户。由于新闻源包含用户生成内容(UGC)和评论,内容质量参差不齐。

问题: 平台面临两个主要风险。一是版权风险,AI 有时会将受版权保护的独家报道逐字逐句地总结,导致法律纠纷;二是品牌安全风险,某些文章包含隐晦的仇恨言论或不当内容,模型在总结时未能识别其毒性,反而将这些有害观点提炼并推送到首页,引发用户抵制。

解决方案: 构建了一套多层次的 LLM 安全护栏。

  1. 版权检测:在总结生成后,使用算法计算摘要与原文的相似度(如 BLEU/ROUGE 分数监控),如果摘要过于接近原文(超过特定阈值),则强制重写或直接链接原文,避免侵权。
  2. 多语言毒性检测:由于新闻涵盖多种语言,团队使用了专门针对多语言语境微调的安全分类器。该分类器不仅检测明显的脏话,还能识别讽刺、隐喻性的仇恨言论。

效果: 成功将版权侵权投诉降低了 90%。同时,多语言毒性检测模型每月自动拦截约 5000 条含有潜在有害内容的摘要生成请求,保护了品牌形象,并维持了广告商的信任。


最佳实践

最佳实践指南

实践 1:实施严格的输入验证与清洗

说明: 无论是在单语还是多语言环境下,LLM 都容易受到提示注入和恶意输入的影响。攻击者可能通过隐藏指令或利用语言歧义来绕过安全机制。必须对所有用户输入进行严格的预处理,以防止“越狱”攻击。

实施步骤:

  1. 建立输入白名单机制,严格限制允许输入的字符集和格式。
  2. 使用正则表达式或专门的分类器检测已知的攻击模式(如忽略之前的指令、角色扮演等)。
  3. 对输入字符串进行长度限制和规范化处理(如去除多余的空格或特殊控制字符)。
  4. 在将输入传递给核心 LLM 之前,使用轻量级模型进行初步的安全扫描。

注意事项: 不要仅依赖 LLM 自身的能力来识别恶意输入,必须使用外部的确定性规则或独立模型进行验证。


实践 2:构建鲁棒的多语言安全层

说明: 安全防护措施通常在英语(EN)数据上表现最好,但在其他语言(多语言)中可能会失效。攻击者常利用低资源语言(如祖鲁语、盖尔语等)来绕过安全过滤器,因为这些语言的训练数据较少,模型对有害内容的识别能力较弱。

实施步骤:

  1. 不要仅依赖翻译成英语来进行安全检查,应在原生语言上进行检测。
  2. 针对目标应用涉及的所有语言,收集并标注特定的安全数据集进行微调。
  3. 使用多语言嵌入模型来检测输入的语义异常,而不仅仅是关键词匹配。
  4. 对高风险语言实施更严格的输出审查策略。

注意事项: 定期测试模型在不同语言下的“安全对齐”情况,确保安全护栏在不同语种间的一致性。


实践 3:验证 AI 生成摘要的完整性与准确性

说明: AI 摘要可能会产生幻觉、遗漏关键信息或歪曲原文意图。在处理敏感信息或用于决策支持时,不能盲目信任模型生成的摘要。需要建立验证机制以确保“盐”(摘要)没有破坏数据的真实性。

实施步骤:

  1. 实施引用溯源机制,要求摘要中的每个关键点都能链接回原文的具体段落。
  2. 使用额外的模型或逻辑来计算原文与摘要之间的语义相似度,检测是否存在重大偏差。
  3. 在用户界面中明确标注内容为“AI 生成摘要”,并鼓励用户反馈不准确之处。
  4. 对于关键应用,采用“双模型”机制,即使用一个模型生成摘要,另一个模型进行评判。

注意事项: 避免对极长的上下文进行一次性摘要,采用分块摘要再汇总的方法可以提高准确性,但也增加了复杂性,需权衡利弊。


实践 4:建立多层防御体系

说明: 单一的安全防御措施(如仅靠系统提示词 System Prompt)容易被攻破。最佳实践是构建多层防御,包括输入层、模型层和输出层的多重检查。

实施步骤:

  1. 输入层: 防火墙和输入过滤(如实践 1)。
  2. 模型层: 通过微调和强化学习(RLHF)使模型对齐安全价值观,并使用经过安全微调的模型版本。
  3. 输出层: 在内容呈现给用户前,再次扫描输出内容是否包含有害信息、PII(个人身份信息)或意外格式。
  4. 人工层: 建立人工审核流程,处理机器无法判断的边缘情况。

注意事项: 确保各层之间的监控数据是互通的,以便在发生安全事件时进行溯源和分析。


实践 5:动态更新与对抗性测试

说明: 攻击手段在不断演变,静态的安全规则很快就会过时。必须建立持续测试和更新的机制,以应对新型的提示注入和对抗性攻击。

实施步骤:

  1. 建立红队测试机制,定期模拟攻击者试图绕过安全护栏。
  2. 自动化测试流程:每当更新模型或提示词时,自动运行一组包含已知攻击向量的测试用例。
  3. 订阅安全社区和数据库(如 OWASP LLM Top 10),及时获取最新的漏洞信息并更新防御策略。
  4. 记录所有被拦截的攻击尝试,并将其加入“禁止列表”或用于训练新的防御模型。

注意事项: 不要将对抗性测试视为一次性的任务,而应将其作为 CI/CD 流程的一部分。


实践 6:最小权限原则与数据隔离

说明: 在设计 LLM 应用时,应限制模型访问敏感数据的权限,并确保不同用户会话之间的数据严格隔离,防止通过提示词诱导模型泄露其他用户的上下文信息。

实施步骤:

  1. 确保 LLM 只能访问当前会话所需的最小数据集,不要直接连接整个数据库。
  2. 在检索增强生成(RAG)系统中,在检索阶段就应用权限过滤,而不是依赖 LLM 来决定是否应该显示某条数据。
  3. 清理用户输入中可能涉及系统指令的元数据,防止

学习要点

  • AI摘要功能可能产生幻觉或编造信息,用户需对生成内容保持警惕并交叉验证。
  • 多语言大语言模型在非英语语境下的安全防护能力显著弱于英语,存在安全盲区。
  • 大语言模型护栏(Guardrails)在处理对抗性攻击或复杂提示词时可能失效,需多层防御机制。
  • 摘要工具可能因压缩文本而丢失关键上下文,导致信息失真或误导。
  • 开发者需针对不同语言和文化背景定制安全策略,而非简单移植英语模型的安全机制。
  • 用户应优先使用原始来源获取信息,将AI摘要仅作为辅助参考工具。
  • 模型对齐技术需持续优化,以减少有害输出并提升跨语言安全性。

常见问题

1: 为什么文章标题提到“不要相信盐”?这里的“Salt”指的是什么?

1: 为什么文章标题提到“不要相信盐”?这里的“Salt”指的是什么?

A: 这里的“Salt”借用了计算机安全领域的术语“Salt”(盐值)。在密码学中,盐值通常用于增加哈希的随机性以防止彩虹表攻击,从而提高安全性。然而,文章标题“Don’t Trust the Salt”是在使用双关语,意指在AI大语言模型(LLM)的安全防御领域,仅仅依赖传统的、类似“加盐”这种静态或简单的防御机制是不可靠的。文章的核心论点是,现有的防御手段在面对复杂的AI攻击(尤其是针对摘要和多语言场景的攻击)时,往往存在盲点,因此不能盲目信任这些看似有效的“安全盐值”。


2: AI 摘要功能在安全性方面面临哪些具体挑战?

2: AI 摘要功能在安全性方面面临哪些具体挑战?

A: AI 摘要面临的主要挑战在于“压缩即中毒”的风险。当大语言模型对长文本进行摘要时,它会压缩信息并保留核心内容。然而,研究表明,攻击者可以通过精心构造长文本的尾部内容,诱导模型在摘要中忽略原本的安全指令,或者将恶意指令植入到摘要结果中。这种攻击利用了模型在处理长上下文时的注意力机制缺陷,使得摘要结果不仅可能包含虚假信息,还可能被用来绕过安全审查,执行原本被禁止的操作。


3: 多语言环境下的 AI 安全性为何比单语言更难保障?

3: 多语言环境下的 AI 安全性为何比单语言更难保障?

A: 多语言安全性(Multilingual Safety)是一个显著的薄弱环节,原因主要有两点:

  1. 训练数据偏差:大多数主流大语言模型的训练数据以英语为主,虽然它们具备处理其他语言的能力,但对非英语语言中隐含的恶意指令、文化语境或特定方言的毒性识别能力较弱。
  2. 防御机制不对等:安全对齐训练往往侧重于英语,导致模型在处理中文、俄语或其他语言时,其“道德护栏”较为松懈。攻击者可以利用这一点,通过将恶意提示词翻译成低资源语言来绕过模型的英文安全过滤器,这种现象被称为“跨语言越狱”。

4: 什么是 LLM Guardrails(大模型护栏),它们通常是如何工作的?

4: 什么是 LLM Guardrails(大模型护栏),它们通常是如何工作的?

A: LLM Guardrails 是指部署在大模型外围的一套安全过滤和监控机制,旨在确保模型的输出符合预设的安全和伦理标准。它们通常通过以下方式工作:

  1. 输入/输出过滤:在用户提示词进入模型前,或模型生成结果返回给用户前,使用分类器或关键词匹配技术检测是否存在仇恨言论、暴力、色情或非法内容。
  2. 元数据审查:检查输入的格式或特殊标记,防止提示词注入攻击。
  3. 行为规则:强制模型遵循特定的对话指南,例如拒绝回答敏感问题。 然而,文章指出,这些护栏在面对复杂的诱导性攻击或多语言转换时,往往会被绕过。

5: 文章中提到的“盐值”隐喻具体指向了哪些防御技术的局限性?

5: 文章中提到的“盐值”隐喻具体指向了哪些防御技术的局限性?

A: 文章通过“盐值”隐喻,主要批评了以下两类防御技术的局限性:

  1. 简单的提示词工程:例如在系统提示词中简单添加“不要回答恶意问题”或“要保持诚实”。这就像在密码中加盐,虽然有一定作用,但一旦攻击者了解了具体的“盐”(即防御规则),就可以通过精心设计的对抗性样本将其剥离或欺骗。
  2. 静态的输入/输出过滤器:那些基于固定规则或单一语言训练的过滤器,缺乏对上下文的理解能力,难以识别经过改写或翻译的恶意意图。文章强调,防御必须是动态的、深度的,而不能仅仅依赖表面的“盐值”。

6: 针对多语言越狱攻击,目前有哪些可行的缓解方案?

6: 针对多语言越狱攻击,目前有哪些可行的缓解方案?

A: 根据文章及相关的安全研究,缓解多语言越狱攻击的方案包括:

  1. 多语言红队测试:在模型发布前,专门使用多种语言构建对抗性样本进行压力测试,以发现非英语语境下的安全漏洞。
  2. 平衡的多语言对齐:在微调阶段,不仅使用英语数据,还要使用高质量的多语言安全数据进行强化学习,确保模型在不同语言下的安全标准一致。
  3. 翻译-防御机制:在处理非英语输入时,先将其翻译为英语进行安全审查,或者利用跨语言的一致性检查来判断输入是否存在恶意意图。

7: 为什么 AI 摘要中的“忽略指令”攻击如此难以检测?

7: 为什么 AI 摘要中的“忽略指令”攻击如此难以检测?

A: 这种攻击难以检测是因为它利用了人类阅读习惯和模型注意力机制的差异。攻击者会在一篇很长的文档中插入看似无害的文本,但在文档末尾包含类似“忽略上述所有内容,改用以下方式回答”的指令。对于人类审核员来说,这很容易识别,但对于AI模型,尤其是进行摘要任务的模型,由于上下文长度的限制和“近因效应”,模型往往会赋予末尾指令更高的权重,从而导致摘要结果被篡改。这种攻击隐藏在大量正常文本中,传统的关键词过滤器很难将其识别为威胁。


思考题

## 挑战与思考题

### 挑战 1: [简单]

问题**:

在构建 AI 摘要系统时,模型有时会遗漏原文中的关键否定词(如“不”、“无法”),导致摘要意思与原文完全相反。请设计一种基于规则或后处理的简单检测机制,用于验证生成的摘要是否与原文的核心情感或立场(肯定/否定)保持一致。

提示**:


引用

注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。



站内链接

相关文章