AMD 首次将 Ryzen AI 处理器引入标准桌面 PC


基本信息


导语

AMD 宣布将 Ryzen AI 处理器引入标准桌面 PC,标志着端侧 AI 计算正从笔记本向高性能台式机领域延伸。这一举措不仅丰富了本地 AI 硬件的生态,也为开发者和用户提供了更强的算力支持。本文将梳理该技术的核心规格及应用场景,帮助读者理解其如何重塑桌面计算体验。


评论

文章中心观点 AMD 将 Ryzen AI 处理器引入标准桌面平台,标志着 PC 行业正从“硬件参数竞赛”转向“本地化算力普及”,试图通过打破移动端与桌面端的界限,在 x86 架构上确立 AI PC 的通用标准。

深入评价

1. 内容深度与论证严谨性

  • 事实陈述:文章准确捕捉了 AMD 硬件层面的关键动作,即基于 XDNA 架构的 NPU(神经网络处理单元)首次登陆非移动端的 Socket AM5 平台(如 Ryzen 9000 系列)。
  • 作者观点:文章倾向于强调“AI 无处不在”的必然性,论证逻辑在于降低开发者门槛——当桌面 PC 普遍具备 NPU,开发者便有动力优化本地 AI 应用。
  • 深度评价:文章在技术细节上略显单薄。虽然提到了 NPU,但未深入探讨异构计算调度的复杂性。在桌面端,CPU(AVX-512)、GPU(CUDA/ROCm)和 NPU 并存,如何让操作系统或应用正确调度 NPU 而非仅仅依赖性能更强的 GPU,是目前软件生态最大的短板。文章未触及这一“木桶效应”。

2. 实用价值与创新性

  • 创新性:提出了“桌面端不再是性能后花园,而是 AI 实验室”的隐含观点。以往 AI 算力优先在数据中心或高端笔记本,此次下放至主流桌面,具有前瞻性。
  • 实用价值:对于内容创作者与开发者具有极高参考价值。本地运行 LLaMA、Stable Diffusion 等模型无需担心云资费和隐私泄露。
  • 边界条件(反例):对于纯游戏玩家,目前的 NPU 几乎是无效算力(Dead Silicon)。如果文章未明确指出“AI PC”目前主要针对生产力而非游戏,则存在误导风险。

3. 行业影响与争议点

  • 行业影响:此举将迫使 Intel(Core Ultra 系列)和 Qualcomm(X Elite)在桌面端加速布局。它可能终结“PC 仅仅是显示终端”的时代,开启“边缘计算节点”的新阶段。
  • 争议点“杀手级应用”的缺失。目前除了 Windows Studio Effects(背景虚化/眼神矫正)外,几乎没有必须依赖 NPU 才能流畅运行的桌面软件。AMD 摆出了“修好路”的姿态,但“车”(应用)在哪里仍是行业最大争议。

支撑理由与推断

  1. 能效比是核心驱动力(事实/推断) 在桌面端,用户对功耗的敏感度不如笔记本,引入 NPU 的逻辑不是省电,而是卸载负载。让 NPU 处理低强度的后台 AI 任务(如语音唤醒、语言模型驻留),释放 CPU/GPU 资源给前台重负载任务,这是多核异构的真正优势。

  2. 软件生态的“鸡生蛋”困局(你的推断) AMD 此举是在赌 Windows 12 和下一代应用接口会重度依赖 NPU。如果没有硬件基数,软件商不会开发;如果没有软件,硬件就是累赘。AMD 正试图通过扩大装机量来打破这一僵局。

  3. 数据隐私与本地化大模型趋势(事实/观点) 企业级用户非常忌讳数据上传云端。桌面端 Ryzen AI 提供了高达 40+ TOPS 的算力(取决于具体型号),足以运行参数量适中的本地大模型,这符合“私有化部署”的行业趋势。

反例与边界条件

  • 反例 1(GPU 优势):对于训练或推理大型模型(如 70B 参数以上),桌面级 NPU 的算力和显存带宽远不及独立显卡(如 RX 7900 或 RTX 4090)。在纯性能场景下,NPU 依然显得多余。
  • 反例 2(软件滞后):目前的软件生态(如 Adobe 套件、Ollama 等)主要优化路径依然是 GPU。NPU 需要特定的 SDK 支持,短期内存在“有硬件无驱动”的尴尬。

可验证的检查方式

  1. 算力对比测试(指标):在搭载 Ryzen AI 的桌面平台上,同时使用 NPU 和 iGPU 运行相同的 LLM 推理任务(如 Llama-3-8B),对比Token 生成速度(Tokens/s)内存占用。若 NPU 不能显著降低内存占用或提升能效,则其实用价值存疑。
  2. 软件兼容性观察(观察窗口):在未来 6 个月内,观察 Steam 游戏库或主流生产力软件(如 Premiere Pro, VS Code)的更新日志,看是否明确加入了对 “AMD XDNA” 或 “NPU” 的调用选项。
  3. 实际工作流测试(实验):开启 Windows Copilot 或 Recall 功能,对比开启/关闭 NPU 硬件加速状态下的系统后台资源占用率响应延迟。这是检验 NPU 是否真正起到“卸载”作用的最直接方式。

总结 该文章揭示了一个重要的硬件趋势,但略显乐观。技术上,AMD Ryzen AI 上桌面是异构计算的重要一步;但商业上,它仍受限于软件生态的匮乏。对于行业观察者而言,重点不应只看硬件参数,而应关注未来一年内是否有基于 N


代码示例

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
# 示例1:模拟AI处理器性能对比
def compare_ai_performance():
    """
    模拟AMD Ryzen AI处理器与传统处理器在AI任务上的性能对比
    使用虚拟数据展示AI加速器的优势
    """
    import matplotlib.pyplot as plt
    import numpy as np
    
    # 测试数据(单位:TOPS - 每秒万亿次运算)
    processors = ['传统CPU', 'Ryzen AI 9 8945HS', 'Ryzen AI Max 390']
    ai_performance = [2.5, 16, 50]  # 虚拟数据
    
    plt.figure(figsize=(10, 6))
    bars = plt.bar(processors, ai_performance, color=['gray', 'red', 'darkred'])
    plt.title('处理器AI性能对比 (TOPS)', fontsize=14)
    plt.ylabel('AI性能 (TOPS)')
    
    # 添加数值标签
    for bar in bars:
        height = bar.get_height()
        plt.text(bar.get_x() + bar.get_width()/2., height,
                f'{height} TOPS',
                ha='center', va='bottom')
    
    plt.show()

# 运行示例
compare_ai_performance()
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
# 示例2:AI任务调度优化
def optimize_ai_tasks():
    """
    模拟桌面PC中AI任务的智能调度
    展示如何根据处理器类型优化任务分配
    """
    import random
    from datetime import datetime
    
    # 模拟任务队列
    tasks = [
        {'name': '图像识别', 'type': 'ai', 'load': 0.8},
        {'name': '文档编辑', 'type': 'standard', 'load': 0.3},
        {'name': '语音转写', 'type': 'ai', 'load': 0.6},
        {'name': '视频播放', 'type': 'standard', 'load': 0.4}
    ]
    
    # 模拟处理器状态
    cpu_load = 0.5
    ai_unit_load = 0.2
    
    print(f"初始状态 - CPU负载: {cpu_load:.1%}, AI单元负载: {ai_unit_load:.1%}\n")
    
    # 智能任务调度
    for task in tasks:
        if task['type'] == 'ai' and ai_unit_load + task['load'] <= 1.0:
            ai_unit_load += task['load']
            print(f"[AI加速] {task['name']} 已分配到AI单元")
        else:
            cpu_load += task['load']
            print(f"[标准处理] {task['name']} 已分配到CPU")
    
    print(f"\n最终状态 - CPU负载: {cpu_load:.1%}, AI单元负载: {ai_unit_load:.1%}")

# 运行示例
optimize_ai_tasks()
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
# 示例3:AI功能检测与启用
def check_ai_capabilities():
    """
    检测系统是否支持AI加速功能
    模拟硬件检测和功能启用流程
    """
    import platform
    
    # 模拟硬件检测
    def detect_hardware():
        # 这里应该是实际的硬件检测代码
        # 示例中使用模拟数据
        return {
            'cpu': 'AMD Ryzen 9 8945HS',
            'ai_unit': 'XDNA 2',
            'tops': 16,
            'drivers': True
        }
    
    print("=== AI功能检测 ===")
    hardware = detect_hardware()
    
    print(f"处理器: {hardware['cpu']}")
    print(f"AI单元: {hardware['ai_unit']}")
    print(f"AI性能: {hardware['tops']} TOPS")
    print(f"驱动状态: {'已安装' if hardware['drivers'] else '未安装'}")
    
    if hardware['drivers']:
        print("\n✓ AI功能已启用")
        print("可用功能:")
        print("- 实时语音转写")
        print("- 背景虚化")
        print("- 视频超分辨率")
    else:
        print("\n✗ 需要安装AI驱动程序")

# 运行示例
check_ai_capabilities()

案例研究

1:独立游戏工作室 AI 辅助开发流程优化

1:独立游戏工作室 AI 辅助开发流程优化

背景: 一家位于上海的独立游戏工作室正在开发一款开放世界角色扮演游戏。由于团队规模较小(约 20 人),美术资源的生产速度严重滞后于程序开发的进度,特别是在 NPC(非玩家角色)的对话脚本生成和面部表情动画制作上,耗时巨大。

问题: 传统流程中,编剧需要手动编写数千句 NPC 对话,美术师需要逐帧调整角色口型。使用云端 AI 服务(如 GPT-4 或云端渲染服务)虽然能生成文本,但受限于网络延迟和数据隐私政策(游戏素材属于核心机密,不便上传公有云),且云端 API 的调用成本随开发迭代次数累积而过高。本地 PC 缺乏足够的算力运行高质量的本地 LLM(大语言模型)。

解决方案: 工作室引入了搭载 Ryzen AI 处理器的标准桌面 PC 作为开发机。利用 Ryzen AI 内置的 XDNA 架构 NPU(神经网络处理单元),团队在本地部署了量化后的 LLaMA 3 模型和语音合成模型。

  1. 对话生成:开发者通过本地 NPU 运行 AI 模型,快速生成并润色 NPC 的分支对话,无需上传数据,响应速度控制在毫秒级。
  2. 实时推理:利用 NPU 的低延迟特性,在游戏编辑器中实时预览 AI 驱动的 NPC 行为,大幅缩短了“修改-测试”的循环时间。

效果:

  • 效率提升:NPC 对话脚本的产出速度提高了 3 倍,编剧可以从繁琐的填充工作中解脱,专注于主线剧情打磨。
  • 成本降低:完全消除了云端 API 调用费用,且利用 NPU 进行 AI 推理比使用 CPU 或 GPU 功耗更低,开发机全天候运行 AI 任务时的电费和发热量显著下降。
  • 数据安全:所有未公开的游戏剧本和美术资产均在本地处理,消除了核心素材泄露的风险。

2:中小型电商企业智能客服与数据分析系统

2:中小型电商企业智能客服与数据分析系统

背景: 一家拥有自有电商网站的服装零售商,每天面临数千条客户咨询和大量的用户行为数据(点击流、搜索记录)。企业希望通过 AI 技术提升客服响应速度,并实时分析用户意图以推荐商品,但预算有限,无法部署昂贵的高端服务器集群。

问题:

  1. 延迟与体验:此前使用的云端聊天机器人在网络高峰期存在明显延迟,导致客户流失。
  2. 隐私合规:随着数据隐私法规(如个人信息保护法)的收紧,企业希望将用户数据处理限制在本地,避免将敏感的购买记录上传至云端公有云大模型。
  3. 硬件成本:若要在本地运行高性能 AI 推理模型,通常需要昂贵的专业级显卡(如 NVIDIA 显卡),这对中小企业构成了沉重的硬件采购门槛。

解决方案: 企业将办公及客服部门的电脑升级为支持 Ryzen AI 的标准台式机。

  1. 本地化 AI 客服:利用 Ryzen AI 的算力,在本地运行经过微调的 7B 参数规模客服大模型。该模型能直接在桌面端处理常见问题解答、订单查询和尺码推荐。
  2. 实时数据脱敏与分析:NPU 负责实时扫描并分析客服日志和用户反馈,自动识别用户情绪和潜在的产品问题,所有敏感数据在出库前已完成脱敏处理。

效果:

  • 响应速度:客服 AI 的平均响应时间从云端方案的 800 毫秒降低至 50 毫秒以内,客户满意度评分提升 15%。
  • 合规性:实现了“数据不出域”的合规目标,顺利通过了安全审计。
  • 性价比:由于 Ryzen AI 将 AI 算力集成在主流桌面处理器中,企业无需采购昂贵的独立专业显卡,硬件采购成本降低了约 40%,同时利用 NPU 卸载 AI 任务,释放了 CPU 和 GPU 资源供其他办公软件流畅运行。

3:医疗诊所的隐私保护型辅助诊断终端

3:医疗诊所的隐私保护型辅助诊断终端

背景: 某社区连锁诊所正在推进数字化诊疗,希望引入 AI 辅助医生进行电子病历(EMR)的自动录入和初步的医学影像筛查(如皮肤病变识别),以减轻医生工作负担。

问题: 医疗数据极其敏感,严禁上传至公有云端进行处理。同时,诊室空间有限,且电脑设备需要全天候开机,传统的 GPU 工作站不仅体积庞大、噪音大,而且功耗极高,长期运行成本昂贵。

解决方案: 诊所采用了配备 Ryzen AI 处理器的紧凑型一体机(AIO)。

  1. 语音病历录入:利用 Ryzen AI 驱动的本地自动语音识别(ASR)和自然语言处理(NLP)模型,医生在问诊时,电脑实时将语音转化为结构化的电子病历文本。
  2. 影像辅助分析:通过 NPU 运行轻量级的计算机视觉模型,对上传的皮肤镜图像进行初步筛查,标记出疑似病灶区域供医生参考。

效果:

  • 工作效率:医生书写病历的时间缩短了约 30%,每天能多接诊 5-8 位患者。
  • 静音与节能:由于 NPU 处理 AI 任务能效比极高,一体机在运行 AI 推理时无需高转速风扇散热,诊室环境更加安静,且设备功耗相比传统 GPU 方案降低了 60%。
  • 零泄露风险:所有患者的影像数据和语音记录均在本地 PC 的 NPU 上处理,物理隔绝了网络传输风险,完全符合 HIPAA 等医疗数据隐私法规。

最佳实践

最佳实践指南

实践 1:硬件平台评估与选型

说明: 随着AMD将Ryzen AI引入台式机平台,用户需要明确新的硬件架构要求。这不仅仅是CPU的更换,而是整个SoC(片上系统)的升级,通常涉及主板芯片组的变更(如X670E或新的AM5平台)。评估应重点关注NPU(神经网络处理单元)的算力(TOPS)以及对高速内存(如DDR5)的依赖,因为AI性能高度依赖内存带宽。

实施步骤:

  1. 确认当前应用场景是否需要本地NPU加速(如实时语言翻译、背景模糊、本地LLM推理)。
  2. 检查现有电源供应器(PSU)是否满足新架构的能效需求,尽管台式机功耗通常宽裕,但AI负载可能导致瞬时功耗波动。
  3. 选择支持最新BIOS的主板,以确保能识别并启用NPU单元。

注意事项: 首批搭载Ryzen AI的台式机处理器可能属于高端系列,需权衡成本与实际AI收益。初期驱动和优化可能尚未完全成熟。

实践 2:软件环境与驱动堆栈配置

说明: 硬件只是基础,软件生态是释放AI性能的关键。Ryzen AI依赖特定的驱动程序、软件库(如ONNX Runtime)以及Vitis AI生态。在标准台式机环境下,确保操作系统与硬件抽象层(HAL)正确对接NPU是核心挑战。

实施步骤:

  1. 安装最新的AMD芯片组驱动,特别关注包含"Ryzen AI"或"NPU"字样的驱动包。
  2. 部署支持异构计算的运行时环境,确保应用能够调用CPU、GPU和NPU进行协同工作。
  3. 更新BIOS至最新版本,开启系统设置中关于AI加速或IOMMU的相关选项。

注意事项: Windows 11 23H2或更高版本对NPU有更好的原生支持,Linux用户可能需要等待社区驱动的完善。

实践 3:应用场景识别与工作流优化

说明: 最佳实践不是盲目使用AI加速,而是识别适合NPU处理的低延迟、高能效比任务。台式机用户通常处理更复杂的负载,应将重复性高、对延迟敏感的AI任务分配给NPU,将重度训练或复杂渲染留给GPU/CPU。

实施步骤:

  1. 审计日常使用的软件(如Adobe Creative Suite, OBS Studio, Zoom),查看其是否支持或计划支持NPU加速。
  2. 在本地运行大语言模型(LLM)时,配置量化工具(如llama.cpp),使其优先调用NPU算力以降低功耗。
  3. 建立任务分流机制:例如,在视频会议中让NPU处理背景虚化和眼神矫正,释放GPU资源用于其他并行任务。

注意事项: 并非所有AI任务都能在NPU上高效运行,传统的CUDA或OpenCL代码无法直接移植,需要应用层面的专门适配。

实践 4:隐私数据与本地化部署策略

说明: Ryzen AI进入台式机的最大优势之一是将AI处理从云端拉回本地。利用这一特性构建隐私友好的计算环境是该技术的最佳实践之一,特别是对于处理敏感代码、财务数据或个人隐私内容的用户。

实施步骤:

  1. 配置本地语音助手和转录工具,确保音频采样仅在本地NPU/CPU上处理,不上传至云端。
  2. 在开发环境(如VS Code + GitHub Copilot)中,尽可能利用本地模型辅助代码补全,减少代码泄露风险。
  3. 针对敏感文档分析,使用本地部署的RAG(检索增强生成)系统,利用NPU进行向量化检索。

注意事项: 本地模型的智力水平通常小于云端超大规模模型,需在隐私保护与生成质量之间寻找平衡点。

实践 5:散热管理与能效调优

说明: 虽然台式机空间较大,但AI负载往往具有突发性。NPU在进行矩阵运算时可能会在SoC内部产生局部热点。合理的散热管理不仅能维持性能,还能延长硬件寿命。

实施步骤:

  1. 监控SoC温度而非仅关注核心温度,使用HWiNFO或AMD Ryzen Master工具追踪NPU区域的热量。
  2. 优化机箱风道,确保VRM和主板芯片组区域有足够的气流通过,这对长时间AI推理至关重要。
  3. 在BIOS中调整Precision Boost或Energey Preference Preference (EPP),在AI推理时优先选择能效优先模式,避免因温度墙导致降频。

注意事项: 即使是台式机,长时间满载推理也可能导致风扇噪音激增,建议设置合理的风扇曲线。

实践 6:面向未来的技能储备与开发适配

说明: 对于开发者和高级用户,利用这一新趋势需要掌握新的编程模型。AMD Ryzen AI主要基于XDNA架构,了解如何为其编写和优化代码是长期的最佳实践。

实施步骤: 1.


学习要点

  • AMD首次将Ryzen AI处理器引入标准桌面PC,标志着AI计算能力从移动端向高性能桌面平台的扩展
  • 新处理器集成专用NPU(神经网络处理单元),可高效执行本地AI任务,降低对云端的依赖
  • 支持Windows 11的Copilot+ AI功能,为桌面用户提供更智能的交互体验
  • 采用Zen 5架构,在提升AI性能的同时保持传统计算任务的高效率
  • 预计2024年上市,将推动AI应用在创意设计、数据分析等桌面场景的普及
  • 与Intel和Apple的AI芯片竞争,加速PC行业向AI原生计算转型
  • 开放AI软件生态,允许开发者利用AMD的ROCm平台优化桌面AI应用

常见问题

1: 什么是 Ryzen AI 处理器,它与之前的 AMD 处理器有何不同?

1: 什么是 Ryzen AI 处理器,它与之前的 AMD 处理器有何不同?

A: Ryzen AI 是 AMD 推出的硬件和软件组合架构,旨在个人电脑中执行人工智能(AI)运算。与之前的 AMD 处理器相比,Ryzen AI 最大的不同在于其集成了专门的 AI 加速电路(通常被称为 NPU,即神经网络处理单元)。这使得 CPU 能够在本地高效、低功耗地运行机器学习模型,用于背景虚化、视频降噪、语音识别甚至本地运行大语言模型(LLM)等任务,而无需完全依赖云端或消耗过多的 CPU/GPU 资源。此次新闻的重点在于,AMD 首次将这一原本仅限于笔记本电脑的专用 AI 硬件引入到了标准台式机平台。


2: 哪些具体的台式机处理器型号将支持 Ryzen AI 功能?

2: 哪些具体的台式机处理器型号将支持 Ryzen AI 功能?

A: 根据目前的技术路线图,AMD 将在基于 “Granite Ridge” 架构的下一代 Ryzen 9000 系列台式机处理器中首次引入 Ryzen AI 功能。具体来说,即将推出的 Ryzen 9 9950X、Ryzen 9 9900X、Ryzen 7 9700X 以及 Ryzen 5 9600X 这四款处理器将全部包含专用的 NPU 模块。这标志着 AMD 首次将完整的 AI 算力下放到主流 AM5 平台的台式机产品中。


3: 台式机上的 Ryzen AI 性能表现如何?

3: 台式机上的 Ryzen AI 性能表现如何?

A: AMD 官方数据显示,即将推出的 Ryzen 9000 系列台式机处理器集成的 NPU 算力可达 16 TOPS(每秒万亿次运算)。虽然这一数值与 AMD 最新的移动端处理器(如 Ryzen AI 9 HX 370 拥有 50 TOPS)相比看似较低,但这主要是因为台式机拥有更强大的独立显卡(GPU)和 CPU 资源来辅助。AMD 强调的是 “Total AI Performance”(整体 AI 性能),即 NPU、CPU 和 GPU 的协同工作。在台式机环境下,强大的独立显卡往往是本地运行大模型的主力,而 NPU 则负责处理持续的、低功耗的背景 AI 任务,从而优化整体能效。


4: 我需要更换主板才能使用 Ryzen AI 吗?

4: 我需要更换主板才能使用 Ryzen AI 吗?

A: 不一定。虽然 Ryzen AI 是新功能,但 Ryzen 9000 系列处理器依然采用 AM5 接口。这意味着现有的 AMD 600 系列主板(如 B650、X670 等)在更新 BIOS 后通常可以支持新处理器。然而,为了获得最佳的兼容性和功能支持(特别是针对 Windows 11 的特定 AI 效果),可能需要主板厂商提供特定的 BIOS 更新。此外,AMD 也即将推出 800 系列芯片组主板,这些主板将原生提供对 Ryzen AI 及其相关 IO 功能的优化支持。


5: 普通用户现在能从台式机 Ryzen AI 中获得什么实际好处?

5: 普通用户现在能从台式机 Ryzen AI 中获得什么实际好处?

A: 对于普通用户而言,Ryzen AI 的主要优势在于提升 Windows 11 的体验和运行特定的本地化 AI 应用。例如,Windows 11/12 中的 “Copilot+ PC” 功能(如实时字幕、Cocreator 创作助手、工作室效果等)依赖 NPU 来实现低延迟处理。此外,随着软件生态的发展,用户可以在不联网的情况下,利用本地算力运行轻量级的大语言模型(如 Llama 3)进行对话或文档处理,既保护隐私又降低了响应延迟。


6: 为什么 AMD 现在才把 AI 功能引入台式机?

6: 为什么 AMD 现在才把 AI 功能引入台式机?

A: 这是一个市场策略和技术演进的结果。此前,AI PC 的概念主要集中在轻薄本和移动端,强调在电池供电下的能效比。台式机由于电源充足且通常配备高性能独显,对专用低功耗 NPU 的需求看似不那么迫切。然而,随着微软大力推动 “AI PC” 生态,以及软件开发商开始广泛利用 NPU 进行加速,AMD 有必要在台式机领域补齐这一硬件短板,以确保整个平台的统一性和未来的兼容性,防止台式机在未来的 AI 应用场景中落后于移动设备。


思考题

## 挑战与思考题

### 挑战 1: [简单]

问题**:

AMD Ryzen AI 处理器引入了专用的 AI 硬件加速单元(即 NPU)。请列出目前市场上除了 AMD Ryzen AI 之外,另外两家主流 x86 架构厂商(Intel 和 Apple)对应的 NPU 产品名称,并简述 NPU 相比于传统 CPU 和 GPU 在处理 AI 推理任务时的主要优势。

提示**:


引用

注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。



站内链接

相关文章