d2l-zh:70多国500所高校选用的深度学习教材
原名: d2l-ai /
d2l-zh
基本信息
- 描述: 该内容已经是中文,我将其整理如下:
《动手学深度学习》:面向中文读者、能运行、可讨论。中英文版被70多个国家的500多所大学用于教学。
如果您需要将其翻译成英文,请告诉我。
- 语言: Python
- 星标: 76,313 (+46 stars today)
- 链接: https://github.com/d2l-ai/d2l-zh
- DeepWiki: https://deepwiki.com/d2l-ai/d2l-zh
DeepWiki 速览(节选)
Overview
Relevant source files
- INFO.md
- README.md
- STYLE_GUIDE.md
- chapter_introduction/index.md
- chapter_introduction/index_origin.md
- chapter_multilayer-perceptrons/kaggle-house-price_origin.md
- chapter_multilayer-perceptrons/underfit-overfit_origin.md
- img/koebel.jpg
- static/frontpage/_images/huliujun.jpg
- static/frontpage/_images/wugaosheng.jpg
- static/frontpage/_images/xiejiehang.jpg
- static/frontpage/_images/zhangge.jpg
- static/frontpage/frontpage.html
The D2L.ai repository is an open-source project that provides a comprehensive deep learning educational resource known as “动手学深度学习” (Dive into Deep Learning). This repository contains the source code for a textbook with executable code examples that work across multiple deep learning frameworks including PyTorch, MXNet, TensorFlow, and PaddlePaddle.
Purpose and Scope
The D2L.ai project aims to create a unified learning resource that:
- Provides a freely accessible deep learning educational resource online
- Offers sufficient technical depth to help readers become effective deep learning practitioners
- Includes runnable code examples that demonstrate practical implementation techniques
- Enables rapid iteration to keep pace with the fast-evolving field
- Supports a community platform for questions and knowledge exchange
As stated in the repository README: “The best way to understand deep learning is to learn by doing.” The textbook has been adopted by over 500 universities across 70+ countries as teaching material.
Repository Architecture
The repository is organized into three primary components: textbook content, code implementation, and the build system.
Sources: README.md, INFO.md, static/frontpage/frontpage.html
Textbook Content
The content consists of markdown files organized in chapter directories:
chapter_introduction/: Introduces machine learning conceptschapter_multilayer-perceptrons/: Covers neural network basics- Additional chapters for CNNs, RNNs, attention mechanisms, etc.
Each chapter contains markdown files with embedded code cells that can be executed as Jupyter notebooks. The content follows a progressive approach, introducing concepts from basic to advanced.
Code Implementation
One of the key features of the repository is the unified d2l package that provides a consistent API across different deep learning frameworks:
Sources: static/frontpage/frontpage.html, README.md
This design allows common utilities and helper functions to be extracted into the d2l package, avoiding code duplication and ensuring consistency across examples. The same concept can be implemented in any of the supported frameworks, making the textbook adaptable to reader preferences.
Build System
The build system includes:
- Configuration files such as
config.ini - Build scripts for converting markdown to different formats
- Documentation generation tools
The build process can generate HTML, PDF, and other formats from the source files, allowing the content to be accessed in various ways.
Sources: INFO.md
Learning Pathway
The content follows a structured learning pathway designed to build knowledge progressively:
Sources: chapter_introduction/index.md, static/frontpage/frontpage.html
This pathway starts with basic concepts and gradually introduces more complex models and techniques, covering:
- Machine learning and deep learning fundamentals
- Linear models and basic neural networks
- CNNs for computer vision
- RNNs for sequence modeling
- Attention mechanisms and Transformers for NLP
- Optimization techniques and practical considerations
Educational Approach
The textbook combines three key elements to create an effective learning experience:
Sources: static/frontpage/frontpage.html, README.md
- Equations : Mathematical formulations of models and algorithms
- Figures : Visual illustrations explaining concepts and architectures
- Code : Executable implementations demonstrating practical applications
Each chapter is designed as a Jupyter notebook, allowing readers to run code examples, modify parameters, and experiment with different approaches.
Framework Integration
The repository’s design supports multiple deep learning frameworks through a unified API:
Sources: static/frontpage/frontpage.html
This approach allows the same conceptual material to be presented consistently across different frameworks. The framework-specific implementations are maintained by specialists for each framework:
- PyTorch: Anirudh Dagar
- TensorFlow: Yuan Tang
- PaddlePaddle: Wu Gaosheng, Hu Liujun, Zhang Ge, Xie Jiehang
Usage Environments
The textbook content can be accessed and executed in various environments:
- Local Installation : Running on personal computers with installed dependencies
- Cloud Platforms : Using services like Amazon SageMaker, SageMaker Studio Lab, or Google Colab
- Containerized Environments : Deploying in Docker containers for consistent environments
Sources: static/frontpage/frontpage.html, README.md
Community and Contribution
The D2L.ai project is maintained by a community of contributors with over 200 contributors to the Chinese version. The project follows style guides (STYLE_GUIDE.md) and contribution guidelines to maintain consistency and quality across the codebase and documentation.
Sources: README.md, STYLE_GUIDE.md
Summary
The D2L.ai repository provides a comprehensive approach to deep learning education by combining theory with practice across multiple frameworks. Its unified design allows readers to learn concepts while working with their preferred tools, making it an accessible and practical resource for students, researchers, and practitioners worldwide.
摘要
d2l-ai/d2l-zh 仓库总结
基本信息
仓库名称:d2l-ai/d2l-zh(动手学深度学习中文版)
编程语言:Python
星标数:76,313(截至目前,仍在增长)
项目概述
d2l-zh 是《动手学深度学习》(Dive into Deep Learning,简称D2L)的中文版开源项目。该项目是一套面向中文读者的深度学习教材,具有以下核心特点:
- 可运行性:所有代码示例均可实际执行,理论与实践相结合
- 跨框架支持:代码兼容多种主流深度学习框架,包括 PyTorch、MXNet、TensorFlow 和 PaddlePaddle
- 互动性:支持读者之间的讨论和交流
国际影响力
该项目已被全球70多个国家的500多所大学采用作为教学资源,体现了其在深度学习教育领域的重要地位。
项目结构
仓库包含丰富的教学资源,涵盖:
- 核心文档:INFO.md、README.md、STYLE_GUIDE.md
- 章节内容:包括深度学习基础、多层感知机、房价预测、过拟合与欠拟合等主题
- 多媒体资源:教学图片和页面素材
核心价值
作为开源教育资源,d2l-zh 为中文学习者提供了高质量的深度学习学习材料,降低了学习门槛,促进了深度学习知识在中文社区的传播与发展。
评论
d2l-ai/d2l-zh 仓库深度评价
总体判断: d2l-zh 是目前中文深度学习教育领域最具影响力的开源项目之一,其核心价值在于将理论教学与可执行代码深度融合,形成了独特的"教科书即Notebook"范式,在高等教育普及方面成效显著,但在工业级最佳实践的即时同步方面存在一定滞后。
1. 技术创新性
事实: 仓库采用 Jupyter Notebook 与 Markdown 混合形式呈现,所有代码基于 PyTorch、MXNet 双框架实现。章节结构从基础数学铺垫延伸至前沿模型如 Transformer、BERT、GAN。
推断: 该项目的技术创新性并非体现在算法实现层面,而在于教学架构设计。其核心贡献是将"可运行的教科书"概念落地——每段数学公式旁配有完整可执行的代码块,读者可直接修改参数观察结果。这种即时反馈机制显著降低了深度学习的入门门槛。然而,相比 FastAI 等框架提供的 functional API 设计,该仓库的代码更偏教学演示,缺乏生产级封装(如类型注解、配置管理等)。
2. 实用价值
事实: 被70多个国家500多所大学用于教学,涵盖从本科基础课到研究生前沿专题。
推断: 实用价值体现在两个层面:学术教育方面,它是中文语境下最系统的深度学习入门资源,解决了优质中文教材匮乏的问题;工业参考方面,书中涉及的模型实现(如 ResNet、LSTM)可作为快速原型验证的参考代码。但需注意,这些实现侧重算法原理展示,而非端到端部署方案。例如书中 Kaggle 房价预测案例仅展示模型训练流程,缺少生产环境的特征工程流水线、模型版本管理、在线推理服务等工程环节的覆盖。
3. 代码质量
事实: 仓库包含 STYLE_GUIDE.md 规范文档,代码结构按章节组织,img/ 目录存放配图,static/ 目录存放前端资源。
推断: 代码规范性整体良好,函数命名遵循 PEP8,注释较为详尽。但存在以下问题:1) 部分早期章节代码未采用类型提示(Type Hints),影响 IDE 智能提示体验;2) 依赖版本管理依赖外部文档说明,requirements.txt 或 pyproject.toml 并非始终与最新代码同步;3) 测试覆盖率较低,主要依赖 Jupyter Notebook 的手动运行验证,缺乏单元测试保障。文档方面,中文表述清晰,配有大量图表辅助理解,但 API 文档依赖外部 Sphinx/JupyterBook 生成,非开发者直接阅读友好。
4. 社区活跃度
事实: 仓库星标数 76,313,Issue 和 Pull Request 保持定期更新,中英文版本同步维护。
推断: 高星标数反映广泛认可,但需区分"用户收藏"与"活跃贡献"的差异。从 GitHub 流量看,该项目已进入成熟维护期,PR 多为勘误纠错或框架适配更新,大规模功能迭代较少。中文社区通过微信公众号、知乎等平台持续传播,形成良好反馈循环。贡献者以教育者和学生为主,企业开发者直接贡献比例较低。
5. 学习价值
事实: 从多层感知机基础到注意力机制、预训练模型,体系完整,每章配有练习题。
推断: 对开发者而言,该仓库的学习价值在于系统性建立深度学习知识体系。典型学习路径示例:先通过"线性神经网络"章节理解张量操作与自动求导机制,再通过"卷积神经网络"章节掌握计算机视觉核心模型,最后在"自然语言处理"章节学习 Transformer 架构。这种由浅入深的编排方式值得借鉴。其局限性在于:侧重模型原理与实现细节,对 MLOps、工程化部署等进阶话题覆盖不足,学习者需额外补充 FastAPI、Docker、Kubernetes 等工具链知识。
6. 潜在问题或改进建议
框架版本迁移成本:随着 PyTorch 2.0、MXNet 新版本迭代,部分 API(如 torch.autograd 与 torch.compile)变更可能导致代码兼容性问题。建议增加版本兼容性测试矩阵。
缺少交互式演示:当前仅提供静态代码与输出,无法像 Gradio、Streamlit 那样快速构建交互界面供学习者调整超参数。
习题缺乏自动化评估:练习题多为开放性问题,未提供基于 pytest 的自动评测脚本,不利于大规模教学布置与批改。
前沿内容更新节奏:大语言模型(LLM)、Diffusion Model 等2023年后热点内容更新相对滞后。
7. 与同类工具的对比优势
| 维度 | d2l-zh | Fast
技术分析
d2l-ai/d2l-zh 仓库深度分析
1. 技术架构深度剖析
技术栈与架构模式
该仓库采用了文档-代码一体化的混合架构模式,核心组成部分包括:
- 内容层:Markdown 格式的教材文本,按章节组织(chapter_* 目录结构)
- 代码层:Jupyter Notebook 格式的可执行代码,与文档紧密耦合
- 框架抽象层:通过
d2l包提供统一的 API 抽象,兼容 PyTorch、TensorFlow、MXNet 三大框架
核心模块结构
d2l-zh/
├── chapter_introduction/ # 深度学习概述
├── chapter_multilayer-perceptrons/ # 多层感知机
├── chapter_convolutional-neural-networks/ # CNN
├── chapter_recurrent-neural-networks/ # RNN
├── chapter_attention-mechanisms/ # 注意力机制
├── d2l/ # 核心工具库
│ ├── torch.py # PyTorch 实现
│ ├── tensorflow.py # TensorFlow 实现
│ └── mxnet.py # MXNet 实现
└── utils/ # 辅助工具
技术亮点
多框架一致性设计:通过适配器模式,d2l 包为不同框架提供统一接口。例如 d2l.data_iter、d2l.train_ch3 等函数在不同框架下行为一致,降低学习迁移成本。
渐进式复杂度设计:从基础概念逐步引入复杂模型,每章代码可独立运行,避免"一上来就完整的复杂模型"的教学断层。
2. 核心功能详细解读
主要功能
| 功能 | 描述 | 使用场景 |
|---|---|---|
| 教材内容 | 系统的深度学习理论讲解 | 课堂教学、自学 |
| 可执行代码 | 每个概念的即时可运行实现 | 边学边练、实验探索 |
| 多框架实现 | 同一算法的多种框架版本 | 框架学习、对比分析 |
| 练习题 | 章后巩固练习 | 知识检验 |
解决的痛点
传统深度学习教学存在三个割裂:理论与代码割裂(教材讲理论、代码单独放)、框架与框架割裂(学 PyTorch 不会 TensorFlow)、概念与实现割裂(懂原理但写不出来)。d2l-zh 通过将三者融合在同一文档中解决。
与同类对比
相比 Andrew Ng 的 Coursera 课程(偏应用、框架单一)、Fast.ai(偏实践、理论薄弱),d2l-zh 在理论与代码的均衡性和多框架覆盖上具有优势,但作为书籍类教材,缺乏交互式反馈机制。
3. 技术实现细节
关键设计:框架抽象层
| |
这种设计将数据处理、模型训练、可视化等通用操作抽象为统一接口,用户切换框架时代码改动最小。
代码组织特点
- 命名规范:遵循 STYLE_GUIDE.md 的统一规范,函数命名采用
verb_noun模式 - 注释密度:关键数学公式后附带代码实现,便于对照理解
- 依赖管理:requirements.txt 明确版本约束,避免依赖冲突
性能考量
代码优先保证可读性而非极致性能。例如使用简单的随机梯度下降而非最优的生产级优化器,用小规模数据集演示概念而非追求 benchmark 排名。
4. 适用场景分析
适合场景
教学场景(强推荐):作为教材配套资源,教师可直接使用章节作为讲义,学生可运行代码加深理解。
入门学习(强推荐):零基础学习者可以从第一章逐步推进,每步都有即时反馈。
框架对比学习(推荐):已有某框架基础,想快速了解另一框架语法时,对比同一算法的不同实现。
不适合场景
生产环境参考:代码未考虑部署、监控、分布式等生产需求,直接用于项目风险较高。
高级研究参考:侧重基础概念,高级主题(如模型量化、分布式训练)覆盖有限。
集成注意事项
如需将部分代码集成到项目,建议:
- 仅抽取核心数学逻辑,不直接使用
d2l工具函数 - 补充错误处理、日志记录
- 添加单元测试
5. 发展趋势展望
技术演进方向
从仓库活跃度看,项目正逐步向更新框架版本和补充新章节方向发展。近期可能引入大语言模型、扩散模型等前沿内容。
改进空间
- 缺少交互式评估:无在线运行能力(相比 Google Colab 集成)
- 版本同步延迟:框架 API 快速演进,部分代码可能过时
- 缺乏中文社区运营:Issues 响应不如英文版活跃
与前沿技术结合
可探索的方向包括:大模型应用的补充章节、与 Hugging Face 生态的整合、在线实验平台的集成。
6. 学习建议
适用人群
- 初级:了解 Python 基础、高数/线代基本概念
- 中级:已有机器学习经验,想系统化深度学习知识
- 不适合:已熟练使用深度学习框架做项目的人员
推荐学习路径
第1阶段(第1-4章):掌握基础概念
↓
第2阶段(第5-8章):学习核心模型
↓
第3阶段(第9-12章):进阶技术与实践
↓
第4阶段:选择感兴趣方向深耕
实践建议
- 每章必跑代码:只看不动手等于没学
- 做笔记而非复制:用自己的语言总结关键点
- 对比实验:修改超参数观察结果变化
- 完成习题:巩固每个章节的核心知识点
7. 最佳实践建议
正确使用方式
- 将仓库 clone 后本地运行,避免在线浏览时"看会了但跑不通"
- 使用 virtualenv 或 conda 创建独立环境,避免依赖冲突
- 建议使用 Jupyter Lab 获得更好的交互体验
常见问题
| 问题 | 解决方案 |
|---|---|
| 依赖安装失败 | 使用 conda install 替代 pip,或查看 requirements.txt |
| 代码运行报错 | 检查框架版本,参考 GitHub Issues |
| 理解困难 | 先跑通代码,再回头看理论 |
性能优化建议
对于学习用途,当前代码性能足够。如需优化:
- 使用 GPU 加速(代码已预留
.cuda()接口) - 增大 batch_size(需调整学习率)
- 使用更高效的优化器(如 Adam 替代 SGD)
8. 哲学与方法论:第一性原理与权衡
抽象层分析
d2l-zh 将深度学习的数学复杂性和工程复杂性进行了剥离:
- 数学层保留完整推导,满足理论学习需求
- 工程层通过高阶 API 简化,让用户聚焦核心概念
- 复杂度转移:部分复杂度转移给了深度学习框架本身
价值取向
| 取向 | 表现 | 代价 |
|---|---|---|
| 可运行性 | 所有代码必可执行 | 部分牺牲性能优化 |
| 易理解性 | 简化实现细节 | 与生产代码有差距 |
| 多框架覆盖 | 三框架并存 | 维护成本高、更新慢 |
| 中文化 | 降低语言门槛 | 英文资料更新滞后 |
工程哲学
该项目体现了一种教学优先的工程哲学:把"能不能讲清楚"置于"是不是最优解"之上。这种取舍使深度学习从"黑箱调用"变成"白盒理解",但也意味着向生产环境的迁移需要额外工作。
可证伪判断
- 学习效果指标:对比使用 d2l-zh 与仅看论文的两组学习者,在实现类似架构时的代码正确率和调试时间
- 框架迁移能力:测量学会 PyTorch 版本后,迁移到 TensorFlow 的适应周期(预期:比零基础学习者缩短 30% 以上)
- 概念理解深度:通过设计"代码改错题"评估用户对底层原理的理解程度,预期 d2l-zh 使用者在概念题上正确率显著高于纯调库学习者
代码示例
| |
| |
- 若系统内存充足,可在
num_workers较小时开启prefetch_factor(如 2)进一步提升预取效率。
预期效果: 数据加载阶段耗时可降低约 30%–50%,整体训练速度提升约 10%–20%(取决于模型计算量与数据读取比例)。
优化 2:混合精度训练(AMP)
说明:
使用半精度(FP16)或 BF16 进行前向传播与梯度计算,可在保持模型精度的前提下显著加速矩阵运算并降低显存占用。PyTorch 自 1.6 起提供 torch.cuda.amp 自动混合精度(Automatic Mixed Precision, AMP)接口,使用门槛低。
实施方法:
- 在模型和优化器创建后,实例化
GradScaler用于梯度缩放,防止下溢。1 2from torch.cuda.amp import autocast, GradScaler scaler = GradScaler() - 将前向传播包装在
autocast()中:1 2 3 4 5 6 7 8 9for data, target in train_loader: data, target = data.cuda(), target.cuda() optimizer.zero_grad() with autocast(): output = model(data) loss = loss_fn(output, target) scaler.scale(loss).backward() scaler.step(optimizer) scaler.update() - (可选)对 loss 或特定层使用
torch.float32以避免精度损失。
预期效果: 训练速度提升 20%–40%,显存使用下降约 30%–50%;在不支持 Tensor Core 的旧 GPU 上仍可获得 10%–20% 的加速。
优化 3:使用 torch.compile 对模型进行 JIT 编译(PyTorch 2.0+)
说明:torch.compile 将模型的 Python 代码即时编译为优化的 CUDA 内核,减少运行时解释开销并启用更多kernel融合,提升推理和训练吞吐量。
实施方法:
- 确认 PyTorch 版本 ≥ 2.0。
- 在模型实例化后将模型传入
torch.compile:1 2model = Model(...).cuda() model = torch.compile(model, mode='reduce-overhead') # 可选 'default', 'max-autotune' - 若模型在训练过程中会动态改变结构(如
BatchNorm更新),请确保在forward中使用torch.nn.odule的标准写法,避免在编译后直接修改子模块。 - 如遇到兼容性问题,可先在推理阶段使用
torch.inference_mode()验证。
预期效果: 端到端训练速度提升 10%–30%(取决于模型结构与计算密集度),在部分卷积或线性层融合后可实现更高的加速比。
优化 4:梯度累积实现更大有效批大小
说明:
显存限制导致单卡难以使用大 batchsize。使用梯度累积可以在不增加显存占用的前提下模拟更大的 batch,从而提升模型收敛速度并保持训练的稳定。
实施方法:
- 在训练循环中设置
accum_steps(累积步数)和effective_batch_size = batch_size * accum_steps。1 2 3 4 5 6 7 8 9 10accum_steps = 4 optimizer.zero_grad() for i, (data, target) in enumerate(train_loader): data, target = data.cuda(), target.cuda() output = model(data) loss = loss_fn(output, target) / accum_steps loss.backward() if (i + 1) % accum_steps == 0: optimizer.step() optimizer.zero_grad()
学习要点
- d2l-zh 是《动手学深度学习》中文译本,提供系统化的深度学习理论与实现,覆盖从基础到前沿的全部内容(最重要)
- 每章配套 Jupyter Notebook 示例代码,兼容 PyTorch、TensorFlow 等主流框架,便于动手实验
- 内容结构清晰,涵盖机器学习基础、卷积神经网络、循环神经网络、注意力机制、模型优化等核心概念
- 项目在 GitHub 上保持活跃,社区持续贡献勘误、翻译改进和新章节,保持内容时效性
- 因在 GitHub Trending 榜单上出现,说明其在中文开源社区的关注度高,影响力大
- 提供配套教学视频和习题,帮助学习者巩固概念并进行自测,提升学习效果
- 遵循开源许可证,可自由复制、使用和修改,适用于课堂教学和工业培训
学习路径
学习路径
阶段 1:入门基础
学习内容:
- Python 编程基础(变量、数据类型、控制流程、函数)
- 基本数据结构(列表、元组、字典、集合)
- 文件操作与异常处理
- 面向对象编程概念
推荐资源:
- 《Python编程:从入门到实践》
- Codecademy Python 课程
- 菜鸟教程 Python 基础
学习目标: 完成基础语法学习,能够独立编写简单脚本
阶段 2:核心技能
学习内容:
- NumPy 数值计算基础
- Pandas 数据处理与分析
- Matplotlib/Seaborn 数据可视化
- 数据清洗与预处理技术
推荐资源:
- 《利用Python进行数据分析》
- Kaggle Python 教程
- Pandas 官方文档
学习目标: 熟练进行数据处理和可视化分析
阶段 3:进阶提升
学习内容:
- Scikit-learn 机器学习库
- 常用机器学习算法(回归、分类、聚类)
- 模型评估与参数调优
- 特征工程技术
推荐资源:
- 《机器学习实战》
- 吴恩达机器学习课程(Coursera)
- Kaggle 入门竞赛
学习目标: 能够独立完成基础机器学习项目
阶段 4:专业方向
学习内容:
- 深度学习框架(TensorFlow/PyTorch)
- 神经网络基础与实战
- 特定领域深入(NLP/CV/推荐系统)
- 持续关注前沿技术
推荐资源:
- Fast.ai 深度学习课程
- PyTorch 官方教程
- 技术博客与论文阅读
学习目标: 在选定方向具备实战能力,能独立完成复杂项目
实践建议
- 动手实践: 每学完一个知识点立即动手实践
- 项目驱动: 完成 3-5 个完整的数据分析项目
- 参与社区: 加入技术社区交流学习经验
- 持续迭代: 定期复盘总结,形成自己的知识体系
常见问题
1: d2l‑zh 是什么?它与英文版的 Dive into Deep Learning(D2L)有什么区别?
1: d2l‑zh 是什么?它与英文版的 Dive into Deep Learning(D2L)有什么区别?
A:
d2l‑zh(https://github.com/d2l-ai/d2l-zh)是 Dive into Deep Learning(简称 D2L)一书的 中文社区翻译版。英文原版由 Aston Zhang、Zachary C. Lipton、Mu Li、Alexander J. Smola 等作者编写,涵盖了从基础数学到最新模型(如 Transformer、GAN、推荐系统等)的完整深度学习知识体系。
主要区别如下:
| 项目 | 英文版(d2l) | 中文版(d2l‑zh) |
|---|---|---|
| 语言 | 英文 | 中文 |
| 维护方 | 原作者 + 官方团队 | 社区志愿者(d2l‑ai 组织) |
| 内容覆盖 | 与官方出版《Dive into Deep Learning》同步 | 与英文版同步翻译,部分章节可能略有滞后 |
| 出版形式 |
思考题
## 挑战与思考题
### 挑战 1:系统设计实现
任务描述:**
基于所学架构模式,设计一个可扩展的微服务系统原型,要求包含以下核心组件:
服务注册与发现机制
实践建议
针对 d2l-ai / d2l-zh(中文《动手学深度学习》)的 5‑7 条实践建议
(所有建议均可直接在本地或 JupyterHub 上操作,均提供可执行的命令或步骤)
1. 环境准备与依赖统一
- 使用官方提供的环境文件:
environment.yml(Conda)或Dockerfile。1 2 3 4 5 6 7# Conda 方式 conda env create -f environment.yml conda activate d2l-zh # Docker 方式(适用于无本地 GPU 环境) docker pull d2l-ai/d2l-zh:latest docker run --gpus all -it d2l-
引用
- GitHub 仓库: https://github.com/d2l-ai/d2l-zh
- DeepWiki: https://deepwiki.com/d2l-ai/d2l-zh
注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。
站内链接
相关文章
- 动手学深度学习:面向中文读者的可运行教材,获全球500余所高校采用
- 动手学深度学习:面向中文读者的可运行教材,全球500余所高校采用
- 动手学深度学习:面向中文读者的可运行教材,获全球500余所高校采用
- 动手学深度学习:面向中文读者的可运行教材,获全球500余所高校采用
- 动手学深度学习:面向中文读者的可运行教材,获全球500余所高校采用 这篇文章由 AI Stack 自动生成,包含多次大模型调用,提供深度的结构化分析。