Skip to main content
Back to top
Ctrl
+
K
UCS Deep Learning Club
写在前面:关于深度学习
计算图、反向传播与梯度下降:深度学习核心数学基础
引言
计算图
学习任务的形式
激活函数
损失函数
反向传播算法
梯度下降与优化算法
总结与展望
神经网络基础:从理论到架构
引言
全连接神经网络
卷积神经网络
LeNet-5架构详解
神经网络训练基础
实验对比:全连接 vs CNN
缩放定律
总结与展望
PyTorch 实践:把理论变成代码
引言:从理论到代码
从 NumPy 到 PyTorch:张量的本质
张量操作:数据在网络中的流动
神经网络模块:搭建计算图
自动微分:PyTorch 的核心魔法
优化器:用梯度更新参数
完整训练流程
调试与可视化技巧
工程最佳实践
使用训练框架
结语:从入门到实践
CNN 消融研究:理解卷积神经网络各组件的作用
引言:消融研究的科学方法论
实验设计
PyTorch实现
结语:从黑盒到白盒
迁移学习与微调:站在巨人的肩膀上
导论与核心思想
迁移学习分类体系
基于模型的迁移
实操指南
结语:站在巨人的肩膀上
CNN 中的注意力机制
为什么CNN需要注意力机制?
通道注意力:SE-Net
空间注意力
通道+空间注意力:CBAM
注意力机制的选择与应用
实践指南
总结与展望
U-Net:图像分割的革命
引言:图像分割问题
U 形架构详解
损失函数设计
完整实现
数据增强与训练技巧
总结与展望
模型部署与服务:从训练到生产
引言:训练完模型之后
ONNX:模型的中立语言
服务架构:从单机到分布式
部署实践:用Ferrinx服务模型
结语:完整的学习链路
环境配置番外篇
Linux基础:为什么炼丹用Linux
NVIDIA驱动与CUDA:让GPU真正工作
远程访问:从任何地方连上你的GPU服务器
服务管理:让训练一直跑,服务一直开
结语:现在你有一台真正能用的服务器了
写在后面
Repository
Open issue
搜索
错误
Please activate JavaScript to enable the search functionality.
Ctrl
+
K