课程目标:
在这门课程中,你将会全面了解卷积神经网络、循环神经网络等当前最常用的深度学习模型以及最前沿的进展、最炫酷的应用场景。课程针对不同模型,会讲解其背后的数学基础及示例代码,使你可以把学到的模型应用到日常的工作中,达到中级深度学习工程师的水平。
课程截图:
〖课程目录〗:
- | └──4、深度学习实战
- | | ├──10、课程:图像识别综述.1、图像标记.mp4 57.20M
- | | ├──10、课程:图像识别综述.2、目标检测.mp4 58.13M
- | | ├──10、课程:图像识别综述.3、图像切割.mp4 84.56M
- | | ├──10、课程:图像识别综述.4、图像变换.mp4 68.51M
- | | ├──10、课程:图像识别综述.5、图像降噪和恢复.mp4 42.85M
- | | ├──10、课程:图像识别综述.6、图像聚类与生成.mp4 66.68M
- | | ├──11、课程:迁移学习.10、神经风格迁移(二).mp4 71.10M
- | | ├──11、课程:迁移学习.11、神经风格迁移(三).mp4 95.69M
- | | ├──11、课程:迁移学习.12、神经风格迁移(四).mp4 43.97M
- | | ├──11、课程:迁移学习.1、迁移学习的用途.mp4 36.58M
- | | ├──11、课程:迁移学习.2、迁移学习的种类.mp4 53.62M
- | | ├──11、课程:迁移学习.3、猫狗大战实例之数据读取和预处理.mp4 90.99M
- | | ├──11、课程:迁移学习.4、对比展示迁移学习的效果.mp4 125.43M
- | | ├──11、课程:迁移学习.5、如何导入之前的模型.mp4 93.95M
- | | ├──11、课程:迁移学习.6、连接特征网络和分类网络.mp4 69.66M
- | | ├──11、课程:迁移学习.7、如何逐层训练.mp4 70.16M
- | | ├──11、课程:迁移学习.8、使用detach分开训练网络.mp4 121.38M
- | | ├──11、课程:迁移学习.9、神经风格迁移(一).mp4 122.61M
- | | ├──12、课程:对抗网络.1、生成式模型.mp4 39.17M
- | | ├──12、课程:对抗网络.2、自编码器.mp4 75.81M
- | | ├──12、课程:对抗网络.3、对抗学习引入.mp4 46.26M
- | | ├──12、课程:对抗网络.4、对抗学习的损失函数.mp4 84.57M
- | | ├──12、课程:对抗网络.5、卷机对抗网络.mp4 59.69M
- | | ├──12、课程:对抗网络.6、对抗训练的难点及应用(一).mp4 65.15M
- | | ├──12、课程:对抗网络.7、对抗训练的难点及应用(二).mp4 98.17M
- | | ├──13、课程:时间序列分析.10、使用LSTM进行时间序列预测.mp4 110.19M
- | | ├──13、课程:时间序列分析.1、时间序列是什么.mp4 94.22M
- | | ├──13、课程:时间序列分析.2、时间序列的预处理.mp4 134.62M
- | | ├──13、课程:时间序列分析.3、时间序列的预测方法.mp4 82.37M
- | | ├──13、课程:时间序列分析.4、一阶平滑法.mp4 113.82M
- | | ├──13、课程:时间序列分析.5、二次指数平滑法.mp4 131.57M
- | | ├──13、课程:时间序列分析.6、Python代码展示.mp4 93.99M
- | | ├──13、课程:时间序列分析.7、数据导入和平稳性检测.mp4 106.54M
- | | ├──13、课程:时间序列分析.8、平稳性处理于模型构建.mp4 99.26M
- | | ├──13、课程:时间序列分析.9、模型的其他构建法.mp4 91.21M
- | | ├──14、课程:RNN.10、RNN损失函数.mp4 58.81M
- | | ├──14、课程:RNN.11、RNN中的求导推理.mp4 116.19M
- | | ├──14、课程:RNN.12、RNN的求导公式推导.mp4 133.94M
- | | ├──14、课程:RNN.13、随时间产生的梯度消失问题.mp4 117.61M
- | | ├──14、课程:RNN.14、梯度消失的反面—梯度爆炸.mp4 72.96M
- | | ├──14、课程:RNN.1、时间序列数据的特点和历史(一).mp4 66.65M
- | | ├──14、课程:RNN.2、时间序列数据的特点和历史(二).mp4 78.84M
- | | ├──14、课程:RNN.3、RNN的网络结构(一).mp4 99.76M
- | | ├──14、课程:RNN.4、RNN的网络结构(二).mp4 57.13M
- | | ├──14、课程:RNN.5、RNN中的时间不变性.mp4 112.58M
- | | ├──14、课程:RNN.6、RNN的代码实现.mp4 48.00M
- | | ├──14、课程:RNN.7、RNN下的语言模型(一).mp4 85.24M
- | | ├──14、课程:RNN.8、RNN下的语言模型(二).mp4 70.63M
- | | ├──14、课程:RNN.9、RNN的前向传播.mp4 81.57M
- | | ├──15、课程:RNN实战.1、自然语言的编码.mp4 125.01M
- | | ├──15、课程:RNN实战.2、RNN代码展示—前向传递.mp4 105.26M
- | | ├──15、课程:RNN实战.3、RNN代码展示—反向传播.mp4 122.36M
- | | ├──15、课程:RNN实战.4、RNN中的梯度更新.mp4 86.02M
- | | ├──15、课程:RNN实战.5、模型的训练.mp4 75.31M
- | | ├──15、课程:RNN实战.6、PyTorch下的RNN之前向传播.mp4 90.74M
- | | ├──15、课程:RNN实战.7、模型的构建代码.mp4 75.78M
- | | ├──15、课程:RNN实战.8、模型的训练代码.mp4 117.17M
- | | ├──15、课程:RNN实战.9、将模型改为生成模型.mp4 123.61M
- | | ├──16、课程:RNN时间序列预测.1、数据准备和导入.mp4 93.88M
- | | ├──16、课程:RNN时间序列预测.2、使用线性模型进行预测.mp4 127.35M
- | | ├──16、课程:RNN时间序列预测.3、使用神经网络进行预测.mp4 69.54M
- | | ├──16、课程:RNN时间序列预测.4、预测结果展示与分析.mp4 78.26M
- | | ├──16、课程:RNN时间序列预测.5、从前馈网络到RNN.mp4 64.84M
- | | ├──16、课程:RNN时间序列预测.6、应对梯度爆炸.mp4 92.20M
- | | ├──16、课程:RNN时间序列预测.7、加速模型的训练方法(一).mp4 45.01M
- | | ├──16、课程:RNN时间序列预测.8、加速模型的训练方法(二).mp4 107.48M
- | | ├──17、课程:RNN深度理解.10、GRU的优势.mp4 58.66M
- | | ├──17、课程:RNN深度理解.11、Attention机制.mp4 62.11M
- | | ├──17、课程:RNN深度理解.1、RNN和动力学系统.mp4 54.76M
- | | ├──17、课程:RNN深度理解.2、高维动力系统.mp4 45.01M
- | | ├──17、课程:RNN深度理解.3、RNN的图灵完备性.mp4 48.53M
- | | ├──17、课程:RNN深度理解.4、RNN与脑科学的联系.mp4 32.55M
- | | ├──17、课程:RNN深度理解.5、如何解决梯度消失的问题.mp4 45.38M
- | | ├──17、课程:RNN深度理解.6、LSTM的原理.mp4 53.18M
- | | ├──17、课程:RNN深度理解.7、LSTM的优势.mp4 45.23M
- | | ├──17、课程:RNN深度理解.8、LSTM的方程.mp4 48.48M
- | | ├──17、课程:RNN深度理解.9、GRU原理.mp4 49.41M
- | | ├──18、课程:课程总结.1、机器学习的问题.mp4 34.70M
- | | ├──18、课程:课程总结.2、机器学习的核心概念.mp4 44.22M
- | | ├──18、课程:课程总结.3、机器学习常见模型.mp4 43.49M
- | | ├──18、课程:课程总结.4、CNN常见技巧.mp4 36.82M
- | | ├──18、课程:课程总结.5、RNN和迁移学习.mp4 37.83M
- | | ├──1、课程:多层感知机DNN.1、浅层网络的问题.mp4 52.68M
- | | ├──1、课程:多层感知机DNN.2、涌现现象与深度网络为何高效.mp4 75.70M
- | | ├──1、课程:多层感知机DNN.3、计算图.mp4 100.05M
- | | ├──1、课程:多层感知机DNN.4、导数的反向传播.mp4 57.00M
- | | ├──2、课程:梯度下降法.1、梯度下降的直观例子(一).mp4 45.61M
- | | ├──2、课程:梯度下降法.2、梯度下降的直观例子(二).mp4 48.53M
- | | ├──2、课程:梯度下降法.3、梯度下降的代码实现.mp4 60.67M
- | | ├──2、课程:梯度下降法.4、梯度实现的数学证明.mp4 30.81M
- | | ├──2、课程:梯度下降法.5、从优化的层次到机器学习.mp4 39.53M
- | | ├──2、课程:梯度下降法.6、梯度下降的变体—动量梯度下降法及代码实现.mp4 120.17M
- | | ├──3、课程:BP算法.1、反向传播算法的数学推导.mp4 51.93M
- | | ├──3、课程:BP算法.2、反向传播算法的代码实现.mp4 56.99M
- | | ├──3、课程:BP算法.3、链式法则.mp4 37.83M
- | | ├──3、课程:BP算法.4、反向传播算法在神经网络中的应用代码展示(一).mp4 67.33M
- | | ├──3、课程:BP算法.5、反向传播算法在神经网络中的应用代码展示(二).mp4 68.63M
- | | ├──4、课程:卷积神经网络.1、卷积神经网络的历史.mp4 65.27M
- | | ├──4、课程:卷积神经网络.2、图像识别中的滤镜与卷积.mp4 61.74M
- | | ├──4、课程:卷积神经网络.3、卷积操作的代码展示.mp4 71.37M
- | | ├──4、课程:卷积神经网络.4、图像识别的传统方法及其问题(一).mp4 72.03M
- | | ├──4、课程:卷积神经网络.5、图像识别的传统方法及其问题(二).mp4 80.53M
- | | ├──4、课程:卷积神经网络.6、卷积是如何提取特征的、卷积网络的生物学机理.mp4 119.78M
- | | ├──4、课程:卷积神经网络.7、引入激活函数以提取非线性特征.mp4 87.42M
- | | ├──4、课程:卷积神经网络.8、池化操作与层层抽象.mp4 84.51M
- | | ├──4、课程:卷积神经网络.9、卷积神经网络的训练方法.mp4 68.89M
- | | ├──5、课程:PyTorch(上).1、PyTorch中的基本概念—变量.mp4 106.47M
- | | ├──5、课程:PyTorch(上).2、PyTorch中的反向求导.mp4 74.87M
- | | ├──5、课程:PyTorch(上).3、网络视角下的线性模型、PyTorch对神经网络的支持包.mp4 101.26M
- | | ├──5、课程:PyTorch(上).4、PyTorch中的优化器和损失函数.mp4 82.79M
- | | ├──5、课程:PyTorch(上).5、逻辑回归的问题介绍.mp4 57.47M
- | | ├──5、课程:PyTorch(上).6、用类的方法实现逻辑斯蒂回归.mp4 72.53M
- | | ├──5、课程:PyTorch(上).7、多层网络的模型构建流程、神经网络的参数初始化.mp4 118.62M
- | | ├──5、课程:PyTorch(上).8、Drop out在神经网络中的应用和实现.mp4 110.39M
- | | ├──6、课程:PyTorch(下).10、构建卷积网络的代码讲解.mp4 82.13M
- | | ├──6、课程:PyTorch(下).11、卷积网络中的全连接层.mp4 83.56M
- | | ├──6、课程:PyTorch(下).12、神经网络的训练与测试及训练的效果展示.mp4 120.06M
- | | ├──6、课程:PyTorch(下).1、梯度下降法在PyTorch中的实现.mp4 81.07M
- | | ├──6、课程:PyTorch(下).2、动量化梯度下降的原理和实现.mp4 87.13M
- | | ├──6、课程:PyTorch(下).3、两个参数问题下的优化面临的问题.mp4 43.60M
- | | ├──6、课程:PyTorch(下).4、自适应的梯度下降及流平均改进法.mp4 100.93M
- | | ├──6、课程:PyTorch(下).5、Adam算法.mp4 53.07M
- | | ├──6、课程:PyTorch(下).6、PyTorch中的优化器选择.mp4 83.25M
- | | ├──6、课程:PyTorch(下).7、PyTorch里的图像预处理与可视化.mp4 82.65M
- | | ├──6、课程:PyTorch(下).8、CNN要调节的主要参数(一).mp4 31.75M
- | | ├──6、课程:PyTorch(下).9、CNN要调节的主要参数(二).mp4 39.78M
- | | ├──7、课程:CNN进化.1、AlexNet的技术细节.mp4 131.75M
- | | ├──7、课程:CNN进化.2、VGG19.mp4 61.46M
- | | ├──7、课程:CNN进化.3、深度网络中的梯度消失问题.mp4 104.79M
- | | ├──7、课程:CNN进化.4、残差网络的定义.mp4 82.81M
- | | ├──7、课程:CNN进化.5、残差网络的数学原理.mp4 92.41M
- | | ├──8、课程:BatchNormalization.1、批量正则化怎么做.mp4 40.93M
- | | ├──8、课程:BatchNormalization.2、为什么批量标准化比标准化好.mp4 52.12M
- | | ├──8、课程:BatchNormalization.3、阈值变换如何应对过拟合.mp4 49.84M
- | | ├──8、课程:BatchNormalization.4、批量标准化的操作是怎么进行的.mp4 55.15M
- | | ├──9、课程:Resnet残差网络.1、如何提取中间变量.mp4 109.12M
- | | ├──9、课程:Resnet残差网络.2、在pytorch中引入批量正则化.mp4 76.10M
- | | ├──9、课程:Resnet残差网络.3、批标准化的效果展示.mp4 91.37M
- | | ├──9、课程:Resnet残差网络.4、1-1卷积的含义和效果(一).mp4 60.69M
- | | ├──9、课程:Resnet残差网络.5、1-1卷积的含义和效果(二).mp4 113.30M
- | | ├──9、课程:Resnet残差网络.6、构建残差网络的每个子模块.mp4 104.05M
- | | ├──9、课程:Resnet残差网络.7、在网络中引入残差层.mp4 81.82M
- | | ├──9、课程:Resnet残差网络.8、残差网络的维度变换.mp4 83.40M
- | | ├──9、课程:Resnet残差网络.9、如何实例化深度残差网络.mp4 110.02M
- | | ├──CNN (1).pdf 10.99M
- | | ├──CNN网络高进.pdf 1.10M
- | | ├──CNN网络进化.pdf 3.75M
- | | ├──Neural Style Transfer.pdf 18.21M
- | | ├──PCA.pdf 1.63M
- | | ├──RNN.pdf 11.22M
- | | ├──SVM(新) 2.pdf 4.39M
- | | ├──代码.zip 44.47M
- | | ├──分类问题引入.pdf 9.54M
- | | ├──机器学习的数学理论2.pdf 7.17M
- | | ├──机器学习引入 – 线性回归.pdf 2.12M
- | | ├──集群模型2.pdf 3.50M
- | | ├──逻辑斯蒂回归.pdf 6.03M
- | | ├──神经网络(new).pdf 1.89M
- | | └──图像处理纵览.pdf 29.12M
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。