0%

本周课程主要讲解了神经网络的一些优化算法,要点: - 随机梯度下降 - Momentum(动量)优化算法 - RMSProp优化算法 - Adam优化算法

学习目标 - Remember different optimization methods such as (Stochastic) Gradient Descent, Momentum, RMSProp and Adam - Use random minibatches to accelerate the convergence and improve the optimization - Know the benefits of learning rate decay and apply it to your optimization

阅读全文 »

本周课程主要讲解了神经网络中的优化的一些方法,要点: - Train/Dev/Test(训练/开发/测试数据集) - 偏差和方差 - 欠拟合和过拟合 - Regularization正则化 - Dropout随机失活 - Normalizing归一化 - 梯度消失和梯度爆炸 - 梯度检查

本周课程将从实际应用的角度介绍深度学习,上周课程已经学会了如何实现一个神经网络,本周将学习,实际应用中如何使神经网络高效工作。本周将学习在实际应用中如何使神经网络高效工作。这些方法包括超参数调整,数据准备,再到如何确保优化算法运行得足够快,以使得学习算法能在合理的时间内完成学习任务。

阅读全文 »

本周课程要点: - 含有单独隐藏层的神经网络 - 参数初始化 - 使用前向传播进行预测 - 以及在梯度下降时使用反向传播中 - 涉及的导数计算

课程笔记

阅读全文 »

经过两个月的学习,终于把吴恩达老师的机器学习课程看完了,讲到了很多知识点,大部分东西看的时候都能理解,当然也有无法理解的,很快就遗忘了,所以要做好总结,把理解的记录下来,不理解的花点时间查阅资料在学习一下。我觉得这个课程很不错,深入浅出,吴恩达老师事无巨细的从细节入手,把每个概念都讲的很清晰,尤其是课后的练习题,更能深入理解所学的内容。


阅读全文 »

将如下内容复制到C:\Windows\System32\drivers\etc\hosts文件末尾

1
2
3
4
5
6
7
8
9
52.84.246.90    d3c33hcgiwev3.cloudfront.net
52.84.246.252 d3c33hcgiwev3.cloudfront.net
52.84.246.144 d3c33hcgiwev3.cloudfront.net
52.84.246.72 d3c33hcgiwev3.cloudfront.net
52.84.246.106 d3c33hcgiwev3.cloudfront.net
52.84.246.135 d3c33hcgiwev3.cloudfront.net
52.84.246.114 d3c33hcgiwev3.cloudfront.net
52.84.246.90 d3c33hcgiwev3.cloudfront.net
52.84.246.227 d3c33hcgiwev3.cloudfront.net
阅读全文 »