楼主: peylinn8
581 3

[学习笔记] 【学习笔记】2020/01/24 《百面机器学习-算法工程师带你去面试》读书笔记 《N ... [推广有奖]

  • 0关注
  • 6粉丝

副教授

4%

还不是VIP/贵宾

-

威望
0
论坛币
3852 个
通用积分
378.7263
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
2958 点
帖子
532
精华
0
在线时间
3 小时
注册时间
2017-3-31
最后登录
2023-10-31

楼主
peylinn8 发表于 2020-1-24 14:40:12 来自手机 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
2020/01/24
《百面机器学习-算法工程师带你去面试》读书笔记
《No.23: p209~p219》第九章 前向神经网络

Q76 ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点为何?有何局限性及如何改进?

1        优点:
1.1        ReLU只要计算阀值;Sigmoid及Tanh要计算指数,比较复杂。
1.2        ReLU可解决梯度消失的问题。
1.3        ReLU的单侧抑制提供了网络的稀疏表达能力。
2        局限性
2.1        ReLU训练过程中会导致神经元死亡的问题。若学习率设治过大,会导致一定比率的神经元死亡。造成梯度无法更新,而导致训练过程失败。
2.2        变种ReLU,Leaky ReLU可解决神经元死亡的问题。


Q77 写出多层感知机的平方误差和交叉熵损失函数。

1.        代价函数: 包含二项,第一项为评分误差项,第二项为L2正则化项(可称为权重衰减项,可减小权重的幅度,防止过拟合)
2.        书中,以二酚类场景写出交叉熵损失函数。

Q78 根据上提所定义的损失函数,推导个层参数的梯度计算公式。



Q79 平方误差损失函数和交叉熵损失函数分别适合什么场景?

1.        平方损失函数适合输出为连续,且最后一层不含Sigmoid或Softmax激活函数的神经网络。
2.        交叉熵损失函数: 适合二分类或多分类的场景。

Q80 神经网络训练时是否可以将全数参数初始化为0?

Ans
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:机器学习 学习笔记 读书笔记 习笔记 工程师

沙发
李沐寒521521 在职认证  发表于 2020-1-24 21:49:08 来自手机
赞赞的——

藤椅
jessie68us 发表于 2020-1-25 06:53:59 来自手机

板凳
512661101 发表于 2020-1-25 18:14:06 来自手机

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-1-17 12:07