楼主: kantdisciple
1882 0

关于autoencoder的激活函数 [推广有奖]

  • 0关注
  • 5粉丝

学科带头人

54%

还不是VIP/贵宾

-

威望
0
论坛币
20321 个
通用积分
429.2635
学术水平
42 点
热心指数
43 点
信用等级
34 点
经验
14882 点
帖子
1512
精华
0
在线时间
1133 小时
注册时间
2008-4-18
最后登录
2020-7-28

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
一般的神经网络大多用ReLu作为激活函数减少梯度消失或爆炸问题。但是很多文献中都说对于autoencoder,最好还是用tanh而不要用ReLu。这是为什么呢?
请大牛不吝赐教。谢谢
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:encode 激活函数 code Auto NCO

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-24 04:12