楼主: Nicolle
213 36

【独家发布】深度学习面试100题 [推广有奖]

版主

巨擘

0%

还不是VIP/贵宾

-

TA的文库  其他...

Python Programming

SAS Programming

Must-Read Books

威望
16
论坛币
12382159 个
学术水平
2908 点
热心指数
2917 点
信用等级
2723 点
经验
443060 点
帖子
19601
精华
88
在线时间
7550 小时
注册时间
2005-4-23
最后登录
2019-3-21

Nicolle 学生认证  发表于 2019-3-11 09:02:57 |显示全部楼层
  1. 1. 梯度下降算法的正确步骤是什么
  2. a. 用随机值初始化权重和偏差
  3. b. 把输入传入网络,得到输出值
  4. c. 计算预测值和真实值之间的误差
  5. d. 对每一个产生误差的神经元,调整相应的权重值以减少误差
  6. e. 重复迭代,直至得到网络权重的最佳值
复制代码



本帖被以下文库推荐

stata SPSS
Nicolle 学生认证  发表于 2019-3-11 09:03:47 |显示全部楼层
  1. 已知:

  2. 大脑是有很多个叫做神经元的东西构成,神经网络是对大脑的简单的数学表达。
  3. 每一个神经元都有输入、处理函数和输出。
  4. 神经元组合起来形成了网络,可以拟合任何函数。
  5. 为了得到最佳的神经网络,我们用梯度下降方法不断更新模型
  6. 给定上述关于神经网络的描述,什么情况下神经网络模型被称为深度学习模型?

  7. A. 加入更多层,使神经网络的深度增加

  8. B. 有维度更高的数据

  9. C. 当这是一个图形识别的问题时

  10. D. 以上都不正确

  11. 解析:正确答案A,更多层意味着网络更深。没有严格的定义多少层的模型才叫深度模型,目前如果有超过2层的隐层,那么也可以及叫做深度模型。
复制代码
回复

使用道具 举报

Nicolle 学生认证  发表于 2019-3-11 09:04:46 |显示全部楼层
  1. 3. 训练CNN时,可以对输入进行旋转、平移、缩放等预处理提高模型泛化能力。这么说是对,还是不对?

  2. A.对 B.不对

  3. 解析:对。训练CNN时,可以进行这些操作。当然也不一定是必须的,只是data augmentation扩充数据后,模型有更多数据训练,泛化能力可能会变强。
复制代码
回复

使用道具 举报

Nicolle 学生认证  发表于 2019-3-11 09:05:47 |显示全部楼层
  1. 4. 下面哪项操作能实现跟神经网络中Dropout的类似效果?

  2. A.Boosting B.Bagging C.Stacking D.Mapping

  3. 解析:正确答案B。Dropout可以认为是一种极端的Bagging,每一个模型都在单独的数据上训练,同时,通过和其他模型对应参数的共享,从而实现模型参数的高度正则化
复制代码
回复

使用道具 举报

Nicolle 学生认证  发表于 2019-3-11 09:06:39 |显示全部楼层
  1. 5. 下列哪一项在神经网络中引入了非线性?

  2. A.随机梯度下降

  3. [b]B.修正线性单元(ReLU)[/b]

  4. C.卷积函数

  5. D.以上都不正确
复制代码
回复

使用道具 举报

Nicolle 学生认证  发表于 2019-3-11 09:07:53 |显示全部楼层
  1. 6. CNN的卷积核是单层的还是多层的?

  2. 一般而言,深度卷积网络是一层又一层的。层的本质是特征图, 存贮输入数据或其中间表示值。一组卷积核则是联系前后两层的网络参数表达体, 训练的目标就是每个卷积核的权重参数组。
  3. 描述网络模型中某层的厚度,通常用名词通道channel数或者特征图feature map数。不过人们更习惯把作为数据输入的前层的厚度称之为通道数(比如RGB三色图层称为输入通道数为3),把作为卷积输出的后层的厚度称之为特征图数。
  4. 卷积核(filter)一般是3D多层的,除了面积参数, 比如3x3之外, 还有厚度参数H(2D的视为厚度1). 还有一个属性是卷积核的个数N。
  5. 卷积核的厚度H, 一般等于前层厚度M(输入通道数或feature map数). 特殊情况M > H。
  6. 卷积核的个数N, 一般等于后层厚度(后层feature maps数,因为相等所以也用N表示)。
  7. 卷积核通常从属于后层,为后层提供了各种查看前层特征的视角,这个视角是自动形成的。
  8. 卷积核厚度等于1时为2D卷积,对应平面点相乘然后把结果加起来,相当于点积运算;
  9. 卷积核厚度大于1时为3D卷积,每片分别平面点求卷积,然后把每片结果加起来,作为3D卷积结果;1x1卷积属于3D卷积的一个特例,有厚度无面积, 直接把每片单个点乘以权重再相加。
  10. 归纳之,卷积的意思就是把一个区域,不管是一维线段,二维方阵,还是三维长方块,全部按照卷积核的维度形状,对应逐点相乘再求和,浓缩成一个标量值也就是降到零维度,作为下一层的一个feature map的一个点的值!


  11. 可以比喻一群渔夫坐一个渔船撒网打鱼,鱼塘是多层水域,每层鱼儿不同。
  12. 船每次移位一个stride到一个地方,每个渔夫撒一网,得到收获,然后换一个距离stride再撒,如此重复直到遍历鱼塘。
  13. A渔夫盯着鱼的品种,遍历鱼塘后该渔夫描绘了鱼塘的鱼品种分布;
  14. B渔夫盯着鱼的重量,遍历鱼塘后该渔夫描绘了鱼塘的鱼重量分布;
  15. 还有N-2个渔夫,各自兴趣各干各的;
  16. 最后得到N个特征图,描述了鱼塘的一切!

  17. 2D卷积表示渔夫的网就是带一圈浮标的渔网,只打上面一层水体的鱼;
  18. 3D卷积表示渔夫的网是多层嵌套的渔网,上中下层水体的鱼儿都跑不掉;
  19. 1x1卷积可以视为每次移位stride,甩钩钓鱼代替了撒网;

  20. 实际上,除了输入数据的通道数比较少之外,中间层的feature map数很多,这样中间层算卷积会累死计算机(鱼塘太深,每层鱼都打,需要的鱼网太重了)。所以很多深度
复制代码
回复

使用道具 举报

Nicolle 学生认证  发表于 2019-3-11 09:11:02 |显示全部楼层

什么是卷积?

对图像(不同的数据窗口数据)和滤波矩阵(一组固定的权重:因为每个神经元的多个权重固定,所以又可以看做一个恒定的滤波器filter)做内积(逐个元素相乘再求和)的操作就是所谓的『卷积』操作,也是卷积神经网络的名字来源。非严格意义上来讲,下图中红框框起来的部分便可以理解为一个滤波器,即带着一组固定权重的神经元。多个滤波器叠加便成了卷积层。

OK,举个具体的例子。比如下图中,图中左边部分是原始输入数据,图中中间部分是滤波器filter,图中右边是输出的新的二维数据。

分解下上图

中间滤波


回复

使用道具 举报

Nicolle 学生认证  发表于 2019-3-11 09:20:28 |显示全部楼层
本帖最后由 Nicolle 于 2019-3-11 09:46 编辑

8. 什么是CNN的池化pool层?

池化,简言之,即取区域平均或最大.上图所展示的是取区域最大,即上图左边部分中左上角2x2的矩阵中6最大,右上角2x2的矩阵中8最大,左下角2x2的矩阵中3最大,右下角2x2的矩阵中4最大,所以得到上图右边部分的结果:6,8,3,4
回复

使用道具 举报

Nicolle 学生认证  发表于 2019-3-11 09:26:32 |显示全部楼层
  1. 介绍LSTM和GRU的动机,原理和方法

  2. 答: 两者都是为了解决 RNN 中梯度消失严重,不能捕捉长程依赖的问题。注意讲清楚LSTM和GRU是为什么可以解决梯度消失的
复制代码
回复

使用道具 举报

Nicolle 学生认证  发表于 2019-3-11 09:27:00 |显示全部楼层
  1. Batch Norm是什么?为什么需要它?以及Batch Norm是如何实现的?

  2. 答: 解决深度网络中Internal Covariate Shift,数据分布的变化,有利于加快网络收敛。实现方式:基于batch的统计采样,两个变量:average_mean, average std
复制代码
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 我要注册

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2019-3-22 19:44