楼主: peylinn8
352 1

[学习笔记] 【学习笔记】2020/01/07 《百面机器学习-算法工程师带你去面试》读书笔记 《N ... [推广有奖]

  • 0关注
  • 6粉丝

副教授

4%

还不是VIP/贵宾

-

威望
0
论坛币
3852 个
通用积分
378.7263
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
2958 点
帖子
532
精华
0
在线时间
3 小时
注册时间
2017-3-31
最后登录
2023-10-31

楼主
peylinn8 发表于 2020-1-7 23:17:53 来自手机 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
2020/01/07
《百面机器学习-算法工程师带你去面试》读书笔记
《No.7: p48~p60》第三章 经典算法

Q25 空间上线性可分的两个点,分别向SVM分类的超平面上做投影,这些点在超平面上的投影仍然是线性可分的吗?

从SVM直观推导和凸优化理论两个角度可推导,在超平面上的投影是线性不可分的。

Q26 是否存在一组参数使SVM训练误差为0?

可透过证明得到存在一组参数可使SVM训练误差为0

Q27 训练误差为0的SVM’’分类器一定存在吗?

经过证明训练误差为0的SVM分类器存在

Q28 加入松弛变量的SVM的训练误差可以为0吗?

使用SMO算法(Sequential minimal optimization)训练的线性分类器并不能一定得到训练误差为0的模型,因为优化目标改变了,并不再是使训练误差最小。

Q29 逻辑回归与线性回归有何异同?

1        相异点:
1.1        逻辑回归处理”分类问题”、”因变量是离算的”、”广义线性模型下,因变量y服从二元分布”
1.2        ;线性回归处理”回归问题”、”因变量是连续的”、”因变量y服从正态分布”。
2        相同点
2.1        都使用极大似然估计法建模。
2.2        两者求解超参数的过程中,都可以使用梯度下降的方法。

Q30 逻辑回归处理多标签的分类问题时,有哪些做法,分别用在哪些场景,它们之间有何关系?

1.        若一个样本只对应一个标签,则可假设每个样本属于不同标签的概率服从几何分布,使用多项逻辑回归(Softmax Regression)来进行分类。
2.        当样本可能属于多个标签时,可训练k个二分类的逻辑回归分类器。这样可解决每个样本可能拥有多个标签的情况。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝


沙发
jessie68us 发表于 2020-1-12 05:14:12 来自手机

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-3-12 10:46