楼主: albertwishedu
1071 8

[学习笔记] 学习笔记【机器学习导论 2ndEd】2019-04-03 [推广有奖]

已卖:251份资源

大师

55%

还不是VIP/贵宾

-

威望
1
论坛币
71385 个
通用积分
13994.2103
学术水平
749 点
热心指数
907 点
信用等级
676 点
经验
365028 点
帖子
22410
精华
0
在线时间
2564 小时
注册时间
2014-7-8
最后登录
2025-12-13

楼主
albertwishedu 发表于 2019-4-3 09:16:00 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

我们的目标是使用模型g(x t | θ)来构建一个r t的好的、有用的近似。为了达到预期目标,必须做出三个决定:
1)学习所使用的模型(model),记作    g( x | θ)
g( • )是模型,x是输入, θ是参数。 g( • )定义假设类,而θ得特殊值示例了假设类中的一个假设。
2)损失函数(loss function)。逼近误差或损失是各单个实例之上的损失和。
3)最优化过程(optimization procedure)求解最小化近似误差的θ *
为了做好上述工作,必须满足一下条件:首先,假设类应当足够大(有足够的容量,以便包含在含噪声情况下产生r t表示的数据的未知函数)。其次,必须有足够的训练数据,使得我们从假设类中识别正确或足够好的假设。第三,给定训练数据,我们应当有好的优化方法,以便找出正确的假设。

不同的机器学习方法之间的区别或者在于它们假设的模型不同(假设类/归纳偏倚);或者在于它们所使用的损失度量不同;或者在于它们所使用的最优化过程不同。

2.9 注释
Mitchell提出了解空间和候选排除算法,使得当样本实例依次给出时,可以增量地构建S和G。
最早的机器学习研究工作之一是Winston(1975)提出的“几乎错过”(near miss)思想。
与此相关的思想是主动学习(active learning),其中学习算法能够自己生成实例,并要求被标记,而不像在其他学习算法中那样被动地被给定(Angluin 1988)
VC维在20世纪70年代初由Vapnik和Chervonenkis提出,新近的相关资源是Vapnik 1995
PAC模型由Valiant(1984)提出,对于学习矩形的PAC分析来自Blumer等(1989)
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:机器学习方法 最优化过程 机器学习 学习算法 优化过程

回帖推荐

苏亮480 发表于9楼  查看完整内容

谢谢分享, Mitchell提出了解空间和候选排除算法,使得当样本实例依次给出时,可以增量地构建S和G。 最早的机器学习研究工作之一是Winston(1975)提出的“几乎错过”(near miss)思想。 与此相关的思想是主动学习(active learning),其中学习算法能够自己生成实例,并要求被标记,而不像在其他学习算法中那样被动地被给定(Angluin 1988) VC维在20世纪70年代初由Vapnik和Chervonenkis提出,新近的相关资源是Vapnik 1995 P ...

sulight 发表于8楼  查看完整内容

谢谢分享, 我们的目标是使用模型g(x t | θ)来构建一个r t的好的、有用的近似。为了达到预期目标,必须做出三个决定: 1)学习所使用的模型(model),记作 g( x | θ) g( • )是模型,x是输入, θ是参数。 g( • )定义假设类,而θ得特殊值示例了假设类中的一个假设。 2)损失函数(loss function)。逼近误差或损失是各单个实例之上的损失和。 3)最优化过程(optimization procedure)求解最小化近似 ...

珍惜点滴 发表于7楼  查看完整内容

向您学习,赞

充实每一天 发表于5楼  查看完整内容

点赞

hifinecon 发表于3楼  查看完整内容

经管之家编辑部 发表于4楼  查看完整内容

为您点赞!

HappyAndy_Lo 发表于2楼  查看完整内容

咱这小白跟着兄台学AI
已有 1 人评分论坛币 学术水平 热心指数 信用等级 收起 理由
经管之家编辑部 + 100 + 3 + 3 + 3 精彩帖子

总评分: 论坛币 + 100  学术水平 + 3  热心指数 + 3  信用等级 + 3   查看全部评分

本帖被以下文库推荐

沙发
HappyAndy_Lo 发表于 2019-4-3 09:17:26


咱这小白跟着兄台学AI

藤椅
hifinecon 发表于 2019-4-3 09:33:21

板凳
经管之家编辑部 在职认证  发表于 2019-4-3 10:12:03
为您点赞!

报纸
充实每一天 发表于 2019-4-3 10:47:38 来自手机
点赞

地板
从1万到一亿 在职认证  发表于 2019-4-3 13:32:13

7
珍惜点滴 学生认证  发表于 2019-4-3 16:15:21
向您学习,赞

8
sulight 学生认证  发表于 2019-4-3 19:59:13
谢谢分享,


我们的目标是使用模型g(x t | θ)来构建一个r t的好的、有用的近似。为了达到预期目标,必须做出三个决定:
1)学习所使用的模型(model),记作    g( x | θ)
g( • )是模型,x是输入, θ是参数。 g( • )定义假设类,而θ得特殊值示例了假设类中的一个假设。
2)损失函数(loss function)。逼近误差或损失是各单个实例之上的损失和。
3)最优化过程(optimization procedure)求解最小化近似误差的θ *
为了做好上述工作,必须满足一下条件:首先,假设类应当足够大(有足够的容量,以便包含在含噪声情况下产生r t表示的数据的未知函数)。其次,必须有足够的训练数据,使得我们从假设类中识别正确或足够好的假设。第三,给定训练数据,我们应当有好的优化方法,以便找出正确的假设。

9
苏亮480 发表于 2019-4-4 11:28:03
谢谢分享,
Mitchell提出了解空间和候选排除算法,使得当样本实例依次给出时,可以增量地构建S和G。
最早的机器学习研究工作之一是Winston(1975)提出的“几乎错过”(near miss)思想。
与此相关的思想是主动学习(active learning),其中学习算法能够自己生成实例,并要求被标记,而不像在其他学习算法中那样被动地被给定(Angluin 1988)
VC维在20世纪70年代初由Vapnik和Chervonenkis提出,新近的相关资源是Vapnik 1995
PAC模型由Valiant(1984)提出,对于学习矩形的PAC分析来自Blumer等(1989)

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-21 17:32