楼主: snowave926
1860 0

KL divergence [推广有奖]

  • 0关注
  • 1粉丝

博士生

62%

还不是VIP/贵宾

-

威望
0
论坛币
3445 个
通用积分
6.3534
学术水平
0 点
热心指数
1 点
信用等级
0 点
经验
997 点
帖子
253
精华
0
在线时间
307 小时
注册时间
2010-1-9
最后登录
2024-2-29

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
想请教各位大侠 KL divergence的问题,wiki上说 KL measures the expected number of extra bits required to code samples from P when using a code based on Q, rather than using a code based on P. Typically P represents the "true" distribution of data, observations, or a precisely calculated theoretical distribution. The measure Q typically represents a theory, model, description, or approximation of P.

公式是

通常P是unknown的,Q是一个对P的approximation, 也就是说Q的概率是可求出来的,但是对于unknown的P,如何求出相对熵呢?也就是说这里p(x)是怎么得到的呢?

谢谢指导
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:DIVERGENCE div NCE Ver distribution represents precisely expected measures required

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注jltj
拉您入交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-27 03:21