楼主: snowave926
1905 0

[问答] KL divergence [推广有奖]

  • 0关注
  • 1粉丝

已卖:477份资源

博士生

63%

还不是VIP/贵宾

-

威望
0
论坛币
3427 个
通用积分
5.9334
学术水平
0 点
热心指数
1 点
信用等级
0 点
经验
6000 点
帖子
254
精华
0
在线时间
309 小时
注册时间
2010-1-9
最后登录
2025-12-27

楼主
snowave926 发表于 2011-12-14 22:21:31 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
想请教各位大侠 KL divergence的问题,wiki上说 KL measures the expected number of extra bits required to code samples from P when using a code based on Q, rather than using a code based on P. Typically P represents the "true" distribution of data, observations, or a precisely calculated theoretical distribution. The measure Q typically represents a theory, model, description, or approximation of P.

公式是

通常P是unknown的,Q是一个对P的approximation, 也就是说Q的概率是可求出来的,但是对于unknown的P,如何求出相对熵呢?也就是说这里p(x)是怎么得到的呢?


谢谢指导

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:DIVERGENCE div NCE Ver distribution represents precisely expected measures required

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2025-12-30 11:34