楼主: 释梦涯
2416 0

[实际应用] R 中文文本相似度分析求解答 [推广有奖]

  • 5关注
  • 1粉丝

硕士生

67%

还不是VIP/贵宾

-

威望
0
论坛币
234 个
通用积分
0.6000
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
485 点
帖子
28
精华
0
在线时间
351 小时
注册时间
2013-11-28
最后登录
2024-3-3

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
求教。
大神提出解决方案后小弟愿用100论坛币略表心意。 不发悬赏贴是因为上次的悬赏贴至今没有好的回答,但悬赏的论坛币不知道怎么拿回来。 顺便问下,这种情况如何拿回论坛币?

做文本相似度分析,相关的方法有simhash、余弦相似度等。现在初步想用余弦相似度的方法。
基本步骤是分词——向量化(我想采用TF-IDF方法)——求相似度。现在分词用的jiebaR,但是如何构建TermDocumentMatrix矩阵?

tm和text2vec都有构建TermDocumentMatrix的函数,但是这些函数都是用自带的引擎分词,对中文支持不好,且不方便导入自定义词典。

我想做的是:用jiebaR分词,再向量化(构建TermDocumentMatrix矩阵),再用TF-IDF赋权,最后计算余弦相似度

现在用jiebaR分词后,后面的不知道怎么做了。。。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:求解答 相似度 Document jiebaR DOCUME 中文 词典 如何

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-24 09:34