楼主: 释梦涯
2793 0

[实际应用] R 中文文本相似度分析求解答 [推广有奖]

  • 5关注
  • 1粉丝

硕士生

68%

还不是VIP/贵宾

-

威望
0
论坛币
186 个
通用积分
0.0000
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
485 点
帖子
28
精华
0
在线时间
356 小时
注册时间
2013-11-28
最后登录
2025-6-14

楼主
释梦涯 发表于 2017-6-23 18:41:26 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
求教。
大神提出解决方案后小弟愿用100论坛币略表心意。 不发悬赏贴是因为上次的悬赏贴至今没有好的回答,但悬赏的论坛币不知道怎么拿回来。 顺便问下,这种情况如何拿回论坛币?

做文本相似度分析,相关的方法有simhash、余弦相似度等。现在初步想用余弦相似度的方法。
基本步骤是分词——向量化(我想采用TF-IDF方法)——求相似度。现在分词用的jiebaR,但是如何构建TermDocumentMatrix矩阵?

tm和text2vec都有构建TermDocumentMatrix的函数,但是这些函数都是用自带的引擎分词,对中文支持不好,且不方便导入自定义词典。

我想做的是:用jiebaR分词,再向量化(构建TermDocumentMatrix矩阵),再用TF-IDF赋权,最后计算余弦相似度

现在用jiebaR分词后,后面的不知道怎么做了。。。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:求解答 相似度 Document jiebaR DOCUME 中文 词典 如何

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2026-2-5 04:59