楼主: wxs-shuang
1895 2

常用的中文分词工具总结 [推广有奖]

  • 1关注
  • 0粉丝

初中生

57%

还不是VIP/贵宾

-

威望
0
论坛币
24 个
通用积分
9.1000
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
1690 点
帖子
3
精华
0
在线时间
27 小时
注册时间
2019-5-31
最后登录
2020-11-16

楼主
wxs-shuang 学生认证  发表于 2019-5-31 17:35:38 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
jieba[1]THULAC[2]SnowNLP[3]NLPIR[4]CoreNLP[5]、pkuseg[6]中科院分词工具pyn/pirpyLTP



[1]Sun, J. (2012). Jieba. <https://github.com/fxsjy/jieba>.


[2]Maosong Sun, Xinxiong Chen, Kaixu Zhang, Zhipeng Guo, and Zhiyuan Liu.2016b. Thulac: An efficient lexical analyzer for chinese. Technical Report


[3] Chang W , Xu Z , Zhou S, et al. Research on detection methods based on Doc2vec abnormal comments[J].Future Generation Computer Systems, 2018:S0167739X18303042.


[4]Lina Zhou and Dongsong Zhang. NLPIR: A Theoretical Framework for ApplyingNatural Language Processing to Information Retrieval[J]. Journal of the AmericanSociety for Information Science and Technology, 2003, 54(2): 115-123.


[5]Christopher D Manning, Mihai Surdeanu, John Bauer, Jenny Finkel, Steven JBethard, and David McClosky. 2014. The stanford corenlp natural languageprocessing toolkit. In Proceedings of 52nd Annual Meeting of theAssociation for Computational Linguistics: System Demonstrations, pages 55–60.

[6]https://github.com/lancopku/PKUSeg-python






二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝


沙发
hifinecon 发表于 2019-5-31 22:04:59 来自手机
wxs-shuang 发表于 2019-5-31 17:35
jieba[1]、THULAC[2]、SnowNLP[3]、NLPIR[4]、CoreNLP[5]、pkuseg[6]中科院分词工具pyn/pir和pyLTP等



藤椅
wangyong8935 在职认证  发表于 2019-10-23 08:01:12

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-5 16:06