楼主: 论文库
648 0

基于双向长短时记忆模型的中文分词方法 [推广有奖]

  • 0关注
  • 13粉丝

会员

学术权威

74%

还不是VIP/贵宾

-

威望
0
论坛币
5 个
通用积分
0.0336
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
38440 点
帖子
3839
精华
0
在线时间
836 小时
注册时间
2017-9-5
最后登录
2018-4-9

楼主
论文库 在职认证  发表于 2017-12-28 09:00:03 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
摘要:中文分词是中文自然语言处理中的关键基础技术之一.目前,传统分词算法依赖于特征工程,而验证特征的有效性需要大量的工作.基于神经网络的深度学习算法的兴起使得模型自动学习特征成为可能.文中基于深度学习中的双向长短时记忆(BLSTM)神经网络模型对中文分词进行了研究.首先从大规模语料中学习中文字的语义向量,再将字向量应用于BLSTM模型实现分词,并在简体中文数据集(PKU、MSRA、CTB)和繁体中文数据集(HKCity U)等数据集上进行了实验.实验表明,在不依赖特征工程的情况下,基于BLSTM的中文分词方法仍可取得很好的效果.

原文链接:http://www.cqvip.com//QK/94312X/201703/672352562.html

送人玫瑰,手留余香~如您已下载到该资源,可在回帖当中上传与大家共享,欢迎来CDA社区交流学习。(仅供学术交流用。)

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:中文分词 神经网络模型 cqvip 神经网络 深度学习 深度学习 神经网络 双向长短时记忆 中文分词

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-9 06:13