楼主: yusb
443 0

[经管数据集] Python用BERT进行中文情感分类记录了详细操作及完整程序源代码+说明+数据 [推广有奖]

已卖:21145份资源
好评率:99%
商家信誉:一般

巨擘

0%

还不是VIP/贵宾

-

威望
1
论坛币
40750 个
通用积分
2588.9996
学术水平
20 点
热心指数
31 点
信用等级
7 点
经验
6592 点
帖子
20306
精华
0
在线时间
11803 小时
注册时间
2020-12-8
最后登录
2026-1-22

楼主
yusb 在职认证  发表于 2023-12-2 15:40:28 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
Python用BERT进行中文情感分类记录了详细操作及完整程序源代码+说明+数据

Python用BERT进行中文情感分类记录了详细操作及完整程序源代码+说明+数据.zip (2.26 MB, 需要: RMB 19 元)


5b2e2e388a4061c229122c034d1ee04.png



BERT的代码同论文里描述的一致,主要分为两个部分。一个是**训练语言模型(language model)的预训练(pretrain)部分**。另一个是**训练具体任务(task)的fine-tune部分**。

在开源的代码中,预训练的入口是在run_pretraining.py而fine-tune的入口针对不同的任务分别在run_classifier.py和run_squad.py。

其中run_classifier.py适用的任务为分类任务。如CoLA、MRPC、MultiNLI这些数据集。而run_squad.py适用的是阅读理解(MRC)任务,如squad2.0和squad1.1。

因此如果要在自己的数据集上fine-tune跑代码,需要编写类似run_classifier.py的具体任务文件。

本实验,是用BERT进行中文情感分类,以下介绍具体操作步骤。

对于中文而言,google公布了一个参数较小的BERT预训练模型。具体参数数值




二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:python 源代码 Ber ert classifier

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-1-28 16:29