| 所在主题: | |
| 文件名: AI大模型自然语言处理(NLP).part37.rar | |
| 资料下载链接地址: https://bbs.pinggu.org/a-6782412.html | |
| 附件大小: | |
|
课时01 01 自然语言处理初期发展_ev.mp4 108.0 MB
课时02 02 序列数据研究_ev.mp4 129.0 MB 课时03 03 文本预处理_ev.mp4 116.0 MB 课时04 04 NLTK分词的使用_ev.mp4 113.0 MB 课时05 04 jieba分词的使用_ev.mp4 86.9 MB 课时06 06 语言模型之n元语法_ev.mp4 97.0 MB 课时07 07 序列数据采样方法_ev.mp4 126.0 MB 课时08 08 RNN理论讲解_ev.mp4 103.0 MB 课时09 09 从零实现RNN之读取数据和初始化模型参数_ev.mp4 95.0 MB 课时10 10 从零实现RNN之构建RNN模型_ev.mp4 54.6 MB 课时11 11 从零实现RNN之预测代码_ev.mp4 53.7 MB 课时12 12 从零实现RNN之训练_ev.mp4 175.0 MB 课时13 13 pytorch实现RNN_ev.mp4 123.0 MB 课时14 14 RNN反向传播数学细节_ev.mp4 107.0 MB 课时15 15 LSTM原理和代码实现_ev.mp4 220.0 MB 课时16 16 GRU原理和代码实现_ev.mp4 90.0 MB 课时17 17 深度循环神经网络_ev.mp4 53.0 MB 课时18 18 双向循环神经网络_ev.mp4 52.1 MB 课时19 19 机器翻译之数据处理_ev.mp4 157.0 MB 课时20 20 encoder和decoder架构_ev.mp4 201.0 MB 课时21 21 seq2seq之训练_ev.mp4 199.0 MB 课时22 22 seq2seq之预测和评估_ev.mp4 148.0 MB 课时23 23 注意力机制之Waston核回归_ev.mp4 276.0 MB 课时24 24 注意力评分函数_ev.mp4 231.0 MB 课时25 25 Bahdanau注意力_ev.mp4 212.0 MB 课时26 26 多头注意力_ev.mp4 191.0 MB 课时27 27 自注意力和位置编码_ev.mp4 153.0 MB 课时28 28 transformer结构_ev.mp4 35.8 MB 课时29 29 transformer模块之FFN_ev.mp4 52.9 MB 课时30 30 transformer模块之addnorm_ev.mp4 80.3 MB 课时31 31 transformer模块之encoderblock_ev.mp4 72.3 MB 课时33 33 BERT结构_ev.mp4 56.0 MB 课时35 35 BERT训练之数据预处理_ev.mp4 83.8 MB 课时36 36 BERT训练环节_ev.mp4 33.5 MB 课时37 37 BERT微调训练_ev.mp4 37.5 MB 课时38 38 神经网络语言模型_ev.mp4 70.0 MB 课时39 39 word2vec_ev.mp4 37.2 MB 课时40 40 word2vec推导_ev.mp4 55.3 MB 课时41 41 skip-gram的改进_ev.mp4 21.1 MB |
|
熟悉论坛请点击新手指南
|
|
| 下载说明 | |
|
1、论坛支持迅雷和网际快车等p2p多线程软件下载,请在上面选择下载通道单击右健下载即可。 2、论坛会定期自动批量更新下载地址,所以请不要浪费时间盗链论坛资源,盗链地址会很快失效。 3、本站为非盈利性质的学术交流网站,鼓励和保护原创作品,拒绝未经版权人许可的上传行为。本站如接到版权人发出的合格侵权通知,将积极的采取必要措施;同时,本站也将在技术手段和能力范围内,履行版权保护的注意义务。 (如有侵权,欢迎举报) |
|
京ICP备16021002号-2 京B2-20170662号
京公网安备 11010802022788号
论坛法律顾问:王进律师
知识产权保护声明
免责及隐私声明