课时02 02 序列数据研究_ev.mp4 129.0 MB
课时03 03 文本预处理_ev.mp4 116.0 MB
课时04 04 NLTK分词的使用_ev.mp4 113.0 MB
课时05 04 jieba分词的使用_ev.mp4 86.9 MB
课时06 06 语言模型之n元语法_ev.mp4 97.0 MB
课时07 07 序列数据采样方法_ev.mp4 126.0 MB
课时08 08 RNN理论讲解_ev.mp4 103.0 MB
课时09 09 从零实现RNN之读取数据和初始化模型参数_ev.mp4 95.0 MB
课时10 10 从零实现RNN之构建RNN模型_ev.mp4 54.6 MB
课时11 11 从零实现RNN之预测代码_ev.mp4 53.7 MB
课时12 12 从零实现RNN之训练_ev.mp4 175.0 MB
课时13 13 pytorch实现RNN_ev.mp4 123.0 MB
课时14 14 RNN反向传播数学细节_ev.mp4 107.0 MB
课时15 15 LSTM原理和代码实现_ev.mp4 220.0 MB
课时16 16 GRU原理和代码实现_ev.mp4 90.0 MB
课时17 17 深度循环神经网络_ev.mp4 53.0 MB
课时18 18 双向循环神经网络_ev.mp4 52.1 MB
课时19 19 机器翻译之数据处理_ev.mp4 157.0 MB
课时20 20 encoder和decoder架构_ev.mp4 201.0 MB
课时21 21 seq2seq之训练_ev.mp4 199.0 MB
课时22 22 seq2seq之预测和评估_ev.mp4 148.0 MB
课时23 23 注意力机制之Waston核回归_ev.mp4 276.0 MB
课时24 24 注意力评分函数_ev.mp4 231.0 MB
课时25 25 Bahdanau注意力_ev.mp4 212.0 MB
课时26 26 多头注意力_ev.mp4 191.0 MB
课时27 27 自注意力和位置编码_ev.mp4 153.0 MB
课时28 28 transformer结构_ev.mp4 35.8 MB
课时29 29 transformer模块之FFN_ev.mp4 52.9 MB
课时30 30 transformer模块之addnorm_ev.mp4 80.3 MB
课时31 31 transformer模块之encoderblock_ev.mp4 72.3 MB
课时33 33 BERT结构_ev.mp4 56.0 MB
课时35 35 BERT训练之数据预处理_ev.mp4 83.8 MB
课时36 36 BERT训练环节_ev.mp4 33.5 MB
课时37 37 BERT微调训练_ev.mp4 37.5 MB
课时38 38 神经网络语言模型_ev.mp4 70.0 MB
课时39 39 word2vec_ev.mp4 37.2 MB
课时40 40 word2vec推导_ev.mp4 55.3 MB
课时41 41 skip-gram的改进_ev.mp4 21.1 MB
AI大模型自然语言处理(NLP).part01.rar
(100 MB, 需要: RMB 29 元)
AI大模型自然语言处理(NLP).part02.rar
(100 MB)
AI大模型自然语言处理(NLP).part03.rar
(100 MB)
AI大模型自然语言处理(NLP).part04.rar
(100 MB)
AI大模型自然语言处理(NLP).part05.rar
(100 MB)
AI大模型自然语言处理(NLP).part06.rar
(100 MB)
AI大模型自然语言处理(NLP).part07.rar
(100 MB)
AI大模型自然语言处理(NLP).part08.rar
(100 MB)
AI大模型自然语言处理(NLP).part09.rar
(100 MB)
AI大模型自然语言处理(NLP).part10.rar
(100 MB, 需要: RMB 10 元)
AI大模型自然语言处理(NLP).part11.rar
(100 MB)
AI大模型自然语言处理(NLP).part12.rar
(100 MB)
AI大模型自然语言处理(NLP).part13.rar
(100 MB)
AI大模型自然语言处理(NLP).part14.rar
(100 MB)
AI大模型自然语言处理(NLP).part15.rar
(100 MB)


雷达卡





京公网安备 11010802022788号







