搜索
人大经济论坛 标签 Former 相关帖子

tag 标签: Former经管大学堂:名校名师名课

相关帖子

版块 作者 回复/查看 最后发表
深度学习与图神经网络学习分享:Transformer 整体结构 人工智能论文版 张杰2026 2022-9-22 3 1320 chmlx 2025-6-20 09:10:32
深度学习|transformers的近期工作成果综述 人工智能论文版 张杰2026 2022-10-19 5 1317 512661101 2025-6-9 16:27:53
关于迁移学习核心技术开发与应用的进修计划书 深度学习 人工智能君 2022-8-5 2 1928 三重虫 2023-2-20 14:42:45
趋势|我在非洲开工厂,快乐得不想回来了(上) 组织管理与领导力 saplow 2022-11-22 10 1373 512661101 2023-1-4 09:03:36
机器学习之“深度学习” attach_img 量化投资 非凸科技 2022-9-29 3 838 eeabcde 2022-10-7 16:02:43
了解自我监督学习 数据分析与数据挖掘 时光永痕 2022-4-29 0 2416 时光永痕 2022-4-29 14:24:05
基于 Transformer 的预训练语言模型 (TPTLM) 的分类 数据分析与数据挖掘 时光永痕 2022-3-29 0 3586 时光永痕 2022-3-29 15:57:55
深度学习实战系列学习资料 attachment 经管文库(原现金交易版) 哈哈切 2021-10-13 0 436 哈哈切 2021-10-13 09:31:15
英语日历 | 那些年,变形金刚教会我们的道理 外语学习 杨明凡 2021-9-16 0 498 杨明凡 2021-9-16 03:40:07
深度学习-Transformer实战系列(2021最新) 深度学习 小强很强大的呀 2021-7-16 1 1828 lonestone 2021-7-26 06:20:49
深度学习-Transformer实战系列 自然语言处理 又菜又要学习 2021-7-17 0 1131 又菜又要学习 2021-7-17 15:47:28
英语日历 | 世界上有些事难免令人消沉,但应带着喜悦的心看待世界 外语学习 杨明凡 2021-6-1 0 1709 杨明凡 2021-6-1 21:09:43
悬赏 求书:Great at Work: How Top Performers Work Less and Achieve More - [!reward_solved!] attachment 求助成功区 bobsheng401 2019-11-23 2 614 bicuifeng 2021-5-19 12:04:13
神经风格转移的介绍与实现-深度学习 数据分析与数据挖掘 时光永痕 2020-12-18 0 826 时光永痕 2020-12-18 20:17:21
【学习笔记】谷歌大脑提出“洗发水”二阶优化算法,Transformer训练时间减少4 ... 学道会 ccwwccww 2020-3-27 1 969 512661101 2020-3-27 21:50:12
悬赏 Party affiliation rather than former occupation: the background of central bank - [悬赏 1 个论坛币] 文献求助专区 qupipizyp 2019-11-12 2 473 三重虫 2019-11-12 10:52:09
GMT+8, 2025-12-9 17:41