Jeff Dean再执笔:一文看尽2019谷歌AI重大突破一一7
推进更广泛的开发者和研究者社区
开源不仅仅与代码相关,也与贡献者社区相关。今年是开源社区激动人心的一年,我们发布了 TensorFlow 2.0,迄今为止最大的 TensorFlow 版本,这使得构建 ML 系统和应用程序比以往任何时候都要容易。我们在 TensorFlow Lite 中增加了对快速移动 GPU 推理的支持。我们还推出了 Teachable Machine 2.0,这是一个快速、简单的基于网络的工具,只需点击一个按钮就可以训练一个机器学习模型,不需要编码。我们发布了 MLIR,这是一种开源的机器学习编译器基础结构,可解决不断增长的软件和硬件碎片的复杂性,并使构建 AI 应用程序更加容易。
我们见证了 JAX 的第一年,这是一个用于高性能机器学习研究的新系统。在 NeurIPS 2019 上,谷歌和更多开源社区展示了 JAX 涉及了哪些工作,从神经切线内核到贝叶斯推理到分子动力学都有 JAX 的参与,我们在云 TPUs 上发布了 JAX 的预览。
我们开源了 MediaPipe 和 XNNPACK,MediaPipe 是用于构建感知和多模式应用 ML 管道的框架,一个有效的浮点神经网络推理运算符库。截至 2019 年底,我们已使全球 1500 多名研究人员能够通过 TensorFlow Research Cloud 免费访问 Cloud TPU。我们在 Coursera 的 TensorFlow 简介吸引了 10 万名学生。我们与成千上万的用户互动,同时将 TensorFlow 带到 11 个不同的国家和地区,并举办了我们的第一个 TensorFlow World 等。
在 TensorFlow 的帮助下,一名大学生发现了两个新行星,并建立了一种帮助其他人发现更多行星的方法。最初来自尼日利亚的一位数据科学家训练了 GAN 来生成让人联想起非洲面具的图像。乌干达的一位开发者利用 TensorFlow 开发了一款名为“农民伙伴”的应用程序,当地农民可以用它来对付破坏农作物的毛虫。在多雪的爱荷华州,研究人员和州政府官员使用 TensorFlow 根据交通行为、图像和其他数据来确定安全的道路状况。在阳光明媚的加利福尼亚,大学生们用 TensorFlow 软件来识别洛杉矶的坑坑洼洼和危险的道路裂缝。在法国,一位程序员使用 TensorFlow 建立了一个简单的算法,学习如何为黑白照片添加颜色。
开放数据集
带着明确、可评估目标去开放数据集可有效地推进机器学习的发展。为了帮助研究社区发现有趣的数据集,我们继续使用 Google 数据集搜索来索引来自不同组织的各种开放数据集。我们认为创建新的数据集对社区探索和开发新技术十分重要,我们也有责任共享开放数据集。今年,我们还发布了多个不同领域的开放数据集:
Open Images V5:它是 Open Images 数据集的更新,其中包括 350 个分类中的 280 万个目标的分割蒙版(因此,它现在具有约 900 万个带有图像级标签,目标边界框,目标分割蒙版和视觉关系的图像 )。
自然问题:第一个使用自然查询并通过阅读整页信息而不是从段落中提取答案来回答问题的数据集。
Deepfake 检测数据集:我们为 FaceForensics benchmark(如上所述)贡献了一个大型的可视化 Deepfake 数据集。
Google Research Football:一个新颖的强化学习环境,代理旨在掌握足球这一世界上最受欢迎的运动。对于强化学习代理来说,拥有 GOOOAAALLLSS 很重要。
Google-Landmarks-v2:超过 200 万个不同地标的 500 万张图像(是第一版的 2 倍)。
YouTube-8M Segments:大规模分类和时间本地化数据集,其中包括经过人工验证的 YouTube-8M 视频的 5 秒细分级别的标签。
原子视觉动作(AVA)口语活动:一种多模态的视听视频数据集,用于感知对话。此外,AVA 动作识别和 AVA:口语活动也 面临学术挑战。
PAWS 和 PAWS-X:为帮助解释短语,两个数据集都包含格式良好的句子对,这些句子对具有较高的词法重叠,其中约有一半句子对有释义,一半没有。
自然语言对话数据集:CCPE 和 Taskmaster-1 都使用 Oz 向导平台,该平台将两个参与口语对话的人配对,以模拟与数字助理的人际对话。
可视任务适应性基准测试:VTAB 遵循与 ImageNet 和 GLUE 相似的指导原则,但基于一个原则——一种更好的表示形式是,在域内数据有限的情况下,对不可见的任务上产生更好的性能。
模式指导的对话数据集:它是针对对话的最大的公开可用语料库,涵盖 17 个领域的 18000 多个对话。
研究社区互动
总而言之,我们一直深耕于更广范围的学术和研究社区。2019 年,谷歌研究人员发表了数百篇论文,参加了许多会议并获得了诸多奖项和荣誉。我们在以下方面取得了喜人的成就:
CVPR:约 250 名谷歌员工贡献了 40+ 论文、演讲、海报、研讨会等。
ICML:约 200 名谷歌员工贡献了 100+ 论文、演讲、海报、研讨会等。
ICLR:约 200 名谷歌员工贡献了 60+ 论文、演讲、海报、研讨会等。
ACL:约 100 位谷歌员工贡献了 40+ 论文、研讨会和教程。
INTERSPEECH:100 多名员工贡献了 30+ 论文。
ICCV:大约 200 位谷歌员工贡献了 40+ 论文,还有几位谷歌员工还获得了三个业内颇具声望的 ICCV 奖项。
NeurIPS:约 500 名谷歌员工共同撰写了 120 多篇被广泛认可的论文,并参加了各种研讨会等等。
我们还会将来自全球各地的数百名谷歌研究人员和教职人员召集到在谷歌总部举办的 15 个独立研讨会上。这些研讨会的主题包括:改善全球洪灾预报、如何使用机器学习来构建可以更好地为残疾人服务的系统,以及加速用于噪声中级规模量子(NISQ)处理器的算法、应用程序和工具的开发。
为了支持除谷歌之外的其他学术界和研究社区,我们通过年度博士奖学金计划为全球 50 余名博士研究生提供了支持。在 2018 年谷歌院系研究奖中,我们资助了 158 个项目,并且举办了“谷歌人工智能驻留项目”第三届会议。我们也那些以致力于发展人工智能的初创企业提供支持。


雷达卡



京公网安备 11010802022788号







