楼主: onlyfor
309 1

[充实挑战] 【学习笔记】摘录: 1. 随着这几年来深度学习方法的引入,机器翻译的水平又有 ... [推广有奖]

  • 2关注
  • 0粉丝

博士生

30%

还不是VIP/贵宾

-

威望
0
论坛币
3900 个
通用积分
122.8432
学术水平
6 点
热心指数
11 点
信用等级
1 点
经验
11926 点
帖子
230
精华
0
在线时间
110 小时
注册时间
2016-9-9
最后登录
2024-6-28

楼主
onlyfor 发表于 2019-9-2 21:41:34 来自手机 |只看作者 |坛友微信交流群|倒序 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
摘录:
1. 随着这几年来深度学习方法的引入,机器翻译的水平又有了一个大幅提高,使得机器不再在符号层面做翻译,而是将整个推理过程映射到一个高维空间中,并在高维空间中进行运算。不过,我们只能理解输入输出而不知道其在高维空间中具体如何进行运算的,并且机器自动学习了什么东西,我们也说不太清楚
2. 目前在神经网络机器翻译框架下,神经网络可以很好地捕捉句子的结构,无需进行句法分析,系统可以自动获得处理复杂结构句子翻译的能力
3. 当我们使用中间语言的时候,分析阶段的输出结果必须采用这样一种形式:这种形式能够被所有不同语言的机器翻译所使用。然而这种细微程度实际上是不可能做到的
4. 我们给神经网络输入一个东西,它就会输出一个结果,然而其在高维空间的计算过程我们是不知道的,这就存在可解释问题。但我认为这个问题的严重性要视情况而定,我们有时候需要解释性,却并不是所有时候都需要解释性,比如人脑做决定,有时间可能只是灵机一动的灵感,至于怎么来的,人自己都不一定能够解释得清楚。
而可解释性带来的一个更重要的问题是可信任问题。一些关键性领域如医疗领域,比如说病人看病,如果系统给出一个癌症的诊断而无法给出理由的话,病人是不敢治疗的。所以在这些关键性的应用上,可解释性是非常重要的,因为这个问题会导致信任问题。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:机器翻译 学习笔记 学习方法 深度学习 习笔记

已有 1 人评分论坛币 收起 理由
sophia615 + 30 精彩帖子

总评分: 论坛币 + 30   查看全部评分

最好的球是
沙发
sophia615 发表于 2019-9-2 23:46:53 |只看作者 |坛友微信交流群
学习笔记奖!

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-9-20 05:43