楼主: ReneeBK
1021 6

从最小二乘到DNN:六段代码了解深度学习简史 [推广有奖]

  • 1关注
  • 62粉丝

VIP

已卖:4900份资源

学术权威

14%

还不是VIP/贵宾

-

TA的文库  其他...

R资源总汇

Panel Data Analysis

Experimental Design

威望
1
论坛币
49655 个
通用积分
55.9937
学术水平
370 点
热心指数
273 点
信用等级
335 点
经验
57805 点
帖子
4005
精华
21
在线时间
582 小时
注册时间
2005-5-8
最后登录
2023-11-26

楼主
ReneeBK 发表于 2017-9-24 23:02:38 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

本帖隐藏的内容

Coding the History of Deep Learning - FloydHub Blog.pdf (281.45 KB) 从最小二乘到DNN:六段代码了解深度学习简史.pdf (1.1 MB)

  1. 深度学习都从这个数学片段开始的(我已经把它翻译成 Python):

  2. # y = mx + b
  3. # m is slope, b is y-intercept
  4. def compute_error_for_line_given_points(b, m, coordinates):
  5.     totalError = 0
  6.     for i in range(0, len(coordinates)):
  7.         x = coordinates[i][0]
  8.         y = coordinates[i][1]
  9.         totalError += (y - (m * x + b)) ** 2
  10.     return totalError / float(len(coordinates))

  11. # example
  12. compute_error_for_line_given_points(1, 2, [[3,6],[6,9],[12,18]])

  13. 这个算法由法国数学家 Adrien-Marie Legendre 首次发表(1805, Legendre),他的另一大成就是确立标准米。他沉迷于预测彗星的位置。他根据彗星之前的几个位置进行不懈搜索,寻找计算彗星轨迹的方法。
  14. 这真的是愚公移山一样的工作。他尝试了多种方法,终于找到了一个方法:首先猜测彗星未来的位置,然后平方误差,最后重新猜测以减少平方误差的总和。这就是线性回归损失函数的基础。

  15. 在 Jupyter notebook 上运行上述代码,并逐渐熟悉它。m 代表系数(coefficient),b 代表预测中的常量,coordinates 代表彗星的位置。目的就是找到 m 和 b 的一种组合,使误差最小化
复制代码


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝


本帖被以下文库推荐

沙发
MouJack007 发表于 2017-9-25 11:05:46
谢谢楼主分享!

藤椅
MouJack007 发表于 2017-9-25 11:06:17

板凳
lianqu 发表于 2017-9-28 09:36:28

报纸
WFMZZ 发表于 2017-9-28 12:01:08

地板
lomberer01 发表于 2017-9-30 01:21:28 来自手机
THANKS

7
soccy 发表于 2017-9-30 03:27:57

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注jltj
拉您入交流群
GMT+8, 2026-1-22 09:58