楼主: 时光永痕
466 0

[数据挖掘新闻] 如何使用您的中学数学知识来学习数据科学的数学 [推广有奖]

  • 0关注
  • 14粉丝

svip3

学术权威

12%

(VIP/贵宾)六级

32%

威望
0
论坛币
26 个
通用积分
57.2086
学术水平
4 点
热心指数
4 点
信用等级
4 点
经验
34190 点
帖子
2733
精华
0
在线时间
321 小时
注册时间
2020-7-21
最后登录
2024-8-1

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
如何使用您的中学数学知识来学习数据科学的数学
背景
作为我在大学的“人工智能:云和边缘计算”课程主任的角色的一部分,我看到更多的学生对编程而不是数学有所了解。
他们最近一次在大学学习数学。然后,他们突然开始学习数据科学时发现遇到矩阵,线性代数等。
他们认为他们大学毕业后不会再面对的想法!更糟糕的是,在许多情况下,他们不知道这些概念究竟在什么地方适用于数据科学。
如果考虑学习数据科学所需的数学基础,则可以将其分为四个关键领域
线性代数
概率论与统计
多元微积分
优化
所有这些都是(至少部分地)在高中(14至17岁)中教授的。
在本书中,我们从这些想法开始,并将它们与数据科学和AI关联起来。
了解线性回归
让我们从线性回归开始
线性关系意味着您可以用直线表示两组变量之间的关系。许多现象可以用线性关系表示。我们可以通过以下形式的线性方程式来表示这种关系:
y = mx + b
哪里:
“ m”是直线的斜率,
“ x”是直线上的任意点(输入或x值),
“ b”是线与y轴交叉的位置。
关系可以表示如下:
如果将这个方程式更广泛地扩展到n个变量,我们得到
现在让我们将工具切换到一种新型的模型,即从线性回归到Perceptron学习。我们展示了这个新模型与线性回归之间的关系。此外,感知器学习可以扩展为多层感知器,即深度学习算法。
感知器学习
感知器可以被视为“人工神经元”,即生物神经元的简化版本。在最简单的情况下,感知器如下所示。感知器需要几个输入x1,x2,…x1,x2,...,并产生单个二进制输出:
图:感知器
扩展上面的内容,在下面显示的示例中,我们现在考虑加权输入。感知器具有三个输入x1,x2,x3,权重w1,w2,…w1,w2,…是实数,表示各个输入对输出的重要性。感知器的输出0或1由加权和∑jwjxj小于还是大于某个阈值来确定。我们可以将感知器视为通过权衡证据做出决策的设备。这个想法类似于我们之前看到的多元线性方程。这个想法可以表示为如下所示的函数。
图:感知器的一般表示
这确实类似于我们之前看到的多元线性回归方程
感知器–不仅仅是历史的脚注
作为一种算法,感知器具有有趣的历史。感知器开始以硬件实现。Mark I Perceptron机器是perceptron算法的第一个实现。感知器算法是1957年由Frank Rosenblatt在康奈尔航空实验室发明的。感知器原本是机器,而不是程序。该机器设计用于图像识别:它具有400个光电管阵列,随机连接到“神经元”。重量通过电位计编码,学习过程中的重量更新由电动机完成。人们对感知器的乐观情绪错位了。在1958年由美国海军组织的一次新闻发布会上,罗森布拉特(Rosenblatt)发表了有关感知器的声明,该感知器在蓬勃发展的AI社区中引起了争议。基于Rosenblatt' “(海军)期望的电子计算机的雏形将能够行走,交谈,看到,书写,复制自身并意识到其存在。”
尽管感知器最初看起来很有希望,但很快就证明了感知器无法训练以识别许多类模式。这种错位的乐观情绪导致神经网络研究领域停滞了许多年,直到人们认识到具有两层或更多层(也称为多层感知器)的前馈神经网络比具有一层(即单层)感知器具有更大的处理能力。感知器)。单层感知器仅能够学习线性可分离模式。
以下是用于(单层)感知器的学习算法的示例。添加了更多训练示例后,示出了感知器更新其线性边界的示意图。
图:感知器分类
以上对感知器和图像的描述-摘自Wikipedia
因此,虽然感知器具有历史意义,但它是一种有效的算法,即线性分类器。线性分类器很有趣,但按照最初的承诺和潜力,其吸引力不足。
但是,对我们而言,感知器不仅仅是历史上的脚注。这是将您的基础高中知识与深度学习联系起来的一种方法
克服使用非线性激活函数的感知器学习的局限性
克服感知器仅是线性分类器的局限性的一个步骤是考虑非线性激活函数。在上图中(图:感知器的一般表示)–函数f表示激活函数。在感知器的情况下,激活功能仅是步进功能。阶跃函数输出代表感知器的输出。步进功能的输入为加权输入。我们将在下面更详细地讨论激活功能。但是目前,重要的是要认识到感知器的激活功能是阶跃功能。
1969年,马文·明斯基(Marvin Minsky)和西摩·佩尔特(Seymour Papert)的一本名为《感知器》的著名著作表明,感知器不可能学习XOR函数。但是,如果我们对感知器使用非线性激活函数(而不是阶跃函数),则此限制不适用。实际上,通过使用非线性激活函数,我们可以对比XOR复杂的函数建模(即使仅使用单层)。如果我们添加更多隐藏层(创建多层感知器),则可以扩展这种想法。
通过找到给定x的曲线上y的映射值,可以了解激活函数的作用。乙状结肠,tanH,ReLU是激活功能的示例。例如,S形激活函数将0到1之间的值范围映射。这意味着,对于在负无穷大到正无穷之间的x值,s形将被y值映射到0到1之间。对于每个节点,S形激活将输出作为S形(dot(input,weights))+ b–函数的输入表示每个节点上x值和权重的点积。矩阵b代表偏差矩阵。类似地,tanh函数表示介于-1和+1之间的输出。激活函数必须是可区分的,因为函数的派生表示更新步骤时的变化方向。
因此,回顾一下:
感知器是生物神经元的简化模型。
感知器是用于学习二进制分类器的算法:将其输入映射到输出值(单个二进制值)的函数。
感知器是使用阶跃函数作为激活函数的人工神经元([1])。感知器算法也称为单层感知器,以区别于多层感知器。
虽然Perceptron算法具有历史意义,但它为我们提供了一种方法,可以弥补线性回归与多层感知器(即深度学习)之间的差距。
多层感知器
现在我们来谈谈多层感知器(MLP)的概念。  多层感知器通过三种方式克服了上一节中讨论的感知器算法的局限性:
通过使用非线性激活函数和
通过使用多层感知器(而不是单个感知器)。
使用不同的训练方法,即MLP需要结合反向传播和梯度下降进行训练。
图:多层感知器
因此,MLP可以看作是感知器的复杂网络(具有非线性激活函数),它们可以基于对证据的分层权衡来做出微妙而复杂的决策。
总结一下
在本文中,我们使用感知器来弥补线性回归(在学校教授)与多层感知器(深度学习)之间的差距。
题库
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:如何使用 学习数据 数学知识 数据科学 Wikipedia

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-11-6 07:13