楼主: CDA网校
1148 1

[数据] 十分钟搞定PCA主成分分析——CDA人工智能学院 [推广有奖]

管理员

已卖:189份资源

泰斗

4%

还不是VIP/贵宾

-

威望
3
论坛币
125437 个
通用积分
11749.5833
学术水平
278 点
热心指数
286 点
信用等级
253 点
经验
230985 点
帖子
7056
精华
19
在线时间
4402 小时
注册时间
2019-9-13
最后登录
2026-2-9

初级热心勋章

楼主
CDA网校 学生认证  发表于 2021-1-25 08:49:20 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
CDA人工智能学院致力于以优质的人工智能在线教育资源助力学员的DT职业梦想!课程内容涵盖数据分析机器学习深度学习人工智能tensorFlowPyTorch知识图谱等众多核心技术及行业案例,让每一个学员都可以在线灵活学习,快速掌握AI时代的前沿技术。PS:私信我即可获取CDA会员1个月免费试听机会

在数据建模当中我们经常会听到一个词叫做降维,首先咱们先来唠一唠数据为啥要降维呢?最主要的原因还是在于一方面使得我们需要计算的量更少啦,想象一下一个100维的数据和一个10维数据计算的速度肯定是不一样的,另一方面如果我们的数据中有很无关特征,这些对结果看起来没什么促进的作用,那我们就干脆把有价值的拿出来,因为他们才是决定模型的关键!

20180709065124_31417.png

第一个强调的关键点:PCA是一种无监督算法,也就是我们不需要标签也能对数据做降维,这就使得其应用范围更加广泛了。那么PCA的核心思想是什么呢?这里我们提到了方差,咱们可以想象一下,如果一群人都堆叠在一起,我们想区分他们是不是比较困难,但是如果这群人站在马路两侧,我们就可以很清晰的判断出来应该这是两伙人。所以基于方差我们可以做的就是让方差来去判断咱们数据的拥挤程度,在这里我们认为方差大的应该辨识度更高一些,因为分的比较开(一条马路给隔开啦)。但是PCA也有一个问题,原来的数据中比如包括了年龄,性别,身高等指标降维后的数据既然维度变小了,那么每一维都是什么含义呢?这个就很难解释了,所以PCA本质来说是无法解释降维后的数据的物理含义,换句话说就是降维完啦计算机能更好的认识这些数据,但是咱们就很难理解了。

20180709065118_81185.png

在我们深入到PCA原理之前,先来解释一下什么叫基,把这个搞清楚之后就好理解了,大家一般所认识的坐标系一般都是X,Y轴。

20180709065111_22656.png

就像我们图上面的,我说有一个向量(3,2),但是为什么这个向量是这样的表示呢?因为它在我们的做标系中,如果我把坐标系换了,它就不是(3,2)了。作为基,首先的一个前提就是要相互垂直,或者说内积为0,因为X和Y它们表达的分别是两种指标,我们不希望它们之间内部存在任何联系,所以必须让他们内积为0,这样就是各自独立的啦!

20180709065105_15384.png

那么对我们坐标来说能否进行变换呢?肯定是可以的,比如我现在把(3,2)变换到另外一组基中,它的表达方式就不一样啦!这回咱们应该发现了这样一个事了吧,所谓的降维就是要把我们的数据投影到最合适的基中,那下面我们的目标就是寻找最好的基!

20180709065058_35037.png

咱这之前,还是得先来了解下另外一个知识点,叫做协方差,刚才我们已经有了目标就是寻找一个基,可以使得我们数据投影过去后方差能够越大越好!这个是我们的前提,但是只满足这一点就够了嘛?还不可以,因为我们还需要保证基的前提就是相互垂直,这就可以用协方差来进行表示啦,如果两个变量他们之间是相互独立的那么它们的协方差就必定为0,这就是我们的第二点要求啦,数据投影到的新基,其各个维度协方差都必须为0。(上图中假定数据各个维度均值为0)

20180709065051_55226.png

终于到啦要揭开谜底的时候啦!我们恰好遇到了一个东西叫做协方差矩阵,在公式中只需要对数据X进行变换就可以得到的。观察一下协方差矩阵,恰好发现了这样一个事,主对角线不就是我们的方差嘛(假设均值为0),非对角线上的元素又恰好是协方差。按照咱们之前的两点约定,我们只需要让方差越大越好,并且协方差等于0不就可以啦嘛!

20180709065045_89961.png

怎么做上面的那件事呢?这就是我们的目标了。让非对角线全为0这就需要对矩阵进行对角化啦,按照我们上面的定理,我们可以完成对角化操作,对我们所得的协方差矩阵求解其特征值与特征向量不就OK啦嘛。接下来按照特征值的大小进行排列,如果你想把数据降到3维,那就取前3个特征值所对应的特征向量就可以啦!

20180709065038_78511.png

全部的过程就在这里啦,其实只需要得到协方差矩阵,然后对角化,将得到的特征向量进行选择就得到我们要投影到的基啦!数据降维操作就这么愉快的搞定啦!

29C446FFF799701B5098749DB47B5891.jpg

扫码关注CDA公众号,即可获取最新版数据分析题库大全CDA免费精品课70+


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:主成分分析 人工智能 主成分 pca CDA

沙发
三重虫 发表于 2021-1-25 16:35:19

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2026-2-10 08:20