楼主: 李国静
45411 2

[学习分享] matlab premnmx归一化函数的使用 [推广有奖]

  • 28关注
  • 0粉丝

高中生

85%

还不是VIP/贵宾

-

威望
0
论坛币
18 个
通用积分
0
学术水平
1 点
热心指数
1 点
信用等级
1 点
经验
832 点
帖子
27
精华
0
在线时间
13 小时
注册时间
2011-5-22
最后登录
2020-1-5

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
matlab premnmx归一化函数的使用

1、premnmx
预处理数据使数据的最小值和最大值分别为-1和1.
[PN,minp,maxp,TN,mint,maxt] = premnmx(P,T)

premnmx(P,T)
输入
P - R x Q 矩阵(输入向量,其中一列表示输入变量).
T - S x Q  矩阵(目标/输出 向量).

输出
PN - R x Q 矩阵 (归一化的输入向量).
minp- R x 1 向量,包含对于P的最小值.
maxp- R x 1 向量,包含P的最大值.
TN - S x Q 矩阵,归一化的目标向量.
mint- S x 1 向量,包含每个目标值T的最小值。
maxt- S x 1 向量,包含每个目标值T的最大值。

[PN,minp,maxp] = premnmx(P)

实例:
P = [
    1 2 3
    4 5 6
    7 8 9
]
T = [10 11 12]
[PN,minp,maxp,TN,mint,maxt] = premnmx(P,T)

P =


     1     2     3
     4     5     6
     7     8     9

T =

    10    11    12

PN =

    -1     0     1
    -1     0     1
    -1     0     1

minp =


     1
     4
     7

maxp =

     3
     6
     9


TN =


    -1     0     1

mint =

    10

maxt =

    12
由上面可知,premnmx是将一列作为一个样本输入来处理的。

2、postmnmx
对那些归一化后的数据进行后处理
[P,T] = postmnmx(PN,minp,maxp,TN,mint,maxt)
[p] = postmnmx(PN,minp,maxp)

输入

PN - R x Q 矩阵 (归一化的输入向量).
minp- R x 1 向量,包含对于P的最小值.
maxp- R x 1 向量,包含P的最大值.
TN - S x Q 矩阵,归一化的目标向量.
mint- S x 1 向量,包含每个目标值T的最小值。
maxt- S x 1 向量,包含每个目标值T的最大值
输出
P - R x Q 矩阵(输入向量,其中一列表示输入变量).
T - S x Q  矩阵(目标/输出 向量).
postmnmx与premnmx成对使用,premnmx的输出作为postmnmx的输入

运用时,首先通过premnmx对训练数据进行归一化,但对测试数据归一化是需用到另外一个函数tramnmx;实现测试数据的归一化处理


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:MATLAB atlab matla Prem Atl matlab 最大值

已有 1 人评分经验 学术水平 热心指数 信用等级 收起 理由
accumulation + 100 + 1 + 1 + 1 精彩帖子

总评分: 经验 + 100  学术水平 + 1  热心指数 + 1  信用等级 + 1   查看全部评分

本帖被以下文库推荐

学好统计,
沙发
zsuphoenix 发表于 2014-7-30 14:34:32 |只看作者 |坛友微信交流群
message received

使用道具

藤椅
徐某某26 发表于 2016-7-11 16:45:38 |只看作者 |坛友微信交流群
可以加楼主好友吗?非常感谢了1218420865

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-11-24 23:02