楼主: 爱萌
56842 194

大家来讨论一下,SAS怎样才能读入就处理,这样能够处理无限大的数据   [推广有奖]

71
北斗资讯 发表于 2009-8-30 00:45:31 |只看作者 |坛友微信交流群
嗯,这个话题不错,值得关注~
今天你SAS了吗?

使用道具

72
flutter88 发表于 2009-8-30 11:27:25 |只看作者 |坛友微信交流群
这个问题还没有遇到过,哈哈

使用道具

73
flutter88 发表于 2009-8-30 11:34:13 |只看作者 |坛友微信交流群
22# edwardhuanghz

这才是有经验的兄弟,哈哈

使用道具

74
爱萌 发表于 2009-8-30 23:33:53 |只看作者 |坛友微信交流群
hash 表可以快速处理一些数据,大家也可以关注一下这个
最恨对我说谎或欺骗我的人

使用道具

75
YCL5174500 发表于 2009-9-3 07:09:38 |只看作者 |坛友微信交流群
利用data步的选择项,选择或禁止某些加载数据,然后编写处理程序,run结束后;
在调用data步加载另外的处理程序,依次向推。。。若处理用data步处理过的程序,
用data步选择合并即可合并(付:可将处理过的数据存为盘,创建时用data sasuser.a1,
处理完退出,在用data 加载其他数据)利用

使用道具

76
lupingfan1128 发表于 2009-9-11 07:58:57 |只看作者 |坛友微信交流群
good question. any solution yet?

使用道具

77
Jackywolf_2008 发表于 2009-9-28 13:28:14 |只看作者 |坛友微信交流群
SAS当然可以无限的处理数据,但是你怎么保证你的数据源是无限的数据呢,如果你能保证你的数据源是无限的SAS就可以无限的处理下去。举一个例子,例如你用sas连接到一个数据库上,读取某一个表的数据,该表上有触发器,会随时的往表中写数据,那你就可以用sas中的set的point选项和nobs选项实时的获得该表的记录数,然后用宏写一个死循环就可以了,但是这这样做有意义吗?

使用道具

78
chengducdc 发表于 2009-10-1 00:27:36 |只看作者 |坛友微信交流群
前处理千万级或更多的变量或记录可以用Perl或Python,处理成自己理想的数据格式以后再转入SAS运算。我处理过20G 左右的文本文件,应该没有什么问题。补充一下,用的是Ubuntu 64位 Linux系统。

使用道具

79
xuwei2007 发表于 2009-10-10 10:03:55 |只看作者 |坛友微信交流群
fincomputing 发表于 2009-6-21 20:01
我觉得,考虑使用Matlab,R等替代软件,SAS处理大数据量可不是强项,呵呵~~
处理大数据正是sas的强项啊,

使用道具

80
mei1985mei 发表于 2009-10-11 00:55:14 |只看作者 |坛友微信交流群
喔 不大懂啊。我也有类似的问题

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-5-22 07:23