楼主: kgbkgb
4367 8

[书籍介绍] R Deep Learning Essentials [推广有奖]

  • 0关注
  • 1粉丝

本科生

81%

还不是VIP/贵宾

-

威望
0
论坛币
4572 个
通用积分
2.2868
学术水平
1 点
热心指数
7 点
信用等级
0 点
经验
6812 点
帖子
63
精华
0
在线时间
119 小时
注册时间
2007-10-30
最后登录
2022-6-21

相似文件 换一批

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
R Deep Learning Essentials
               
               
            
                                            

R Deep Learning Essentials by Dr. Joshua F. Wiley
Mar. 30, 2016 | ISBN: 1785280589 | 170 Pages | AZW3/MOBI/EPUB/PDF (conv) | 10.04 MB



深度学习是机器学习的一个分支,H2O包已经在研究深度学习的数字科学家中越来越流行。它有着超级内存管理能力以及与多节点大数据平台的完全交互能力。

主要内容

使用R语言来根据深度学习概念,为无人管理的数据构建一个算法。
精通将面临的一般问题,如:拟合数据、异常数据集、图像识别和建模时的性能调整。
建立与模型相关的神经网络、预报和深度预报。

目录

Getting Started with Deep Learning
Training a Prediction Model
Preventing Overfitting
Identifying Anomalous Data
Training Deep Prediction Models
Tuning and Optimizing Models
Bibliography

R Deep Learning Essentials - Dr. Joshua F. Wiley.rar (10.04 MB, 需要: 15 个论坛币) 本附件包括:
  • R Deep Learning Essentials - Dr. Joshua F. Wiley.mobi
  • R Deep Learning Essentials - Dr. Joshua F. Wiley.pdf
  • R Deep Learning Essentials - Dr. Joshua F. Wiley.azw3
  • R Deep Learning Essentials - Dr. Joshua F. Wiley.epub


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Essentials Essential Learning earning Learn management learning machine memory become

已有 1 人评分经验 论坛币 收起 理由
我的素质低 + 100 + 100 精彩帖子

总评分: 经验 + 100  论坛币 + 100   查看全部评分

本帖被以下文库推荐

沙发
jgchen1966 发表于 2016-4-26 14:11:33 |只看作者 |坛友微信交流群

使用道具

藤椅
jjxm20060807 发表于 2016-4-26 20:31:38 |只看作者 |坛友微信交流群
谢谢分享

使用道具

板凳
书海溪流 发表于 2016-5-11 08:51:11 |只看作者 |坛友微信交流群
好书就是贵,先买了慢慢学习,多谢分享。

使用道具

报纸
书海溪流 发表于 2016-5-11 09:00:06 |只看作者 |坛友微信交流群
楼主快看一下,下载到一半时提示有病毒,怎么回事?

使用道具

地板
kgbkgb 发表于 2016-5-11 12:30:57 |只看作者 |坛友微信交流群
大家都木有问题。

使用道具

7
houyunhuang 发表于 2016-5-26 09:32:51 |只看作者 |坛友微信交流群

使用道具

8
Lisrelchen 发表于 2016-7-1 09:55:23 |只看作者 |坛友微信交流群
  1. source("checkpoint.R")
  2. options(width = 70, digits = 2)

  3. cl <- h2o.init(
  4.   max_mem_size = "12G",
  5.   nthreads = 4)

  6. ## data setup
  7. digits.train <- read.csv("train.csv")
  8. digits.train$label <- factor(digits.train$label, levels = 0:9)

  9. h2odigits <- as.h2o(
  10.   digits.train,
  11.   destination_frame = "h2odigits")

  12. i <- 1:32000
  13. h2odigits.train <- h2odigits[i, ]

  14. itest <- 32001:42000
  15. h2odigits.test <- h2odigits[itest, ]
  16. xnames <- colnames(h2odigits.train)[-1]



  17. system.time(ex1 <- h2o.deeplearning(
  18.   x = xnames,
  19.   y = "label",
  20.   training_frame= h2odigits.train,
  21.   validation_frame = h2odigits.test,
  22.   activation = "RectifierWithDropout",
  23.   hidden = c(100),
  24.   epochs = 10,
  25.   adaptive_rate = FALSE,
  26.   rate = .001,
  27.   input_dropout_ratio = 0,
  28.   hidden_dropout_ratios = c(.2)
  29. ))


  30. system.time(ex2 <- h2o.deeplearning(
  31.   x = xnames,
  32.   y = "label",
  33.   training_frame= h2odigits.train,
  34.   validation_frame = h2odigits.test,
  35.   activation = "RectifierWithDropout",
  36.   hidden = c(100),
  37.   epochs = 10,
  38.   adaptive_rate = FALSE,
  39.   rate = .01,
  40.   input_dropout_ratio = 0,
  41.   hidden_dropout_ratios = c(.2)
  42. ))
复制代码

使用道具

9
Lisrelchen 发表于 2016-7-1 09:56:25 |只看作者 |坛友微信交流群
  1. raining and predicting new data from a deep neural network

  2. In this section we will learn how to train deep neural networks and use them to generate predictions on new data. The examples for this section will use the activity data we have worked with before, and the following code simply sets up the data:

  3. use.train.x <- read.table("UCI HAR Dataset/train/X_train.txt")
  4. use.test.x <- read.table("UCI HAR Dataset/test/X_test.txt")

  5. use.train.y <- read.table("UCI HAR Dataset/train/y_train.txt")[[1]]
  6. use.test.y <- read.table("UCI HAR Dataset/test/y_test.txt")[[1]]

  7. use.train <- cbind(use.train.x, Outcome = factor(use.train.y))
  8. use.test <- cbind(use.test.x, Outcome = factor(use.test.y))

  9. use.labels <- read.table("UCI HAR Dataset/activity_labels.txt")

  10. h2oactivity.train <- as.h2o(
  11.   use.train,
  12.   destination_frame = "h2oactivitytrain")

  13. h2oactivity.test <- as.h2o(
  14.   use.test,
  15.   destination_frame = "h2oactivitytest")
  16. We have already learned the components of training a deep prediction model. We use the h2o.deeplearning() function as we did for the auto-encoder models, but specify the variable names for both the x and y arguments. Before, we included the testing data to automatically get performance metrics on both training and testing data. However, to show how to generate predictions on new data, we do not include it in the call to h2o.deeplearning(). The activation function used is a linear rectifier with dropout both on the input variables (20%) and the hidden neurons (50%). This little example is a shallow network with only 50 hidden neurons and 10 training iterations. The cost (loss) function is cross-entropy:

  17. mt1 <- h2o.deeplearning(
  18.   x = colnames(use.train.x),
  19.   y = "Outcome",
  20.   training_frame= h2oactivity.train,
  21.   activation = "RectifierWithDropout",
  22.   hidden = c(50),
  23.   epochs = 10,
  24.   loss = "CrossEntropy",
  25.   input_dropout_ratio = .2,
  26.   hidden_dropout_ratios = c(.5), ,
  27.   export_weights_and_biases = TRUE
  28. )
复制代码

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-20 14:13