楼主: ynsxx
8151 18

[精品图书下载]Bayesian Methods for Data Analysis 3rd Edition 2008 [推广有奖]

  • 3关注
  • 3粉丝

已卖:495份资源

讲师

86%

还不是VIP/贵宾

-

威望
0
论坛币
15385 个
通用积分
2.3220
学术水平
6 点
热心指数
7 点
信用等级
1 点
经验
2480 点
帖子
150
精华
0
在线时间
1094 小时
注册时间
2005-4-14
最后登录
2022-3-31

楼主
ynsxx 在职认证  发表于 2014-2-6 19:58:40 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

Bayesian Methods for Data Analysis, Third Edition (Chapman & Hall/CRC Texts in Statistical Science)

Bradley P. Carlin , Thomas A. Louis




Book Description[size=0.86em]Publication Date: June 30, 2008 | ISBN-10: 1584886978 | ISBN-13: 978-1584886976 | Edition: 3
Broadening its scope to nonstatisticians, Bayesian Methods for Data Analysis, Third Edition provides an accessible introduction to the foundations and applications of Bayesian analysis. Along with a complete reorganization of the material, this edition concentrates more on hierarchical Bayesian modeling as implemented via Markov chain Monte Carlo (MCMC) methods and related data analytic techniques.
New to the Third Edition
New data examples, corresponding R and WinBUGS code, and homework problemsExplicit descriptions and illustrations of hierarchical modeling—now commonplace in Bayesian data analysisA new chapter on Bayesian design that emphasizes Bayesian clinical trialsA completely revised and expanded section on ranking and histogram estimationA new case study on infectious disease modeling and the 1918 flu epidemicA solutions manual for qualifying instructors that contains solutions, computer code, and associated output for every homework problem—available both electronically and in printIdeal for Anyone Performing Statistical Analyses
Focusing on applications from biostatistics, epidemiology, and medicine, this text builds on the popularity of its predecessors by making it suitable for even more practitioners and students.

本帖隐藏的内容

Bayesian Methods for Data Analysis, Third Edition.pdf (4.35 MB, 需要: 2100 个论坛币)










二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Bayesian Analysis Edition Methods Analysi accessible provides

已有 2 人评分经验 论坛币 学术水平 热心指数 信用等级 收起 理由
Nicolle + 60 + 60 + 5 + 5 精彩帖子
jnupsych + 1 + 1 + 1 精彩帖子

总评分: 经验 + 60  论坛币 + 60  学术水平 + 6  热心指数 + 6  信用等级 + 1   查看全部评分

本帖被以下文库推荐

沙发
tsdy(未真实交易用户) 发表于 2014-2-8 12:01:22
  1. #############################
  2. # BUGS code for Baby Normal/Normal model (CL3 text, p.23)
  3. #############################

  4. model{
  5.    
  6.   prec.ybar <- n/sigma2
  7.   prec.theta <- 1/tau2
  8.   ybar  ~ dnorm(theta, prec.ybar)

  9.   theta ~ dnorm(mu, prec.theta)

  10.   }

  11. # Data:
  12.   
  13. list(ybar=6, mu=2, sigma2=1, tau2=1, n=1)
  14.        
  15. # Inits:

  16. list(theta = 0)
复制代码

已有 1 人评分论坛币 收起 理由
Nicolle + 20 鼓励积极发帖讨论

总评分: 论坛币 + 20   查看全部评分

藤椅
leonkd(未真实交易用户) 在职认证  发表于 2014-3-17 23:46:56
  1. ####################
  2. # Dugongs Linear model

  3. # w/ known covariance for data, posterior for betas is multivariate normal
  4. # w/ gamma prior for data precision, posterior for betas is multivariate t
  5. ####################

  6. model{
  7.   for( i in 1:n) {
  8.     logage[i] <- log(x[i])
  9.     Y[i] ~ dnorm(mu[i] , tau)
  10.     mu[i] <- beta0+ beta1*logage[i]    # uncentered covariate
  11. #    mu[i] <- beta0+ beta1*(logage[i] - mean(logage[]))    #  centered covariate
  12.     }

  13. #  beta0 ~ dnorm(0, 0.001)   # for comparability to exact Bayes results in Sec 4.1
  14. #  beta1 ~ dnorm(0, 0.001)

  15.   beta0 ~ dflat()     # for max comparability to frequentist results
  16.   beta1 ~ dflat()

  17.   tau ~ dgamma(0.1, 0.1)   #  p_D = 3.100,   DIC = -43.216
  18.   sigma <- 1/sqrt(tau)

  19. #  tau <- 1/(sigma*sigma)   #  p_D = 2.895,   DIC = -49.303
  20. #  sigma ~ dunif(0.01, 100)  

  21. }  #  end of BUGS code


  22. #Data:
  23. list(x = c( 1.0,  1.5,  1.5,  1.5, 2.5,   4.0,  5.0,  5.0,  7.0,
  24.                     8.0,  8.5,  9.0,  9.5, 9.5,  10.0, 12.0, 12.0, 13.0,
  25.                    13.0, 14.5, 15.5, 15.5, 16.5, 17.0, 22.5, 29.0, 31.5),
  26.              Y = c(1.80, 1.85, 1.87, 1.77, 2.02, 2.27, 2.15, 2.26, 2.47,
  27.                    2.19, 2.26, 2.40, 2.39, 2.41, 2.50, 2.32, 2.32, 2.43,
  28.                    2.47, 2.56, 2.65, 2.47, 2.64, 2.56, 2.70, 2.72, 2.57), n = 27)

  29. # Inits:

  30. list( beta0 = 0, beta1 = 1, tau = 1)   #  for gamma prior on tau
  31. list( beta0 = 0, beta1 = 1, sigma = 1)  # for uniform prior on sigma


  32. #########################
  33. #  Multivariate version:  add a N(mu, R) prior for beta,
  34. #    with a Wishart hyperprior for R  :)
  35. #########################


  36. model{
  37.   for( i in 1:n) {
  38.     logage[i] <- log(x[i])
  39.     Y[i] ~ dnorm(meen[i] , tau)
  40.     meen[i] <- beta[1]+ beta[2]*(logage[i] - mean(logage[]))
  41.     }

  42.   beta[1:2] ~ dmnorm(mu[], R[ , ])

  43.   mu[1] ~ dflat()
  44.   mu[2] ~ dflat()
  45.   R[1:2, 1:2] ~ dwish(Omega[ , ], 2)

  46.   tau <- 1/(sigma*sigma)  
  47.   sigma ~ dunif(0.01, 100)
  48.   
  49.   Rinv[1:2, 1:2] <- inverse(R[ , ])
  50.   priorsd[1] <- sqrt(Rinv[1,1])
  51.   priorsd[2] <- sqrt(Rinv[2,2])
  52. }

  53. #Data:
  54. list(x = c( 1.0,  1.5,  1.5,  1.5, 2.5,   4.0,  5.0,  5.0,  7.0,
  55.                     8.0,  8.5,  9.0,  9.5, 9.5,  10.0, 12.0, 12.0, 13.0,
  56.                    13.0, 14.5, 15.5, 15.5, 16.5, 17.0, 22.5, 29.0, 31.5),
  57.              Y = c(1.80, 1.85, 1.87, 1.77, 2.02, 2.27, 2.15, 2.26, 2.47,
  58.                    2.19, 2.26, 2.40, 2.39, 2.41, 2.50, 2.32, 2.32, 2.43,
  59.                    2.47, 2.56, 2.65, 2.47, 2.64, 2.56, 2.70, 2.72, 2.57), n = 27,
  60.              Omega = structure(.Data = c(0.1, 0, 0, 0.1), .Dim = c(2, 2))        )

  61. #Inits:
  62. list( beta = c(0, 0), sigma=1, mu = c(0,0),
  63.        R = structure(.Data = c(1,0,0,1), .Dim = c(2, 2)))
复制代码

板凳
cwzkevin(真实交易用户) 发表于 2014-5-11 02:00:57
  1. #########################################
  2. # Linear hierarchical modeling in a two-way ANOVA
  3. # Cross-protocol data                                                                                 
  4. #########################################

  5. model
  6. {
  7.         for(i in 1:I) {
  8.                 for(j in 1:J) {
  9.                    Y[i,j] ~ dnorm(theta[i,j],P[i,j])     #                      Dbar   p_D     DIC  (1k / 20k)
  10.                            theta[i,j] <- a[i]+b[j]+s[i,j]    # full model           122.0  12.8   134.8
  11. #                        theta[i,j] <- a[i] + b[j]         # drop interactions    123.4   9.7   133.1
  12. #                        theta[i,j] <- a[i] + s[i,j]         # no unit effect       123.8  10.0   133.8
  13. #                        theta[i,j] <- b[j]+ s[i,j]         # no study effect      121.4   9.7   131.1
  14. #                        theta[i,j] <- a[1] + b[j]        # unit + intercept     120.3   4.6   124.9
  15. #                        theta[i,j] <- b[j]               # unit effect only     122.9   6.2   129.1
  16. #                        theta[i,j] <- a[i]               # study effect only    126.0   6.0   132.0
  17. #                        theta[i,j] <- a[1]               # intercept only       122.6   1.0   123.6
  18. #                        theta[i,j] <- s[i,j]                 # interactions only!   126.6   5.1   131.7
  19.                        
  20.                         s[i,j] ~ dnorm(0.0,C)
  21.                         Y_sigma[i,j] <- 1/sqrt(P[i,j])
  22.                        
  23.                         sresid[i,j] <- (Y[i,j] - theta[i,j]) / Y_sigma[i,j]  #  approx standardized residuals
  24.                        
  25.                      }
  26. #                a[i] ~ dflat()          #  crashes program if a's removed from model
  27.                 a[i] ~ dnorm(0, 0.0001)       # more convenient here
  28.         }

  29.         for(j in 1:J) {
  30.                 b[j] ~ dnorm(0.0,B)
  31.         }       

  32.         b_sigma ~ dunif(0.01, 100)        # clinic-level s.d.
  33.         s_sigma ~ dunif(0.01,100)        # s.d. of s_ij's
  34.         B <- 1/(b_sigma*b_sigma)                   
  35.         C <- 1/(s_sigma*s_sigma)               
  36. }

  37. ## HERE ARE INITS:
  38. list(b_sigma=5, s_sigma=5, a=c(3,3,3,3,3,3),
  39. b=c(2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,2))

  40. list(b_sigma=25, s_sigma=25, a=c(3,3,3,3,3,3),
  41. b=c(-10,-10,-10,-10,-10,-10,-10,-10,-10,-10,-10,-10,-10,-10,-10,-10,-10,-10))

  42. list(b_sigma=50, s_sigma=50, a=c(-3,-3,-3,-3,-3,-3),
  43. b=c(20,20,20,20,20,20,20,20,20,20,20,20,20,20,20,20,20,20))


  44. ## HERE ARE DATA:
  45. list(I = 6,    # number of studies
  46.      J = 18,   # number of clinics (at most)
  47.      
  48. Y = structure(
  49.   .Data = c(0.814, -0.203, -0.133, NA, -0.715, 0.739, 0.118,
  50.         NA, NA, 0.271, NA, -0.0023, -0.076, 0.651, -0.249,
  51.         0.0026, NA, 1.217, NA, NA, NA, NA, -0.24236,
  52.         0.00928, 0.8073, -0.51149, 1.93893, 1.07922, NA, 0.29996, 1.41267,
  53.         -0.46985
  54.         , 0.09798, 0.29206, 0.19483, 0.16531, -0.40556, NA, 0.21807,
  55.         NA, -0.54369, NA, -0.04707, 0.23272, 0.21767, -0.27662,
  56.         0.79159, -0.10268, 0.6576, 0.0604, -0.27151, 0.7048, 0.6054, 0.38503,
  57.         0.29848, NA, -2.20587, NA, -0.73148, NA, 0.9134, 0.13073,
  58.         -0.06594, -0.23161, 1.26396, -0.43129, -0.02205, 0.42073, -0.16309,
  59.         0.60758, 0.18718, 0.17248, 0.2597, NA, 0.35022, NA, 0.60031,
  60.         NA, -0.09084, NA, NA, 0.75204, -0.35662, 0.83652,
  61.         -0.16441, -0.11157, 0.85996, -0.22899, NA, 0.16011, NA,
  62.         NA, 0.14491, NA, 0.04111, 0.22188, 0.09871, 0.01708, 0.35535,
  63.         0.20278, 0.8073, 0.37308, -0.64, -0.01021, 0.0813, 1.04416, -0.20111,
  64.         0.20344), .Dim = c(6, 18)),

  65. P = structure(
  66.   .Data = c(1.55472, 0.63796, 0.66422, 0.0001, 2.22103, 3.02457,
  67.         1.38408, 0.0001, 0.0001, 2.93207, 0.0001, 1.33034, 1.19442, 2.86302,
  68.         2.39627, 2.20785, 0.0001, 1.49815, 0.0001, 0.0001, 0.0001, 0.0001,
  69.         1.7054, 4.22496, 2.52965, 3.21071, 1.55576, 2.06012, 0.0001, 4.43682,
  70.         0.74642, 3.74025, 4.20441, 3.2145, 5.44972, 5.87876, 4.61706, 0.0001,
  71.         1.91103, 0.0001, 4.26425, 0.0001, 2.70169, 5.39252, 1.96031, 6.63744,
  72.         1.6591, 10.12627, 5.15778, 12.20163, 9.12072, 8.56466, 8.09651, 6.76019,
  73.         3.42682, 0.0001, 0.73295, 0.0001, 4.53736, 0.0001, 1.97782, 5.93378,
  74.         2.38223, 6.65423, 1.27929, 10.4889, 5.42775, 10.75121, 9.06588, 9.24314,
  75.         9.41177, 8.3589, 6.15393, 0.0001, 2.2114, 0.0001, 0.66407, 0.0001,
  76.         2.47915, 0.0001, 0.0001, 0.48528, 3.72857, 1.14836, 1.1933, 0.49845,
  77.         3.32753, 6.14448, 0.0001, 2.43433, 0.0001, 0.0001, 0.64786, 0.0001,
  78.         3.31796, 3.30026, 3.31, 12.10082, 5.82853, 21.92399, 4.72651, 6.29366,
  79.         0.74707, 3.86906, 4.74962, 4.17327, 2.72863, 2.50757), .Dim = c(6, 18)))
  80.        
复制代码

报纸
jnupsych(真实交易用户) 发表于 2014-5-25 14:33:53
  1. ###########################
  2. #  PK Hierarchical Linear Model

  3. #  This is the linearized version of the PK model, where we model Z = log(concentration) as a
  4. #  simple linear function of dosage time X for each patient i = 1, ..., N=10.  

  5. #  See Carlin and Louis (2009, Ch 2, Example 2.13).
  6. ###########################

  7. model
  8. {
  9.   for(i in 1:N){
  10.         for(j in 1:T){
  11.                 Z[i,j] ~ dnorm (mu[i,j] , tauZ )
  12.                 Y[i,j] <- exp(Z[i,j])
  13.                 mu[i,j] <- beta[i, 1] + beta[i, 2]* X[j]                
  14.             }
  15.         beta[i , 1:2] ~ dmnorm (betamu[1:2] , betaUpsilon[1:2, 1:2])
  16.      }

  17.   betamu[1:2] ~ dmnorm( meen[1:2] , prec[1:2 ,1:2])
  18.   betaUpsilon[1:2 , 1:2] ~ dwish(R[1:2, 1:2], 2)

  19.   beta.s2[1:2, 1:2] <- inverse(betaUpsilon[1:2, 1:2])
  20.   for (i in 1 : 2) {beta.s[i] <- sqrt(beta.s2[i, i]) }

  21. #  tauZ ~ dgamma(0.001, 0.001)    #  usual WinBUGS vague gamma prior
  22. #  sigmaZ <- 1/tauZ
  23.   tauZ <- 1/(sigmaZ * sigmaZ)        #  vague Gelman prior
  24.   sigmaZ ~ dunif(0.01, 100)

  25. }  #  end of linear PK program


  26. ## Inits:
  27. list( tauZ =20 , betaT=structure(.Data = c(0.01, 0,0, 0.01), .Dim = c(2, 2)), betamu=c( -3, 3 ))      # gamma
  28. list( sigmaZ =1, betaUpsilon=structure(.Data = c(0.1, 0,0, 0.1), .Dim = c(2, 2)), betamu=c(0, 0))  # Gelman
  29.        
  30.        
  31. ## Data:
  32. # NOTE:  Obs 6 for Patient 8 (apparent data entry error) set to NA!
  33. #   Z = log(concentration)

  34. list(X=c(2,4,6,8,10,24,28,32), N=10, T=8,
  35.     Z = structure(
  36.        .Data = c(0.086, -0.288, -0.635, -1.079, -1.47, -3.912, NA, NA,
  37.                  0.708, 0.247, 0.182, 0.02, -0.186, -1.273, NA, NA,
  38.                  0.365, 0.262, -0.051, -0.386, -0.654, -2.813, NA, NA,
  39.                  0.438, -0.041, -0.223, -0.478, -0.777, -2.526, NA, NA,
  40.                  0.3,  -0.248,  -0.693,  -1.109,  -1.715,  -3.912,  NA,  NA,
  41.                  0.077,  -0.528,  -0.994,  -1.47,  -1.772,  NA,  NA,  NA,
  42.                  0.278,  -0.301,  -0.777, -1.273, -1.309, -3.507, -3.912,  NA,
  43.                  0.489, 0.01, -0.315, -0.598,  -0.892, NA, -2.813, -3.912,
  44.                  0.231,  -0.315,  -0.916,  -1.204,  -1.561,  NA,  NA,  NA,
  45.                  0.262,  -0.357,  -0.916,  -1.386,  -1.966,  NA,  NA,  NA),
  46.                .Dim = c(10,8)),
  47.         meen = c(0,0) ,
  48.         prec = structure(.Data = c(1.0E-6, 0,
  49.                                                                                                         0, 1.0E-6), .Dim = c(2, 2)),
  50.         R = structure(.Data = c(0.1, 0,
  51.                                                                                         0, 0.1), .Dim = c(2, 2))
  52. )


  53. #  Results:

  54.          node         mean         sd         MC error        2.5%        median        97.5%        start        sample
  55.         tauZ        48.04        10.63        0.08587        29.47        47.23        71.18        15001        30000

  56.          node         mean         sd         MC error        2.5%        median        97.5%        start        sample
  57.         betamu[1]        0.5504        0.07132        5.741E-4        0.4101        0.5504        0.6923        15001        30000
  58.         betamu[2]        -0.1734        0.04032        2.264E-4        -0.2538        -0.1732        -0.09241        15001        30000

  59.          node         mean         sd         MC error        2.5%        median        97.5%        start        sample
  60.         beta.s[1]        0.1882        0.05423        3.962E-4        0.1099        0.179        0.3205        15001        30000
  61.         beta.s[2]        0.1226        0.0312        2.027E-4        0.07893        0.117        0.2001        15001        30000

  62.          node         mean         sd         MC error        2.5%        median        97.5%        start        sample
  63.         beta[1,1]        0.4513        0.08549        5.126E-4        0.282        0.4517        0.6174        15001        30000
  64.         beta[1,2]        -0.1839        0.007822        4.595E-5        -0.1992        -0.1839        -0.1684        15001        30000
  65.         beta[2,1]        0.6701        0.0866        5.276E-4        0.5003        0.6695        0.8406        15001        30000
  66.         beta[2,2]        -0.08176        0.007807        4.652E-5        -0.09707        -0.0818        -0.06642        15001        30000
  67.         beta[3,1]        0.7337        0.08823        5.682E-4        0.5603        0.7335        0.9074        15001        30000
  68.         beta[3,2]        -0.1449        0.007888        4.572E-5        -0.1603        -0.1449        -0.1294        15001        30000
  69.         beta[4,1]        0.5682        0.08541        5.018E-4        0.4014        0.568        0.7361        15001        30000
  70.         beta[4,2]        -0.1302        0.00778        4.222E-5        -0.1454        -0.1302        -0.1149        15001        30000
  71.         beta[5,1]        0.4795        0.08555        5.251E-4        0.3111        0.4793        0.6469        15001        30000
  72.         beta[5,2]        -0.1888        0.00784        4.478E-5        -0.2044        -0.1888        -0.1735        15001        30000
  73.         beta[6,1]        0.4877        0.1175        8.276E-4        0.2556        0.4881        0.7176        15001        30000
  74.         beta[6,2]        -0.236        0.01869        1.263E-4        -0.2728        -0.236        -0.1992        15001        30000
  75.         beta[7,1]        0.3314        0.08402        5.465E-4        0.1664        0.3312        0.4959        15001        30000
  76.         beta[7,2]        -0.1579        0.005713        3.701E-5        -0.1694        -0.1578        -0.1468        15001        30000
  77.         beta[8,1]        0.5541        0.07686        4.27E-4        0.4033        0.5543        0.7057        15001        30000
  78.         beta[8,2]        -0.1324        0.004736        2.517E-5        -0.1417        -0.1323        -0.123        15001        30000
  79.         beta[9,1]        0.565        0.1176        7.793E-4        0.3344        0.5641        0.7992        15001        30000
  80.         beta[9,2]        -0.2199        0.01883        1.223E-4        -0.2577        -0.2199        -0.1829        15001        30000
  81.         beta[10,1]        0.6606        0.121        8.314E-4        0.4268        0.6579        0.9041        15001        30000
  82.         beta[10,2]        -0.2582        0.01917        1.234E-4        -0.2964        -0.2582        -0.2207        15001        30000
  83.        
  84.          node         mean         sd         MC error        2.5%        median        97.5%        start        sample
  85.         Z[1,7]        -4.698        0.2211        0.001421        -5.13        -4.696        -4.261        20001        20000
  86.         Z[1,8]        -5.437        0.2439        0.001726        -5.918        -5.438        -4.96        20001        20000
  87.         Z[2,7]        -1.619        0.2205        0.001582        -2.052        -1.62        -1.188        20001        20000
  88.         Z[2,8]        -1.946        0.2439        0.001722        -2.422        -1.947        -1.461        20001        20000
  89.         Z[3,7]        -3.322        0.2221        0.001519        -3.759        -3.321        -2.881        20001        20000
  90.         Z[3,8]        -3.902        0.2454        0.001757        -4.382        -3.902        -3.412        20001        20000
  91.         Z[4,7]        -3.079        0.2198        0.001387        -3.512        -3.08        -2.649        20001        20000
  92.         Z[4,8]        -3.597        0.2438        0.001533        -4.071        -3.597        -3.109        20001        20000
  93.         Z[5,7]        -4.808        0.2238        0.001537        -5.244        -4.809        -4.373        20001        20000
  94.         Z[5,8]        -5.566        0.2464        0.001634        -6.051        -5.565        -5.084        20001        20000
  95.         Z[6,6]        -5.178        0.3817        0.002857        -5.931        -5.179        -4.433        20001        20000
  96.         Z[6,7]        -6.123        0.4513        0.0034        -7.009        -6.121        -5.247        20001        20000
  97.         Z[6,8]        -7.068        0.5213        0.004193        -8.103        -7.064        -6.047        20001        20000
  98.         Z[7,8]        -4.721        0.1955        0.00144        -5.106        -4.721        -4.341        20001        20000
  99.         Z[8,6]        -2.623        0.1688        0.001209        -2.952        -2.623        -2.29        20001        20000
  100.         Z[9,6]        -4.715        0.3856        0.002935        -5.487        -4.712        -3.961        20001        20000
  101.         Z[9,7]        -5.592        0.454        0.003544        -6.49        -5.593        -4.696        20001        20000
  102.         Z[9,8]        -6.472        0.5228        0.003982        -7.515        -6.47        -5.44        20001        20000
  103.         Z[10,6]        -5.535        0.3918        0.002774        -6.304        -5.534        -4.76        20001        20000
  104.         Z[10,7]        -6.57        0.4621        0.003528        -7.498        -6.572        -5.675        20001        20000
  105.         Z[10,8]        -7.602        0.5338        0.004128        -8.658        -7.598        -6.556        20001        20000
复制代码

地板
Limdep(未真实交易用户) 发表于 2014-6-14 22:53:30
Bayesian Methods for Data Analysis 3rd Edition 2008

7
mw89(真实交易用户) 发表于 2014-8-7 21:51:48
looked for it for a long time. Thank you.

8
jmcheung(真实交易用户) 发表于 2014-12-13 19:29:58
thx very much!

9
jmcheung(真实交易用户) 发表于 2014-12-14 12:49:19
感谢楼主分享,顶

10
软式排球(真实交易用户) 发表于 2015-2-24 21:51:42
感谢分享,请问这本书有答案么?

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注jltj
拉您入交流群
GMT+8, 2026-1-6 08:19