データ解析のための統計モデリング入門7章

> d4 <- d7[d7$x == 4,] #葉数4のサブセット
> table(d4$y) #生存数がyiだった個体をカウント

0 1 2 3 4 5 6 7 8 
3 1 4 2 1 1 2 3 3 
> c(mean(d4$y), var(d4$y)) #平均と分散
[1] 4.050000 8.365789
> library(glmmML)
> glmmML(cbind(y, N - y) ~ x, data = d7, family = binomial,  cluster = id) #glmmMLを使う

Call:  glmmML(formula = cbind(y, N - y) ~ x, family = binomial, data = d7,      cluster = id) 


              coef se(coef)      z Pr(>|z|)
(Intercept) -4.190   0.8777 -4.774 1.81e-06
x            1.005   0.2075  4.843 1.28e-06

Scale parameter in mixing distribution:  2.408 gaussian 
Std. Error:                              0.2202 

        LR p-value for H_0: sigma = 0:  2.136e-55 

Residual deviance: 269.4 on 97 degrees of freedom 	AIC: 275.4 

stanが導入出来ない

いろいろ参照してます
http://qh73xe.jimdo.com/r%E3%81%AE%E5%9F%BA%E6%9C%AC/r%E3%81%AE%E4%BE%BF%E5%88%A9%E3%81%AA%E9%96%A2%E9%80%A3%E3%82%BD%E3%83%95%E3%83%88/rtools/
http://tjo.hatenablog.com/entry/2013/10/04/190701
https://github.com/stan-dev/rstan/wiki/RStan-Getting-Started

source('http://mc-stan.org/rstan/install.R', echo = TRUE, max.deparse.length = 2000)
install_rstan()

公式のこのやり方でやろうとしたらまずdevtoolsがないと言われたのでインストール
また試みたらrtoolsがないと言われたのでインストール
http://cran.r-project.org/bin/windows/Rtools/
http://qh73xe.jimdo.com/r%E3%81%AE%E5%9F%BA%E6%9C%AC/r%E3%81%AE%E4%BE%BF%E5%88%A9%E3%81%AA%E9%96%A2%E9%80%A3%E3%82%BD%E3%83%95%E3%83%88/rtools/
ここがrtoolsのインストールの参考になります

でまた試みたらBHがない
でもBHは確かにインストールしてるのでここで詰まりました

あーでもないこーでもないといろいろやってダメだったのでググったら
https://groups.google.com/forum/#!msg/stan-users/lGIMXJf5P04/MvIRHzpTLh4J
これが出てきて解決しました

devtools::install_url("http://cran.r-project.org/src/contrib/Archive/BH/BH_1.55.0-3.tar.gz")
devtools::install_url("https://github.com/stan-dev/rstan/releases/download/v2.6.0/rstan_2.6.0.tar.gz")
library(rstan)
set_cppo("fast")

さすがグーグル先生です

データ解析のための統計モデリング入門6章

> summary(d)
       N           y              x          f     
 Min.   :8   Min.   :0.00   Min.   : 7.660   C:50  
 1st Qu.:8   1st Qu.:3.00   1st Qu.: 9.338   T:50  
 Median :8   Median :6.00   Median : 9.965         
 Mean   :8   Mean   :5.08   Mean   : 9.967         
 3rd Qu.:8   3rd Qu.:8.00   3rd Qu.:10.770         
 Max.   :8   Max.   :8.00   Max.   :12.440         
> logistic <- function(z) 1 / (1 + exp(-z)) #関数の定義
> z <- seq(-6, 6, 0.1)
> plot(z, logistic(z), type = "l")
> glm(cbind(y, N - y) ~ x + f, data = d, family = binomial)

Call:  glm(formula = cbind(y, N - y) ~ x + f, family = binomial, data = d)

Coefficients:
(Intercept)            x           fT  
    -19.536        1.952        2.022  

Degrees of Freedom: 99 Total (i.e. Null);  97 Residual
Null Deviance:	    499.2 
Residual Deviance: 123 	AIC: 272.2
> library(MASS) #stepAICを定義するMASSpackageを読み込み
> stepAIC(fit.xf)
Error in terms(object) : object 'fit.xf' not found
> fit.xf <- glm(cbind(y, N - y) ~ x + f, data = d, family = binomial)
> stepAIC(fit.xf)
Start:  AIC=272.21
cbind(y, N - y) ~ x + f

       Df Deviance    AIC
<none>      123.03 272.21
- f     1   217.17 364.35
- x     1   490.58 637.76

Call:  glm(formula = cbind(y, N - y) ~ x + f, family = binomial, data = d)

Coefficients:
(Intercept)            x           fT  
    -19.536        1.952        2.022  

Degrees of Freedom: 99 Total (i.e. Null);  97 Residual
Null Deviance:	    499.2 
Residual Deviance: 123 	AIC: 272.2
> glm(cbind(y, N - y) ~ x * f, family = binomial, data = d)

Call:  glm(formula = cbind(y, N - y) ~ x * f, family = binomial, data = d)

Coefficients:
(Intercept)            x           fT         x:fT  
  -18.52332      1.85251     -0.06376      0.21634  

Degrees of Freedom: 99 Total (i.e. Null);  96 Residual
Null Deviance:	    499.2 
Residual Deviance: 122.4 	AIC: 273.6

欲しい本

Rによるベイジアン動的線形モデル (統計ライブラリー)

Rによるベイジアン動的線形モデル (統計ライブラリー)

統計モデル入門 (医学統計学シリーズ)

統計モデル入門 (医学統計学シリーズ)

状態空間時系列分析入門

状態空間時系列分析入門

経済・ファイナンスデータの計量時系列分析 (統計ライブラリー)

経済・ファイナンスデータの計量時系列分析 (統計ライブラリー)

この辺

続・わかりやすいパターン認識

第1章 ベイズ統計学
試行と事象/ベイズの定理/頻度から確信度ヘ/逆確率 -結果から原因を-/三つの扉問題
第2章 事前確率と事後確率
事後確率の計算/ベイズ更新/ベイズ更新の実験
第3章 ベイズ決定則
パターン認識/事後確率最大化/事前確率の効果/ベイズ誤り確率
第4章 パラメータ推定
学習とパラメータ推定/最尤推定/ベイズ推定/ベータ分布/共役事前分布/ベイズ推定における推定値の特定/ベイズ推定の実験/最尤推定ベイズ推定との比較/ディリクレ分布
第5章 教師付き学習と教師なし学習
学習のための二つの観測方法/最尤推定に必要な数学/教師付き学習/教師なし学習(パラメータπiの推定/パラメータθikの推定/推定結果の妥当性/教師付き学習との関係/教師なし学習アルゴリズムの演算 教師なし学習の実験)
第6章 EMアルゴリズム
教師なし学習に伴う問題/log-sumからsum-logヘ/Q関数の特性/Q関数の最大化/EMアルゴリズムと補助関数法
第7章 マルコフモデル
マルコフ性マルコフモデル/マルコフモデルのパラメータ推定
第8章 隠れマルコフモデル
隠れマルコフモデルとは/前向き・後向きアルゴリズム/ビタービアルゴリズム/バウム・ウェルチアルゴリズム/隠れマルコフモデルによる識別系/隠れマルコフモデルの実験(前向きアルゴリズムの実験/ビタービアルゴリズムの実験/バウム・ウェルチアルゴリズムの実験/識別実験)
第9章 混合分布のパラメータ推定
混合分布に対するパラメトリックな学習/教師付き学習によるパラメータ推定/教師なし学習によるパラメータ推定(最適なパラメータ/教師付きの場合との対比/EMアルゴリズムとの関係)/混合正規分布のパラメータ推定/混合正規分布のパラメータ推定実験( 一次元正規分布/多次元正規分布/クラスタリングについて)
第10章 クラスタリング
クラスタリングとは/K-means法(δkに関する最小化/Piに関する最小化)/K-means法の実験(使用データおよびベイズ識別関数による決定境界/K-means法による決定境界)/K-means 法とEMアルゴリズム/凸クラスタリング法/凸クラスタリング法の実験/クラスタ数の推定
第11章 ノンパラメトリックベイズモデル
分割の確率モデル/ホップの壺モデル/中華料理店過程/事前確率のための確率モデル/ ディリクレ分布から分割ルールヘ/ディリクレ過程の数学(ディリクレ過程の定義/確率分布G(θ)の形状/棒折り過程)
第12章 ディリクレ過程混合モデルによるクラスタリング
ディリクレ過程混合モデルとその学習法/ノンパラメトリックベイズモデルの実験(基底分布の設定/クラスタリング法1の実験/クラスタリング法2の実験)
第13章 共クラスタリング
関係データに対する共クラスタリング/無限関係モデル(IRM) /IRMの学習
付録A 補足事項

続・わかりやすいパターン認識―教師なし学習入門―

続・わかりやすいパターン認識―教師なし学習入門―

内容がとてもヘビーになって続編が登場

言語処理のための機械学習入門

1 必要な数学的知識
2 文書および単語の数学的表現
3 クラスタリング
4 分類
5 系列ラベリング
6 実験の仕方など

言語処理のための機械学習入門 (自然言語処理シリーズ)

言語処理のための機械学習入門 (自然言語処理シリーズ)

わかりやすいパターン認識

第1章 パターン認識とは
第2章 学習と識別関数
第3章 誤差評価に基づく学習
第4章 識別部の設計
第5章 特徴の評価とベイズ誤り確率
第6章 特徴空間の変換
第7章 部分空間法
第8章 学習アルゴリズムの一般化
第9章 学習アルゴリズムベイズ決定則

わかりやすいパターン認識

わかりやすいパターン認識