SlideShare a Scribd company logo
1 of 24
10.6 変分ロジスティック回帰 2010/4/10 江原 遥 PRML読書会 1
説明の流れ 導入:ロジスティック回帰の説明 10.6.1 超パラメータ固定で,変分近似して変分パラメータξnが与えられた時の更新式を求めるところまで 10.6.2 変分パラメータξnの更新式を求める. 更新式(バッチ版)まとめ.オンライン版も. 10.6.3 事前分布がN(0,α-1I)と簡単な場合に超パラメータも最適化 2
ロジスティック回帰 2値ロジスティック回帰 参考:多値ロジスティック回帰 3 t∈{1,0} シグモイド関数 大事なこと: 回帰と言いながら教師あり分類問題 ソフトマックス関数
宣伝+α ロジスティック回帰は色々な名前で知られている: 最大エントロピー法,Log-linearモデル,項目反応理論 TOEICやTOEFLの問題の難易度や被験者の能力は,裏でwの値を見ている(たぶん). ユーザが知らない語を(オンライン学習で) 予測して勝手に辞書を引いてくれるシステム ->変分ロジスティック回帰のオンライン版をあわよくば使おうと…画策中.(GW中ぐらい?) 4
シグモイド関数の性質 2値ロジスティック回帰 解析的に積分できない 5 10.148 σの微分もσで表せる ln σの微分もσで表せる
10.6.1 最大化したい周辺尤度は, 6 10.147 10.152 これならwの指数二次形式だから積分(正規化)できる. 積分を阻害 個々のデータ点に対して変分パラメータξnがある
変分下限 7 nがついているので局所 近似 変分下限を最大化 積分を阻害
10.152のために10.144がある 8 10.152 10.144から, 10.149 局所的な変分下限 10.148 データがN個あるので 10.153
wに関する二次関数 9 10.155 wの二次関数.次数ごとに係数を見比べて: 10.156~158 残された問題:変分パラメータξをどう決めるか?->10.6.2へ
10.6.2 変分パラメータξの最適化 Lをξに関して最大化したい.方法は2通り. wを潜在変数とみなしてEMアルゴリズム w に対する積分を計算してξを直接最大化 w に対する積分後,ξnで微分すると1.と同じ形に 1.から考えていく. 10 10.159
w潜在変数のEMアルゴリズム (1) 11 10.160~161 を代入すると,
w潜在変数のEMアルゴリズム (2) 12 ξnで微分して,0と置くと, 演習10.33 10.162 λ’(ξn)!=0だから, 10.163
wに関する積分を実行 (1) 13 (演習10.35) 10.159
wに関する積分を実行 (2) 14 10.164 これをξnに関して最大化(演習10.34)
バッチ版計算法まとめ(p.216頭) initialization:変分パラメータξoldの初期化 E-step M-step 15 10.156~158 10.163 EとMをξが適当な収束基準を満たすまで繰り返す. 実際には,通常,数回の繰り返ししか必要としない
オンライン化の指針 (演習10.32) initialization:変分パラメータξoldの初期化 E-step M-step 16 10.156~158 ,[object Object]
SNの逆行列計算にWoodburyの公式を使える10.163 まだ来ていないデータは使えないので来ているデータだけを使う ->バッチほどには変分パラメータを最適値に近づけられない
オンライン版計算法まとめ 17 逆行列の計算量 dxd行列でd3 形を限定してd2に するのがWoodbury (1つ前のM-step)
図10.13 18 予測分布の等高線はデータから離れるにしたがって開いており,それらの領域では分類の不確実性が高いことを示している. p(w|t)から5つ分離境界をサンプルしました. SVMみたいで綺麗でしょ! 真ん中は曖昧だよね!
10.6.3 超パラメータの推論 19 今までは超パラメータm0やS0が与えられているとして, p(w)=N(w|m0, S0)を考えていた.超パラメータも最適化するには? ここでは,もうちょっと簡単な次の場合を考える. 10.165~168 この積分が実行できない まず,大域的な変分法でp(t)の下限L(q)を求める p(t|w)はシグモイド関数なので,まだ積分できない
局所的変分法 20 局所的変分法 10.173 ←10.9 より, wに関する二次形式
平方完成して最適化 21 10.174~176
q(α),変分パラメータξの最適化 22 10.180,181 ξの最適化は10.163と同じ 10.177~179
10.6.3 超パラメータの推論まとめ 23 付録Bより

More Related Content

What's hot

PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)RyuichiKanoh
 
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似KokiTakamiya
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4matsuolab
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRDaisuke Yoneoka
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門shima o
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章YosukeAkasaka
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心takehikoihayashi
 
スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習hagino 3000
 
強化学習その3
強化学習その3強化学習その3
強化学習その3nishio
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法Deep Learning JP
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説Shiga University, RIKEN
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
5分でわかるベイズ確率
5分でわかるベイズ確率5分でわかるベイズ確率
5分でわかるベイズ確率hoxo_m
 
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Shohei Taniguchi
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデルKei Nakagawa
 

What's hot (20)

PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
 
スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習
 
強化学習その3
強化学習その3強化学習その3
強化学習その3
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
5分でわかるベイズ確率
5分でわかるベイズ確率5分でわかるベイズ確率
5分でわかるベイズ確率
 
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 

More from Yo Ehara

EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai Yo Ehara
 
Semi-supervised Active Learning Survey
Semi-supervised Active Learning SurveySemi-supervised Active Learning Survey
Semi-supervised Active Learning SurveyYo Ehara
 
Tokyo nlp #8 label propagation
Tokyo nlp #8 label propagationTokyo nlp #8 label propagation
Tokyo nlp #8 label propagationYo Ehara
 
Acl yomikai, 1016, 20110903
Acl yomikai, 1016,  20110903Acl yomikai, 1016,  20110903
Acl yomikai, 1016, 20110903Yo Ehara
 
Icml yomikai 07_16
Icml yomikai 07_16Icml yomikai 07_16
Icml yomikai 07_16Yo Ehara
 
Gengo Africa
Gengo AfricaGengo Africa
Gengo AfricaYo Ehara
 
Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Yo Ehara
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226Yo Ehara
 
Tsukuba.R #7 5/9
Tsukuba.R #7 5/9Tsukuba.R #7 5/9
Tsukuba.R #7 5/9Yo Ehara
 
Prml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリングPrml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリングYo Ehara
 
SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会Yo Ehara
 

More from Yo Ehara (11)

EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai
 
Semi-supervised Active Learning Survey
Semi-supervised Active Learning SurveySemi-supervised Active Learning Survey
Semi-supervised Active Learning Survey
 
Tokyo nlp #8 label propagation
Tokyo nlp #8 label propagationTokyo nlp #8 label propagation
Tokyo nlp #8 label propagation
 
Acl yomikai, 1016, 20110903
Acl yomikai, 1016,  20110903Acl yomikai, 1016,  20110903
Acl yomikai, 1016, 20110903
 
Icml yomikai 07_16
Icml yomikai 07_16Icml yomikai 07_16
Icml yomikai 07_16
 
Gengo Africa
Gengo AfricaGengo Africa
Gengo Africa
 
Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226
 
Tsukuba.R #7 5/9
Tsukuba.R #7 5/9Tsukuba.R #7 5/9
Tsukuba.R #7 5/9
 
Prml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリングPrml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリング
 
SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会
 

PRML10.6 変分ロジスティック回帰