SlideShare a Scribd company logo
1 of 42
劣微分
Shinta Urakami
今回の目標
•劣微分というものについて,最低限のイ
メージとそのメリット(使用場所:Lasso)
について発表する.
• 数理的な最適化の話(共役関数とか)は今後勉強しながら
やっていく.
• まず,劣微分とは,,,
劣微分とは(ざっくりversion)
• まず,劣微分とは,,,
劣微分とは(ざっくりversion)
集合である
• まず,劣微分とは,,,
劣微分とは(ざっくりversion)
集合である
この確認はすごく大事である
なぜ,この確認が必要なのか(ざっくり)
• 微分と劣微分の関係性を見ていこう
なぜ,この確認が必要なのか(ざっくり)
• 微分と劣微分の関係性を見ていこう
劣微分は,微分の一般化
微分とは(一変数のとき)
ある関数 に対して,
導関数
この導関数を求めることを
「微分する」という.
微分とは(一変数のとき)
ある関数 に対して,
導関数
劣微分いつ使うの?
微分とは(一変数のとき)
ある関数 に対して,
導関数
微分と連続性の関係性
より必要になる.
微分と連続性の関係
• この世の関数なんでもかんでも,微分できるわけじゃない.
<微分可能性の定義>
微分可能性→関数のグラフがなめらか
数式でいうと,,
が, で微分可能のとき
が存在する
微分可能 連続
連続 微分可能
→
→
微分可能じゃない関数
連続であるが,微分可能
ではない(ノットなめらか)
例)
のとき,
右極限のときは1
左極限のときは-1
極限が一致せず,
微分不可能となる.
でも微分したい,,,,
基本的に絶対値は微分不可能
L1ノルム???絶対値 Lassoやん
<Lassoの目的関数>
でも微分したい,,,,
基本的に絶対値は微分不可能
L1ノルム???絶対値 Lassoやん
<Lassoの目的関数>
L1ノルム(微分不可能)を
含む関数を微分したい...
でも微分したい,,,,
基本的に絶対値は微分不可能
L1ノルム???絶対値 Lassoやん
<Lassoの目的関数>劣微分
劣微分とは(定義ベースで)
と凸関数 に関して,条件
を満たす, を点 における の劣勾配という.
劣勾配全体の集合を劣微分 と呼ぶ.
劣微分とは(定義ベースで)
と凸関数 に関して,条件
?
劣微分とは(定義ベースで)
と凸関数 に関して,条件
?
一変数における図的理解を行う
一変数関数における劣微分
• 一変数における凸関数 の のときの劣微分
傾き
関数 が. を通る傾き の直線より上側にあるような を
劣勾配という.
この列勾配の集合を劣微分という
なぜならこの条件を満たすものは複数あるから
要は,多変量に拡張しただけ
一変数
多変量
要は,多変量に拡張しただけ
一変数
多変量
n次元からスカラーに写像している
要は,多変量に拡張しただけ
一変数
多変量
計算結果はスカラーになる
劣微分とは
条件
要素
イメージ的にも,定義的にも劣微分が集合であることがわかる.
で考えてみよう
傾き
条件を満たす は,複数ある.
Ex.). = -0.2 も, = 0.7も劣勾配
で考えてみよう
傾き
条件を満たす は,複数ある.
Ex.). = -0.2 も, = 0.7も劣勾配
劣微分については
イメージできた.
で考えてみよう
傾き
条件を満たす は,複数ある.
Ex.). = -0.2 も, = 0.7も劣勾配
Lassoと劣微分の関係を
知りたい
Lasso
データ行列:
L1ノルム: L2ノルム:
正則化パラメータ:
回帰係数:
目的変数:
目的関数
Lasso
データ行列:
L1ノルム: L2ノルム:
正則化パラメータ:
回帰係数:
目的変数:
目的関数
どうやって求めるのか.
結論
で求める
軟閾値作要素
結論
で求める
軟閾値作要素
??????
結論
で求める
軟閾値作要素
なぜこの形になるか,
劣微分を使って説明
Lasso
L1ノルム=絶対値の和
微分不可能
劣微分使用
各列が直交で,長さが全て
を仮定.
微分していくぅ!(cv.金子)
で微分
に関しての微分
と同じ考え方
= 0のとき,微分不可能
もう一度再確認
のとき
劣微分
同様に
劣微分
まとめよう
劣微分の要素を とする.
について解く
まとめよう
の条件に当てはめると
正則化項の強さの話
ハイパーパラメータ
ここを強くすると,スパース
度合いも大きくなる
さきほどの式から明らか!
正則化項の強さの話
固定されてない値は であり,この
値が大きくなると,範囲も大きくなる
軟閾値作要素
さっきの条件分岐を関数にしただけ
軟閾値作用素
関数に置き換えているだけ
終わりに
• 劣微分,軟閾値作要素のイメージはつかめた.
• 今後はlasso含めての最適化を勉強していく.

More Related Content

What's hot

東京都市大学 データ解析入門 4 スパース性と圧縮センシング1
東京都市大学 データ解析入門 4 スパース性と圧縮センシング1東京都市大学 データ解析入門 4 スパース性と圧縮センシング1
東京都市大学 データ解析入門 4 スパース性と圧縮センシング1hirokazutanaka
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
強化学習その2
強化学習その2強化学習その2
強化学習その2nishio
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列Kenjiro Sugimoto
 
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築Kosuke Shinoda
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画までShunji Umetani
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定Hiroshi Nakagawa
 
バンディット問題について
バンディット問題についてバンディット問題について
バンディット問題についてjkomiyama
 
畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開 畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開 Shogo Muramatsu
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)Takao Yamanaka
 
ベイズ最適化
ベイズ最適化ベイズ最適化
ベイズ最適化MatsuiRyo
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定logics-of-blue
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
最適化超入門
最適化超入門最適化超入門
最適化超入門Takami Sato
 

What's hot (20)

東京都市大学 データ解析入門 4 スパース性と圧縮センシング1
東京都市大学 データ解析入門 4 スパース性と圧縮センシング1東京都市大学 データ解析入門 4 スパース性と圧縮センシング1
東京都市大学 データ解析入門 4 スパース性と圧縮センシング1
 
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM) 一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
強化学習その2
強化学習その2強化学習その2
強化学習その2
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
 
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定
 
バンディット問題について
バンディット問題についてバンディット問題について
バンディット問題について
 
畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開 畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
 
ベイズ最適化
ベイズ最適化ベイズ最適化
ベイズ最適化
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 

劣微分