SlideShare a Scribd company logo
1 of 61
Download to read offline
推薦の因果効果にもとづく
ランキング手法と評価手法
CFML勉強会 (2022/07/02)
自己紹介
• 2013年くらいから情報推薦技術の研究
• 最近はバイオや医療関連も
• 家に犬がいます
1
これまでの主な研究
• Modeling Individual Users‘ Responsiveness to Maximize Recommendation Impact
(UMAP ‘16)
<- 推薦に対する反応の個人化と購入率の伸び(=因果効果)の最大化
• Explaining Recommendations Using Contexts (IUI ‘18)
<- 行動誘発(=因果効果)につながるコンテキストを用いた推薦説明
• Uplift-based Evaluation and Optimization of Recommenders (RecSys ‘19)
<- 推薦による伸び(=アップリフト=因果効果)の評価とモデル最適化
• Unbiased Learning for the Causal Effect of Recommendation (RecSys ‘20)
<- 推薦の因果効果をIPSで推定してランキング学習
• Causality-Aware Neighborhood Methods for Recommender Systems (ECIR ‘21)
<- 推薦の因果効果をMatching estimatorで推定してランキング
• Online Evaluation Methods for the Causal Effect of Recommendations (RecSys
‘21)
<- 推薦の因果効果のオンライン評価方法
2
アウトライン
• なぜ因果効果?(10分)
• ランキング手法(15分)
• オンライン評価手法(5分)
3
なぜ因果効果?
4
推薦システムの(ビジネス上の)目的
• ECサイト:
購入数増加→売上増加
• 動画/音楽視聴サービス:
視聴数増加→エンゲージメント向上
[Jannach ‘19] Measuring the Business Value of Recommender System
購入や視聴などのユーザー行動を
増やしたい
5
一般的な推薦システム
1. ユーザーの嗜好(行動傾向)を学習
2. ユーザーの行動(購入/視聴)を予測
3. 購入/視聴の確率が高いアイテムを推薦
4. 推薦したアイテムを購入/視聴したら成功
6
一般的な推薦システム
1. ユーザーの嗜好(行動傾向)を学習
2. ユーザーの行動(購入/視聴)を予測
3. 購入/視聴の確率が高いアイテムを推薦
4. 推薦したアイテムを購入/視聴したら成功
推薦しなくても購入/視聴してたかも?
推薦したからこその購入/視聴でないと、
ユーザー行動は増えない。
7
推薦有無の行動の場合分け
推薦したとき
の行動
推薦しなかったとき
の行動 行動変化
+1
0
0
➖1
8
A
C
D
B
アイテム
• 推薦有無の行動で4タイプに分かれる
(ユーザーの行動を購入/視聴の有無で二値化)
• Aタイプの推薦は従来評価だと「成功」だが行動増えない
• Bタイプのアイテムを推薦したい
[Sato ‘19] Uplift-based Evaluation and Optimization of Recommenders
推薦有無の行動の場合分け
推薦したとき
の行動
推薦しなかったとき
の行動 行動変化
+1
0
0
➖1
9
A
C
D
B
アイテム
• 推薦してない状況下の行動履歴から学習すると(従来手法の
大半)、AとDを推薦してしまう
• 推薦アイテムの行動履歴から学習した場合(bandit学習やoff-
policy学習)は、AとBを推薦してしまう
[Sato ‘19] Uplift-based Evaluation and Optimization of Recommenders
• 因果推論の枠組みで考える
• Bタイプのアイテム=因果効果の大きいアイテムを推薦したい
推薦有無の行動の場合分け
+1
0
0
➖1
10
A
C
D
B
アイテム
Causal effect
Potential outcomes
[Sato ‘19] Uplift-based Evaluation and Optimization of Recommenders
問題設定
• ユーザーの商品購入や動画視聴を増やす
• 因果効果 で推薦リストをランキング、評価する
11
Aタイプの想定事例
• ECサイト:
すでに買いたいものが決まっている
→オススメされなくても検索して自分で見つけて買う
• 動画視聴サービス:
ある映画監督のファンで作品はすべて把握している
→オススメしなくてもその監督の新作は視聴する
• 論文のレコメンド:
メジャーな国際会議や代表的な研究者はチェックしている
→上記の範囲で関連論文があれば自分で見つけて読む
12
セレンディピティとの関連
• ユーザー視点だと、セレンディピティを目指した推薦に近い
• セレンディピティはユーザー満足度につながる [Kotkov ‘18]
13
Serendipity = Relevance & Novelty & Unexpectedness
The user would not have
found this item on their own
(without recommendation)
[Kotkov ‘18] Investigating Serendipity in Recommender Systems Based on Real User Feedback
推薦したとき
の行動
推薦しなかったとき
の行動 行動変化
+1
B
アイテム
推薦の因果効果は現実的に重要?
• 実際にAタイプ(推薦有無に関わらず行動)はありうるのか?
→Amazonのオススメのクリックの75%以上は、
オススメしなくてもクリックされる(という分析報告)
14
[Sharma ‘15] Estimating the Causal Impact of Recommendation Systems from Observational Data
推薦の因果効果は現実的に重要?
• 行動率が高いアイテムを推薦すれば行動増加も大きい?
→購入率が高い商品と、購入増加が大きい商品は異なる
推薦なしの購入率(予測)
推薦したときの購入率
(実測)
推薦による伸び
15
[Sato ‘16] Modeling Individual Users‘ Responsiveness to Maximize Recommendation Impact
推薦の因果効果は現実的に重要!
• 因果効果の高い推薦をどう実現するか?
→因果効果順にアイテムをランキングする手法
• 推薦の因果効果をどう(効率的に)評価するか?
→推薦システムの因果効果のオンライン比較評価手法
16
ランキング手法
17
実現したいランキング
• ユーザーごとに各アイテムの因果効果を推定し、推定値の順
にアイテムをランキング
• ランキング上位を推薦する
18
0.5
0.3
0.4
1
2
3
ranking
4
5
0.2
0.1
評価指標
• ランキング評価指標の因果効果版
19
ランキング順位
モデルの出力スコア
ランキング順に依存した重み
行動有無 因果効果
[Sato ‘20] Unbiased Learning for the Causal Effect of Recommendation
↓ AUCにほぼ比例
↑ normalizeしていないNDCG
アプローチ1
• 推薦有無のPotential outcomesをそれぞれ推定し、その差分
を因果効果の推定値としてランキング
• [Bodapati ‘08]: 推薦するとexposureが100%になるexposure model
• RecResp [Sato’16]: 推薦の影響度変数をユーザー/アイテムごとに
• CUBN/CIBN [Sato ‘21]: (あとで紹介)
• CausCF [Xie ‘21]: 推薦の影響をpairwise tensor factorizationで表現
20
[Bodapati ‘08] Recommendation Systems with Purchase Data
[Sato ‘16] Modeling Individual Users‘ Responsiveness to Maximize Recommendation Impact
[Sato ‘21] Causality-Aware Neighborhood Methods for Recommender Systems
[Xie ‘21] CausCF: Causal Collaborative Filtering for Recommendation Effect Estimation
アプローチ2
• 因果効果順のランキングになるようなスコアを学習(ランキン
グ学習)
• ULBPR/ULRMF [Sato ‘19]: ユーザー行動を4つにわけ、それぞれが
タイプA~Dのどれを含むかをもとに学習データサンプリング
• DLCE [Sato ‘20]: (あとで紹介)
• DRUL [Xiao ‘22]: doubly robustで因果効果を推定してCausal DCG
を最適化
21
[Sato ‘19] Uplift-based Evaluation and Optimization of Recommenders
[Sato ‘20] Unbiased Learning for the Causal Effect of Recommendation
[Xiao ‘22] Towards Unbiased and Robust Causal Ranking for Recommender Systems
• 個々のuser-itemペアに対するground truthが得られない!
評価・学習の難しさ: Unobservable Nature
推薦したとき
の行動
推薦なしでの
行動
どちらか一方しか観測
できない!
両方わからないと算出
できない
22
• 推薦有無( )とpotential outcomes( , )の両方が、ユー
ザーやアイテムの特性( , )に依存するため、confounding
biasが生じる。
因果効果推定の難しさ:Confounding Bias
23
[Sato ‘20] Unbiased Learning for the Causal Effect of Recommendation
バイアス除去の方法
• 因果推論の不偏推定の手法が用いられる
• CUBN/CIBN [Sato ‘21] <- Matching estimator
• DLCE [Sato ‘20] <- Inverse propensity scoring (IPS) estimator
• DRUL [Xiao ‘22] <- Doubly robust (DR) estimator
24
[Sato ‘21] Causality-Aware Neighborhood Methods for Recommender Systems
[Sato ‘20] Unbiased Learning for the Causal Effect of Recommendation
[Xiao ‘22] Towards Unbiased and Robust Causal Ranking for Recommender Systems
バイアス除去の方法
• 因果推論の不偏推定の手法が用いられる
• CUBN/CIBN [Sato ‘21] <- Matching estimator
• DLCE [Sato ‘20] <- Inverse propensity scoring (IPS) estimator
• DRUL [Xiao ‘22] <- Doubly robust (DR) estimator
25
[Sato ‘21] Causality-Aware Neighborhood Methods for Recommender Systems
[Sato ‘20] Unbiased Learning for the Causal Effect of Recommendation
[Xiao ‘22] Towards Unbiased and Robust Causal Ranking for Recommender Systems
IPS-based Unbiased Estimator
評価指標の
IPS-based
estimator
観測不可能 観測可能
推薦の
有無
推薦される確率
(=“propensity”)
購入/視聴
26
Propensity Capping
• CappingしてVarianceを抑制
27
Ranking Optimization
• 因果効果版ランキング指標を最大化するようにモデルを学習
28
ランキング順位
モデルの出力スコア
全ユーザーのランキング指標平均値
指標を最大化(=指標のマイナスを最小化)
するようにモデルを選択する(≒モデルのパ
ラメータを最適化する)
因果効果の値は
IPS推定値を使う
ここではaverage rankを最適化
Unbiased Learning for Causal AR
• ランキング指標は微分不可なのでupper boundを導出
この2つの項に対してSGDで学習
29
(11,331 items)
Performance Comparison
(Dunnhumby data)
従来
手法
提案手法
Biased
not
学習手法の比較なので、モデル
は統一して Matrix factorization
評価指標CARでの比較
CARは小さい方
がよい指標
• Causal ARで最適化しているので、この指標の方が差が大き
い
Robustness to Miss-specified Propensity
Category-Original Product-Original
推定誤差の程度
提案手法にはPropensityが必要
->propensityのログなかったら推定必要
->推定誤差があっても大丈夫?
推定誤差の程度
1.0だと
propensityは
一様と予測
バイアス除去の方法
• 因果推論の不偏推定の手法が用いられる
• CUBN/CIBN [Sato ‘21] <- Matching estimator
• DLCE [Sato ‘20] <- Inverse propensity scoring (IPS) estimator
• DRUL [Xiao ‘22] <- Doubly robust (DR) estimator
33
[Sato ‘21] Causality-Aware Neighborhood Methods for Recommender Systems
[Sato ‘20] Unbiased Learning for the Causal Effect of Recommendation
[Xiao ‘22] Towards Unbiased and Robust Causal Ranking for Recommender Systems
Matching Estimator for Causal Inference
• 対象と類似したsubjectsをコントロール群から選んで(マッチさ
せて)、outcomeの差分から因果効果を推定する
34
Subject n (treated) Other untreated subjects (control)
?
Neighborhood method for Recommenders
• 類似ユーザーの行動から推定する(推薦技術の伝統的手法)
35
User u Other users
User-Based Neighborhood (UBN)
Causality-aware UBN
• 両者の考え方を合わせた手法
• 類似ユーザーからpotential outcomesを推定
36
indicator of recommendation
(=1, if recommended)
(=1, if Not recommended)
when u-i is recommended
in logged data
when u-i is not recommended
in logged data
Similarityの算出方法
• User similarity by outcomes (CUBN-O)
インタラクションするアイテムが似ているとsimilarとみなす
• User similarity by treatment assignments (CUBN-T)
推薦されているアイテムが似ているとsimilarとみなす
37
Shrinkage parameterの導入
• 近傍ユーザーが少なかったり、近傍ユーザーとの類似度が小
さいと、potential outcomesの推定誤差が大きくなる
• 推定誤差の大きいアイテムがたまたま上位にランキングされ
ると困る
• 類似度の和が小さいときは推定値が0に縮退するように補正
38
Performance Comparison (MovieLens)
39
Proposed
Methods
Previous
Methods for
this problem
or related
problem
-O: similarity by
-T: similarity by
Robustness to Propensity Unevenness
IPSはpropensityが極端に小さかったり大き
い場合にvarianceが大きくなる。
CUBNはその影響を受けにくいことを実証。
どの手法がよい?
• オフライン評価の結果からは概ね以下の通り
• [Bodapati ‘08] < RecResp [Sato’16] < ULBPR [Sato ‘19]
< DLCE [Sato ‘20] < CUBN [Sato ‘21] / DRUL [Xiao ‘22]
(CUBNとDRULの比較評価はまだない)
• しかしground truthがないため、評価自体もestimatorの性能
に依存
• シミュレートデータだとground truthがあるが、シミュレーター
の現実再現度に依存
• オンライン評価が必要
41
オンライン評価手法
42
2パターンのABテスト
• パターン1)推薦リスト内の平均インタ
ラクション数を比較
→ YTを評価しており、因果効果を評
価できていない
• パターン2)推薦していないアイテムも
含めてトータルのインタラクション数を
比較
→因果効果を評価できるが、評価ば
らつきが大きい
→多くのユーザーで評価する必要
(非効率!)
43
Item
Item
Item
Item
Item
Item
Item
Item
User in A group User in B group
Item
Item
Item
Item
Item
Item
Item
Item
Item
Item
Item
User in A group User in B group
…
Item
Item
Item
…
推薦
アイテム
(大量の)
非推薦
アイテム
非効率なオンライン評価の弊害
• モデルの優劣を判断するのに時間がかかる
• 評価したモデルが性能低かったときの悪影響が大きくなる
44
多くのユーザーの不満 売上低下による事業ダメージ
Boring! Boring!
非効率なオンライン評価の弊害
• モデルの優劣を判断するのに時間がかかる
• 評価したモデルが性能低かったときの悪影響が大きくなる
45
多くのユーザーの不満 売上低下による事業ダメージ
Boring! Boring!
推薦の因果効果に対する効率的
なオンライン評価手法が必要
• インターリービング:複数リストから交互挿入したリストを生成
し、生成リストをユーザーに提示して結果を集計
• 因果効果評価に必要な条件を満たすようにリストを生成し、非
推薦アイテムも観測
因果効果評価用のインターリービング手法
46
通常のイン
ターリービング
因果効果用のイ
ンターリービング
Do the above satisfying
(conditional) independence
and positivity
Only items in
interleaved list
( のみ観測)
Item
Item
Item
Item
Item
Item
Item
Item
Item
Item
Item
Item
Item
Item
Item
Item
Item
Item
Item
Item
Also items not in
interleaved list
( も観測)
リスト生成 結果の集計
[Sato ‘21] Online Evaluation Methods for the Causal Effect of Recommendations
• 以下のindependenceを満たすようにリスト生成
• ただし全アイテムに対してではなく、リストA,Bの和集合内のア
イテムに対して満たせばよい
提案手法1:EPI (Equal Probability
Interleaving) - RCT
47
[Sato ‘21] Online Evaluation Methods for the Causal Effect of Recommendations
Select n items with
equal probability
Simply takes the difference in average
outcomes of and
as in randomized controlled trials (RCT)
リスト生成 結果の集計
• propensityはリスト生成方法に依存するが既知
• 以下のconditional independenceが成り立つ
• あとはリストA,Bの和集合内でpositivityが成り立てばよい
提案手法2:CBI (Causal Balanced
Interleaving) - IPS
48
[Sato ‘21] Online Evaluation Methods for the Causal Effect of Recommendations
Select n items satisfying positivity Unbiased estimates by inverse
propensity scoring (IPS)
リスト生成 結果の集計
この研究ではリストA,Bから
バランスよく選択
• 評価に必要なユーザー数は、ABテストの約1/30
(ただしシミュレーションによる検証)
オンライン評価効率の検証実験
49
[Sato ‘21] Online Evaluation Methods for the Causal Effect of Recommendations
モデルの優劣を誤
判断する確率
AB-total: パターン2の推薦して
いないアイテムも含めてトータル
のインタラクション数を比較
まとめ
50
• 推薦の因果効果は売上やエンゲージメント向上のために重要
• 因果効果順にアイテムをランキングする手法
• アプローチA: 推薦有無のPotential outcomesをそれぞれ推定し、その
差分を因果効果の推定値としてランキング
• アプローチB:因果効果順のランキングになるようなスコアを学習(ランキ
ング学習)
• confounding biasに対処するためにIPSやmatching estimator
• 推薦システムの因果効果のオンライン比較評価手法
• 因果効果評価用のインターリービング
まとめ
51
• オフライン評価の精度はまだまだ低い (doubly robustでも)
• 推薦リスト内のアイテム間の独立性を仮定(no interference)
• 表示位置等に関わらず同じ推薦と仮定(no multiple versions)
• (同じアイテムの)リピート購入や繰り返し推薦の扱い
• 本当のオンライン評価は未実施
• ユーザー満足度の評価も未実施
Limitation (Future Work)
52
APPENDIX
53
よく推薦されるアイテムの傾向
54
[Sato ‘19] Uplift-based Evaluation and Optimization of Recommenders
よく推薦されるアイテムの傾向
55
[Xiao ‘22] Towards Unbiased and Robust Causal Ranking for Recommender Systems
Performance Comparison
56
Performance Comparison
57
Performance Comparison
58
[Sato ‘21] Causality-Aware Neighborhood Methods for Recommender Systems
Performance Comparison
59
提案手法
精度重視の手法
因果効果ランキ
ングの従来手法
[Xiao ‘22] Towards Unbiased and Robust Causal Ranking for Recommender Systems
Off-Policy Evaluation Performance
60
[Xiao ‘22] Towards Unbiased and Robust Causal Ranking for Recommender Systems

More Related Content

What's hot

【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)Deep Learning JP
 
混合モデルを使って反復測定分散分析をする
混合モデルを使って反復測定分散分析をする混合モデルを使って反復測定分散分析をする
混合モデルを使って反復測定分散分析をするMasaru Tokuoka
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会takehikoihayashi
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured PredictionDeep Learning JP
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展Shiga University, RIKEN
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門hoxo_m
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
AbemaTVにおける推薦システム
AbemaTVにおける推薦システムAbemaTVにおける推薦システム
AbemaTVにおける推薦システムcyberagent
 
【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...
【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...
【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...Deep Learning JP
 
ナレッジグラフ入門
ナレッジグラフ入門ナレッジグラフ入門
ナレッジグラフ入門KnowledgeGraph
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
メルペイの与信モデリングにおける特徴量の品質向上の施策
メルペイの与信モデリングにおける特徴量の品質向上の施策メルペイの与信モデリングにおける特徴量の品質向上の施策
メルペイの与信モデリングにおける特徴量の品質向上の施策Mai Nakagawa
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画までShunji Umetani
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38horihorio
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 

What's hot (20)

【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
 
混合モデルを使って反復測定分散分析をする
混合モデルを使って反復測定分散分析をする混合モデルを使って反復測定分散分析をする
混合モデルを使って反復測定分散分析をする
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
AbemaTVにおける推薦システム
AbemaTVにおける推薦システムAbemaTVにおける推薦システム
AbemaTVにおける推薦システム
 
【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...
【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...
【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...
 
ナレッジグラフ入門
ナレッジグラフ入門ナレッジグラフ入門
ナレッジグラフ入門
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
メルペイの与信モデリングにおける特徴量の品質向上の施策
メルペイの与信モデリングにおける特徴量の品質向上の施策メルペイの与信モデリングにおける特徴量の品質向上の施策
メルペイの与信モデリングにおける特徴量の品質向上の施策
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 

Similar to CFML_learning_sato.pdf

20220521_IR_reading_Sato.pptx
20220521_IR_reading_Sato.pptx20220521_IR_reading_Sato.pptx
20220521_IR_reading_Sato.pptxMasahiro Sato
 
情報アクセス技術のためのテストコレクション作成
情報アクセス技術のためのテストコレクション作成情報アクセス技術のためのテストコレクション作成
情報アクセス技術のためのテストコレクション作成kt.mako
 
[DL輪読会]Adversarial Counterfactual Learning and Evaluation for Recommender System
[DL輪読会]Adversarial Counterfactual Learning and Evaluation for Recommender System[DL輪読会]Adversarial Counterfactual Learning and Evaluation for Recommender System
[DL輪読会]Adversarial Counterfactual Learning and Evaluation for Recommender SystemDeep Learning JP
 
[DL輪読会]Off-policy Learning in Two-stage Recommender Systems (WWW2020)
[DL輪読会]Off-policy Learning in Two-stage Recommender Systems (WWW2020) [DL輪読会]Off-policy Learning in Two-stage Recommender Systems (WWW2020)
[DL輪読会]Off-policy Learning in Two-stage Recommender Systems (WWW2020) Deep Learning JP
 
RecSys2020論文読み会
RecSys2020論文読み会RecSys2020論文読み会
RecSys2020論文読み会Masahiro Sato
 
データアカデミー Step8 政策評価トレーニング
データアカデミー Step8 政策評価トレーニングデータアカデミー Step8 政策評価トレーニング
データアカデミー Step8 政策評価トレーニングHiroyuki Ichikawa
 
WWW2017 Recommender Systems ふりかえり
WWW2017 Recommender Systems ふりかえりWWW2017 Recommender Systems ふりかえり
WWW2017 Recommender Systems ふりかえりyyammt
 
connectionpool 事業概要書
connectionpool 事業概要書connectionpool 事業概要書
connectionpool 事業概要書Yu Ito
 
Measuring the-user-experience ch10
Measuring the-user-experience ch10Measuring the-user-experience ch10
Measuring the-user-experience ch10Naoya Otani
 
平成27年9月29日 大学監査協会講演資料
平成27年9月29日 大学監査協会講演資料平成27年9月29日 大学監査協会講演資料
平成27年9月29日 大学監査協会講演資料Masao Mori
 
20170223 srws第八回 sof、grade、prospero登録
20170223 srws第八回 sof、grade、prospero登録20170223 srws第八回 sof、grade、prospero登録
20170223 srws第八回 sof、grade、prospero登録SR WS
 
20170223 srws第八回 sof、grade、prospero登録
20170223 srws第八回 sof、grade、prospero登録20170223 srws第八回 sof、grade、prospero登録
20170223 srws第八回 sof、grade、prospero登録SR WS
 
WWW2018 論文読み会 Web Search and Mining
WWW2018 論文読み会 Web Search and MiningWWW2018 論文読み会 Web Search and Mining
WWW2018 論文読み会 Web Search and Miningcyberagent
 

Similar to CFML_learning_sato.pdf (20)

20220521_IR_reading_Sato.pptx
20220521_IR_reading_Sato.pptx20220521_IR_reading_Sato.pptx
20220521_IR_reading_Sato.pptx
 
Recsys2018 unbiased
Recsys2018 unbiasedRecsys2018 unbiased
Recsys2018 unbiased
 
情報アクセス技術のためのテストコレクション作成
情報アクセス技術のためのテストコレクション作成情報アクセス技術のためのテストコレクション作成
情報アクセス技術のためのテストコレクション作成
 
[DL輪読会]Adversarial Counterfactual Learning and Evaluation for Recommender System
[DL輪読会]Adversarial Counterfactual Learning and Evaluation for Recommender System[DL輪読会]Adversarial Counterfactual Learning and Evaluation for Recommender System
[DL輪読会]Adversarial Counterfactual Learning and Evaluation for Recommender System
 
06 医学教育プログラム評価とPCM
06 医学教育プログラム評価とPCM06 医学教育プログラム評価とPCM
06 医学教育プログラム評価とPCM
 
[DL輪読会]Off-policy Learning in Two-stage Recommender Systems (WWW2020)
[DL輪読会]Off-policy Learning in Two-stage Recommender Systems (WWW2020) [DL輪読会]Off-policy Learning in Two-stage Recommender Systems (WWW2020)
[DL輪読会]Off-policy Learning in Two-stage Recommender Systems (WWW2020)
 
RecSys2020論文読み会
RecSys2020論文読み会RecSys2020論文読み会
RecSys2020論文読み会
 
科学技術コミュニケーション実践の評価Ver.3
科学技術コミュニケーション実践の評価Ver.3科学技術コミュニケーション実践の評価Ver.3
科学技術コミュニケーション実践の評価Ver.3
 
科学技術コミュニケーション実践の評価Ver.2
科学技術コミュニケーション実践の評価Ver.2科学技術コミュニケーション実践の評価Ver.2
科学技術コミュニケーション実践の評価Ver.2
 
Zansa0802
Zansa0802Zansa0802
Zansa0802
 
データアカデミー Step8 政策評価トレーニング
データアカデミー Step8 政策評価トレーニングデータアカデミー Step8 政策評価トレーニング
データアカデミー Step8 政策評価トレーニング
 
科学技術コミュニケーションと評価Ver.2.5
科学技術コミュニケーションと評価Ver.2.5科学技術コミュニケーションと評価Ver.2.5
科学技術コミュニケーションと評価Ver.2.5
 
WWW2017 Recommender Systems ふりかえり
WWW2017 Recommender Systems ふりかえりWWW2017 Recommender Systems ふりかえり
WWW2017 Recommender Systems ふりかえり
 
connectionpool 事業概要書
connectionpool 事業概要書connectionpool 事業概要書
connectionpool 事業概要書
 
Measuring the-user-experience ch10
Measuring the-user-experience ch10Measuring the-user-experience ch10
Measuring the-user-experience ch10
 
平成27年9月29日 大学監査協会講演資料
平成27年9月29日 大学監査協会講演資料平成27年9月29日 大学監査協会講演資料
平成27年9月29日 大学監査協会講演資料
 
20170223 srws第八回 sof、grade、prospero登録
20170223 srws第八回 sof、grade、prospero登録20170223 srws第八回 sof、grade、prospero登録
20170223 srws第八回 sof、grade、prospero登録
 
20170223 srws第八回 sof、grade、prospero登録
20170223 srws第八回 sof、grade、prospero登録20170223 srws第八回 sof、grade、prospero登録
20170223 srws第八回 sof、grade、prospero登録
 
yamasita m
yamasita myamasita m
yamasita m
 
WWW2018 論文読み会 Web Search and Mining
WWW2018 論文読み会 Web Search and MiningWWW2018 論文読み会 Web Search and Mining
WWW2018 論文読み会 Web Search and Mining
 

More from Masahiro Sato

RecSys2023論文読み会_LLMRec_佐藤.pdf
RecSys2023論文読み会_LLMRec_佐藤.pdfRecSys2023論文読み会_LLMRec_佐藤.pdf
RecSys2023論文読み会_LLMRec_佐藤.pdfMasahiro Sato
 
20211030 IR Reading Sato
20211030 IR Reading Sato20211030 IR Reading Sato
20211030 IR Reading SatoMasahiro Sato
 
Recsys2021_slides_sato
Recsys2021_slides_satoRecsys2021_slides_sato
Recsys2021_slides_satoMasahiro Sato
 
Recsys2018 item recommendation on monotonic behavior chains
Recsys2018 item recommendation on monotonic behavior chainsRecsys2018 item recommendation on monotonic behavior chains
Recsys2018 item recommendation on monotonic behavior chainsMasahiro Sato
 
20161001 kdd勉強会
20161001 kdd勉強会20161001 kdd勉強会
20161001 kdd勉強会Masahiro Sato
 
レコメンド研究のあれこれ
レコメンド研究のあれこれレコメンド研究のあれこれ
レコメンド研究のあれこれMasahiro Sato
 

More from Masahiro Sato (7)

RecSys2023論文読み会_LLMRec_佐藤.pdf
RecSys2023論文読み会_LLMRec_佐藤.pdfRecSys2023論文読み会_LLMRec_佐藤.pdf
RecSys2023論文読み会_LLMRec_佐藤.pdf
 
20211030 IR Reading Sato
20211030 IR Reading Sato20211030 IR Reading Sato
20211030 IR Reading Sato
 
Recsys2021_slides_sato
Recsys2021_slides_satoRecsys2021_slides_sato
Recsys2021_slides_sato
 
Recsys2018 item recommendation on monotonic behavior chains
Recsys2018 item recommendation on monotonic behavior chainsRecsys2018 item recommendation on monotonic behavior chains
Recsys2018 item recommendation on monotonic behavior chains
 
Recsys2016勉強会
Recsys2016勉強会Recsys2016勉強会
Recsys2016勉強会
 
20161001 kdd勉強会
20161001 kdd勉強会20161001 kdd勉強会
20161001 kdd勉強会
 
レコメンド研究のあれこれ
レコメンド研究のあれこれレコメンド研究のあれこれ
レコメンド研究のあれこれ
 

CFML_learning_sato.pdf