Addressing Confounding Feature Issue for Causal Recommendation #19
Replies: 2 comments 2 replies
-
2. PROBLEM DEFINITIONConfounding feature (i.e. 교란변수, 교란특징) 정의
3. Method3.1 Causal View of Confounding Feature인과 그래프는 변수간의 관계를 시각화하여 데이터의 생성관계를 표시함
[문제 정의]
3.2 Deconfounding Causal Recommendation교란 변수 문제 해결 방법 탐색 3.2.1. Causal Intervention특정 원인 변수를 강제로 설정하여 결과로 인과관계 추정 e.g. 약물 X → 혈압 Y 의 효과를 알고 싶을 때, 운동 Z를 통제
do-calculus 로 back-door path 차단
3.2.1. Estimating 𝑃 (𝑌 |𝑈, 𝑑𝑜 (𝑋 ))Estimating 𝑃 (𝐴) : 교란특징은 K 개의 경우의 수이고 dataset D보다 수가 적음, 샘플 비율로 확률 값 근사 Estimating 𝑃(𝑌|𝑈,𝑋,𝐴) : 직접적으로 확률분포를 구할 수 없음, 추천에서는 희소성 때문에 D의 모든 경우의 수를 구할 수 없음, 머신러닝 모델로 확률 학습
Inference : do-calculus 를 위한 모델이 학습되었으니, 이를 활용해 교란특징의 영향을 없앤 추천스코어 계산 가능 3.3 Mixture-of-Experts Model Architecture위 모델은 모든 교란특의 경우의 수 만큼 계산이 반복되어야 함 (K 회) 𝑃 (𝐴) 분포로 𝑃(𝑦 = 1|𝑢,𝑑𝑜(𝑥))를 근사했기 때문에 함수의 기댓값을 근사하는 방식인 NWGM approximation 방법을 활용함 단, f(·)가 non-linear한 경우 성능이 떨어짐 → MoE (Mixture-of-Experts) 로 해결
3.4. Generality of DCR교란 변수의 다른 관계도 해결할 수 있는지 확인
따라서, 다양한 인과관계에서도 교란 특징 문제를 해결할 수 있는 것을 증명함 5. Experiments
5.1 Experimental Setting5.1.1 Datasets Training set : 교란 특징으로 편향된 데이터(시청이력) Test set : 교랸 특징에 대해 편향이 없는 데이터(시청피드백) i.e. explicit user interest
Kwai : Kuaishou 중국 short video 공유 플랫폼 [클릭, 좋아요 반응이 있음] Wechat : 텐센트가 개발한 중국 채팅 어플 → WeChat Big Data Challenge에서 short video 에 대한 고객 반응 데이터 활용 5.1.2 Compared Methods DCR-MoE : DCR 구조에 MoE 결합 (Neural Factorization Machines (NFM)를 backbone으로 활용) 다음 모델과 비교하여 confounding feature의 효과 제거 확인 correlation-based, IPW-based, fairness-oriented, and counterfactual inference based methods
Kwai의 상호작용 수가 WeChat 모다 많아 데이터셋별로 top-N 조절 5.2 RQ1: Performance ComparisonDCR-MoE의 성능이 가장 좋음 데이터 셋마다 성능 향상이 다른데, 이는 WeChat에 잠재적인 social network 효과와 데이터가 더 희소해서 성능향상 효과가 떨어지는 것으로 해석함
희소성에 따른 효과 검증 DCR-MoE가 active user에서 더 높은 성능향상이 있었음 → 𝑃 (𝑌 |𝑈 , 𝑑𝑜 (𝑋 ))는 더 많은 X - A 조합을 계산해야 하기 때문에 active user의 많은 데이터에서 인과 효과가 더 잘 반영됨 5.3 RQ2: Ablation Studies5.3.1 The Effectiveness of Intervention at Inference. (do-calculus)
5.3.2 The Importance of the MoE Model Architecture. MoE 활용 이유는 교란특징의 경우의 수를 한번에 계산하기 위함으로 속도를 측정해 MoE의 효과를 확인함 DCR-NFM-A는 단순 approximating 계산으로 속도는 빠르더라도 근사 방식에 의해 modeling fidelity를 잃음 MoE는 정보를 보존하여 modeling fidelity를 높게 유지함 5.3.3 Why Does MoE Bring Improvements? Kwai의 교란특징은 분균형되어 있었음 NFM-WA or DCR-NFM는 head에 있는 값에 학습이 편향되는 것에 비해 MoE는 각 expert가 각각의 교란특징 경우에 수에 따라 학습이 되기 때문에 long-tail 이슈의 영향을 더 받았음 → 각 expert의 BCE loss로 위 분석을 검증함, bar가 높을 수록 MoE의 loss가 NFM-WA 모델보다 낮음을 의미 (tail 일수록 NFM-WA의 loss가 높아짐) 5.3.4 Does DCR-MoE Really Address the Confounding Feature Issue? 교란 특징 문제를 실제 해결할 수 있는지 분석 |𝜌1/𝜌2 | 값이 1이 되도록 실제 시청(train)과 고객 반응(test)의 상관관계가 유사한 feature만을 선택하여 효과 검증 교란특징이 있는 경우 다른 모델보다 성능 향상이 높음을 확인 교란특징이 없는 경우 성능 향상이 거의 없음을 확인하여 교란특징 이슈를 해결함을 검증함 5.4 RQ3: Prediction Analyses교란특징 값 별로 데이터셋 분리 (영상 길이별로 데이터 분리후 성능 비교)
6 CONCLUSION교란 특징 문제를 인과 관점에서 분석하여 인과 해결법을 적용한 모델을 설계함 다양한 실험을 통해 인과효과를 검증함 향후 계획
Insight
|
Beta Was this translation helpful? Give feedback.
-
질문
|
Beta Was this translation helpful? Give feedback.
-
ABSTRACT
일부 피쳐는 유저가 원하지 않는 아이템임에도 불구하고 추천된다(interaction이 발생하게 한다). 예를 들어, 쇼츠는 영상이 짧기 때문에 유저가 원하지 않더라도 끝까지 시청하게 됨. 이렇게 되면 비디오의 길이같은 피쳐가 대부분의 (데이터에 따라 학습되는) 모델에 학습되었을 때, 짧은 영상 위주로 추천하는 편향이 발생하게 된다. 이렇게, 유저 선호도가 반영되진 않는데 interaction을 발생시키는 피쳐를 Confounding feature라고 하자.
본 논문은 이러한 문제를 인과적 관점에서 다루고, 수식화 할 것임. 크리에이터같은 변수는 confounding feature(쇼츠 길이)에도 영향을 미치고, 다른 아이템 피쳐에도 영향을 미친다. confounding feature가 유저-아이템 매칭에 있어서 뒷문 경로(Backdoor path)를 열어주고, 가짜 연관 관계를 만들어내는걸 목격함! 이러한 뒷문 경로의 영향 제거하기 위해서 Deconfounding Casual Recommendation(DCR)을 제안한다!
추가적으로, DCR에는 do-calculus라는 방법이 쓰이는데, 이게 시간 코스트가 높다. 이를 해결하기 위해 Mixture-of-Experts라는 방법도 제안함!
1 INTRODUCTION
Confounding feature란?
대부분의 추천 모델은 유저 선호도와 아이템 특징이 매칭됨으로써 interaction이 발생한다고 가정한다. 하지만, 어떤 피쳐는 interaction 발생에 직접적인 영향을 미친다.
유저 선호도가 반영되지 않는데도 interaction을 발생하게 하는 이러한 피쳐들을 Confounding feature라고 하자. 모델에 이런식으로 발생한 interaction 데이터로 학습시키면, 짧은 영상에 높은 스코어가 매겨지는 등 원치 않는 추천 편향이 발생한다. 심지어, 크리에이터들은 짧은 영상만 업로드하게 될 수도 있다.
Confounding feature를 어떻게 피할 수 있을까?
Confounding feature가 어떻게 영향을 미치는지에 대한 근본적인 이유 탐색
interaction 발생 과정을 인과 그래프로 나타내면 다음과 같다.
Figure 1. Interaction 발생 과정에 관한 인과그래프
명백한 것은, interaction 데이터로 학습한 모델 예측에 Confounding feature(A)가 영향을 미칠 것! 더 깊이 들여다보자면, Confounding feature(A)는 이 외 피쳐(X)와 interaction(Y) 사이의 허위 상관관계를 불러 일으키는 뒷문 경로(Backdoor path)를 열어준다.
$X \leftarrow Z \rightarrow A \rightarrow Y$
Confounding feature가 추천에 미치는 영향력을 제거하기 위하여, interaction(Y)에 대한 이 외의 피쳐(X), 또는 M의 인과적 효과(casual effect)를 측정해야 한다. 이를 위해, 개입(intervention)함으로써 뒷문 경로를 잘라내야한다.
다시 논문으로 돌아와서...
하지만 아이템 피쳐들은 보통 변하지 않는 변수이기 때문에,$X$ 에 대해 개입 실험을 수행하는 것은 어렵다...내 해석) $X$ 를 바꿔서 실험할 수가 없다.
대안적인 방법은 do-calculus[25]이다! 이는 관측 데이터에 대해 개입한 효과를 동일하게 볼 수 있다.
특히, 유저-아이템 매칭을$P(Y | U , do(X))$ 로서 접근하는 Deconfounding Casual Recommendation(DCR) 프레임워크를 제안합니다.$X$ )가 interaction($Y$ )에 미치는 영향을 제어하고, 유저($U$ )가 interaction($Y$ )에 미치는 영향만을 볼 수 있는 방법을 제시한다는 것?
내 해석) 이 외의 피쳐(
Mixture-of-Experts 아키텍쳐 도입.
한 발 더 나아가, Figure 1에서의 인과 그래프와 the backdoor adjustment[25]에 따르면,$P(Y | U, do(X))$ 는 $\Sigma_{a \in \mathcal{A}} P(Y|U, X, a)P(a) $ 와 동일하다. 무슨 뜻이냐면, 모든 confounding feature의 모든 값을 반복하여 $\Sigma_{a \in \mathcal{A}} P(Y|U, X, a)$ 에 $P(a) $ 만큼 weight를 주어서 가중합을 해야한다는 것이다.
Contribution 정리
1. 유명한 책인가?
[25] Judea Pearl의 Causality라는 책이 매우 유명한 책인가봅니다. 계속 인용돼요!
2. 백본 모델 처음본다.
Xiangnan He and Tat-Seng Chua. 2017. Neural Factorization Machines for Sparse Predictive Analytics. In Proceedings
of the 40th International ACM SIGIR conference on Research and Development in Information Retrieval. ACM, 355–364.
MoE의 백본으로 쓰인 NFM라는 모델은 2017년에 나온, 딥러닝과 FM을 합쳐놓은 추천 모델인가봐요!
4 RELATED WORK
Beta Was this translation helpful? Give feedback.
All reactions