분류 전체보기101 [Recommender System / Paper review] #27 Recurrent Recommender Networks 논문 링크(663회 인용) Summary cf에 temporal dynamics을 lstm으로 섞은 알고리즘을 제안한다. 유저와 아이템에 대한 sequential state을 가정하고 이를 통해 과거의 유저와 아이템의 상태가 현재 평점에 영향을 주도록 모델을 설계한다. 뿐만 아니라 stationary effect도 여전히 존재한다고 가정한다. 시간에 따라 변화하는 요인도 평점에 영향을 주지만 유저나 아이템이 가지고 있는 정적인 특징도 평점에 영향을 준다고 가정하는 것이다. 이 논문에서 강조하는 것은 현재 관측치를 기반으로 future bahavior을 예측할 수 있다는 것이다. 이는 timeSVD++가 가지고 있지 않은 기능이다. Motivation 기존에 제안되었던 probabilistic mf나 .. 2023. 5. 4. [Recommender System / Paper review] #26 Collaborative Metric Learning 논문 링크(472회 인용) Summary metric learning의 개념을 collaborative filtering에 적용하여 유저의 선호뿐만 아니라 유저간, 아이템간의 관계를 학습하는 collaborative metric learning (CML)을 제안한다. CML의 metric learning은 knn의 아이디어를 차용한다. 이는 각 object의 가장 가까운 k개의 이웃이 서로 같은 class label이면 된다는 것이다. target neighbors의 반경 아래에 다른 라벨을 가지는 데이터 (imposter)가 접근하지 못하도록 학습을 진행한다. 또한 학습 시에 하위 랭킹에 있는 결과에 penalty을 더 주는 방법과 item features을 통합하여 hybrid-rs로 접근하는 방법도.. 2023. 4. 26. [DL] Why multiple layer perceptron? 서울대학교 딥러닝 기초 강의를 듣고 정리하였다. 딥러닝은 입력과 출력간의 복잡한 관계를 비선형 함수로 근사하는 알고리즘이다. 이때 기본적으로 MLP라는 구조를 사용한다. 자세히 살펴보면.. perceptron이라는 것을 여러개의 층(multiple layer)으로 쌓는 방법이다. 이번 포스팅에서는 MLP라는 것이 무엇이며 딥러닝에서는 왜 MLP을 사용하는지 정리해보려고 한다. (틀린 내용이 있으면 언제든지 지적 환영!!!) 딥러닝이 충실해야하는 것 딥러닝은 입력과 출력간의 복잡한 관계를 주어진 데이터를 통해 학습한다. 학습한 내용을 바탕으로 미래에 데이터가 주어졌을 때 예상되는 출력을 뱉어낸다. 그런데 데이터가 주어졌을 때 딥러닝이 하는 연산을 사람이 직접할 수 없고 컴퓨터가하는데 따라서 딥러닝은 기본.. 2023. 4. 25. [Recommender System / Paper review] #25 AutoRec: Autoencoders Meet Collaborative Filtering 논문 링크(1137회 인용) Summary 유저x아이템 행렬은 보통 부분적으로 관측된다. 본 논문은 autoencoder을 통해 부분적으로 관측된 데이터를 저차원으로 projection하고 이를 다시 reconstruct하는 network을 학습함으로써 관측되지 않은 데이터를 복원하고자 한다. 유저x아이템 행렬에서 유저 벡터를 복원할 수도 있고 아이템 벡터를 복원할 수도 있다. 논문에서는 아이템를 autoencoder을 통해 복원하는 Item-based AutoRec을 제안한다. I-AutoRec은 encoder와 decoder 모두 one hidden layer로 구성된 아주 간단한 neural network이다. 실험을 통해 RBM 기반 CF에 비해 더 우수한 성능을 보임을 입증한다. Motivati.. 2023. 4. 25. [Recommender System / Paper review] #24 DeepFM: A Factorization-Machine based Neural Network for CTR Prediction 논문 링크(1898회 인용) Summary 구글에서 발표한 wide & deep neural network 논문에서 linear 특성을 반영하는 wide 부분을 factorization machine으로 변경한 모형을 제시한다. 구글 논문은 단순히 변수에 weight을 줘서 합하는 형태였다면, deepfm은 fm에서 제안한 방법을 사용한다. 즉, higher order interaction을 latent vector의 내적을 통해 모형에 포함한다. 중요한 부분은 fm에서 사용하는 변수의 dense latent feature을 deep neural network에서 범주형 변수를 임베딩 벡터로 만드는 과정에서 사용한다는 점이다. 이를 통해 low & high interaction의 효과를 모두 모형에 포함.. 2023. 4. 25. [Recommender System / Paper review] #23 Wide & Deep Learning for Recommender Systems 논문 링크(2942회 인용) Summary linear model과 deep neural networks을 동시에 학습함으로써 memorization과 generalization의 장점을 합치고자 한다. linear model을 통해 wide한 특징을, deep neural networks을 통해 deep한 특징을 모형에 녹여해는 것이다. linear model과 dep neural networks의 임베딩 결과를 concatenate하여 동일한 layer에서 network을 학습시킨다. 구글 app store 데이터에서 좋은 성능을 보임을 확인했다. Motivation 추천 시스템에서 logistic regression과 같은 generalized linear model은 간단하고 해석 가능하기 때문에.. 2023. 4. 23. 이전 1 ··· 4 5 6 7 8 9 10 ··· 17 다음