ML&DL73 [Recommender System] 추천 모델 평가 지표 (1) NDCG 논문 링크 (5776회 인용)추천 시스템에서 모델의 성능을 비교하기 위한 평가 지표에 대해 살펴보고자 한다. 첫번째로, 많이 쓰이는 지표 중 하나인 Normalized Discounted Cumulative Gain (NDCG)에 대해 알아보자. Cumulative Gain, Discounted CG, Normalized DCG의 순서로 살펴볼 예정이다.Preliminary추천 알고리즘의 성능은 어떤 기준으로 평가할 수 있을까? 유저에게 K개의 아이템을 추천하는 상황을 생각해보자. 유저가 좋아하는 아이템이 상위에 있을 수록 '좋은 추천'이라고 말할 수 있다. 그렇다면 '유저가 좋아하는' 아이템은 어떻게 정의할까? 추천 시스템에서는 유저와 아이템간의 'relevance'을 정의하고 이 relevance가 .. 2024. 9. 18. [Recommender System / Paper review] #37 Revisiting Negative Sampling vs. Non-sampling in Implicit Recommendation 논문 링크(29회 인용)개인적으로 추천시스템의 여러 모델을 리뷰하고 pytorch 또는 numpy로 구현하는 프로젝트를 진행하고 있다. (PR은 언제나 환영!)https://github.com/bohyunshin/recommender GitHub - bohyunshin/recommender: Implementation of various recommender algorithmImplementation of various recommender algorithm. Contribute to bohyunshin/recommender development by creating an account on GitHub.github.com 아직 초기 단계로, 추천 시스템의 가장 기본인 행렬 분해 (matrix facto.. 2024. 9. 14. [DL][Implementation] Numpy을 사용하여 CNN 구현하기 이번 포스팅에서는 numpy을 사용하여 간단한 cnn을 구현해본다. 모든 코드는 아래 repository에서 가져왔다.https://github.com/bohyunshin/deep-learning-with-pure-numpy GitHub - bohyunshin/deep-learning-with-pure-numpyContribute to bohyunshin/deep-learning-with-pure-numpy development by creating an account on GitHub.github.comchannel이 없는 2차원 데이터 (이미지)를 받아서 convolution 연산을 하고 max pooling, relu을 거쳐서 최종 클래스의 개수만큼의 logits을 반환하는 neural networ.. 2024. 8. 31. [DL][Implementation] Backpropagation in convolution 저번 포스팅에서는 numpy을 사용하여 mlp을 구현해보았다.https://steady-programming.tistory.com/88 [DL][Implementation] Numpy을 사용하여 MLP 구현하기backpropagation을 수식으로 공부하다가, pytorch로 쓱 하고 지나갈 개념이 아닌 것 같다는 생각이 들었다. 모든 딥러닝 문제에서는 gradient descent을 사용해서 optimal parameter을 찾고 그 과정에서 backpropagatsteady-programming.tistory.comlinear layer에서 weight, bias의 backpropagation을 직접 구현해보며 이해도를 높일 수 있었다. 이번 포스팅에서는 convolution neural networ.. 2024. 8. 31. [ML / DL] Backpropagation in softmax function 본 포스팅에서는 정말 많은 시간을 고민하고 검색한 주제를 다뤄볼까 한다. softmax에서 backpropagation을 어떻게 할까? 사실, 그렇게 쓸모 있는(?) 주제가 아닐 수도 있다. pytorch에서는 nn.CrossEntropyLoss 함수를 제공하고 이는 내부적으로 log softmax까지 해주기 때문에 softmax에서 계산되는 down stream gradient을 계산할 필요가 없기 때문이다. 이에 관한 내용은 아래 포스팅은 참고해주기 바란다.https://steady-programming.tistory.com/91 [Pytorch] nn.CrossEntropyLoss와 nn.NLLLoss분류 문제를 풀다보면 반드시 만나는 손실함수가 있다. 그것은 바로 cross entropy loss.. 2024. 8. 31. [Pytorch] nn.CrossEntropyLoss와 nn.NLLLoss 분류 문제를 풀다보면 반드시 만나는 손실함수가 있다. 그것은 바로 cross entropy loss. cross entropy loss가 무엇을 의미하는지, 왜 수식이 그렇게 정의되는지에 대한 탐구는 아래 포스팅에서 진행했으니 참고하길 바란다.https://steady-programming.tistory.com/89 [ML / DL] Cross entropy loss function in classification problem지난 포스팅에서 회귀 문제와 분류 문제에서의 loss function은 분포를 가정하고 세운 maximum likelihood function의 간단한 변형임을 살펴보았다.https://steady-programming.tistory.com/36 [ML / DL] Cost func.. 2024. 8. 30. 이전 1 2 3 4 5 ··· 13 다음