04.03 (월)


Recommender System with GNN

Feature GNN NGCF LightGCN
Basic Concept Neural networks operating on graph data Collaborative filtering using graph neural networks Simplified version of NGCF
Primary Use Cases Node classification, link prediction, graph classification 추천 시스템, 사용자 항목 상호 작용 예측 추천 시스템, 사용자 항목 상호 작용 예측
Key Components Graph convolutions, aggregating neighbor features Graph convolutions, 유저와 아이템의 임베딩, 상호작용 모델링 Graph convolutions, embedding propagation
Complexity 아키텍처에 따라 다름 LightGCN에 비해 더 높은 복잡성 NGCF에 비해 복잡성 감소
Interpretability 보통, 아키텍처에 따라 다름 여러 구성 요소로 인해 보통 단순화로 인한 높은 해석성

Recommender System with RNN

기능 GRU4Rec
기본 개념 세션 기반 추천을 위한 GRU(Gated Recurrent Unit) 기반 모델
주요 사용 사례 특히 세션 기반 추천을 위한 추천 시스템
주요 구성 요소 GRU(Gated Recurrent Unit), 세션 병렬 미니 배치 학습, 순위 손실 함수
복잡성 다른 RNN에 비해 중간 정도의 복잡성
해석 가능성 GRU의 특성으로 인한 중간 정도의 해석 가능성
세션 시퀸스 처리 추천 시스템에서 세션 기반 시퀀스를 처리하도록 설계


04.04 (화)


생활코딩[이고잉]님의 Git특강

Github를 사용하는 방법에 대해서 2번째 특강이 있었습니다.

간단하게 명령어를 정리하였습니다.

링크 : [GitHub] Command summary


04.05 (수) ~ 04.06 (목)


Factorization Machine(FM) & Field-aware Factorization Machine(FFM)

Feature Factorization Machine (FM) Field-aware Factorization Machine (FFM)
Objective Model pairwise feature interactions with lower complexity Model pairwise feature interactions considering field information
Embedding dimension 모든 기능에 대한 전역 각 피쳐의 필드별
임베딩 수 기능당 1개 (필드 수 - 1) 기능당
모델 복잡성 Lower Higher
해석 가능성 Moderate Lower
Pairwise interaction All features Features from different fields
계산 복잡성 O(k * n) O(k * n * f)
매개변수 크기 O(k * n) O(k * n * f)
Latent factor vectors 모든 필드에서 공유 Unique for each field
적합한 경우 적은 필드의 Sparse 데이터 더 많은 필드와 복잡한 상호 작용이 있는 Sparse 데이터
교육 시간 Faster Slower (due to increased complexity)
  • FM 수식
\[y(x) = w_0 + \sum_{i=1}^{n}(w_ix_i) + \sum_{i=1}^{n}\sum_{j=i+1}^{n}<v_i,v_j>x_ix_j\]
  • FMM 수식
\[y(x) = w_0 + \sum_{i=1}^{n}(w_ix_i) + \sum_{i=1}^{n}\sum_{j=i+1}^{n}<v_{i,{f_j}},v_{j,{f_i}}>x_ix_j\]


04.07(금)


오피스 아워

  • torch.mm과 torch.matmul의 차이
Property torch.mm torch.matmul
기능 행렬 곱셈만 수행 행렬, 벡터 및 스칼라 곱셈 수행
Input Types 2D tensors only Tensors with any dimensions
Broadcasting Not supported Supported
Output Always 2D tensor Output can be tensor with any dimensions depending on input
Use case 2D 텐서로 엄격한 행렬 곱셈을 수행하려는 경우 입력 차원, 브로드캐스팅 또는 스칼라 작업에 더 많은 유연성이 필요한 경우

댓글남기기