Embedding

[Embedding] 20. 임베딩을 시각화하는 효율적인 방법은?

Autoencoder vs PCA vs t-SNE vs UMAP 차원축소 방법, 무엇을

[Embedding] 19. 의미축이 아닌 앵커 벡터를 사용해 고객을 스코어링할 때의 차이는?

고객 스코어링 방식의 결정적 차이 : 의미 축(axis) vs 앵커

[Embedding] 18. 구매의사 방향 벡터로 “구매 직전 임계값” 찾기

점 하나로 ‘지금이다’를 말할 수 있을까? 들어가며 구매의사 방향

[Embedding] 17. 고객 행동 임베딩에서 구매의사 방향 벡터 만들기

“임베딩 공간상에 구매의사가 높아지는 방향이 있다” 들어가며 고객 행동 임베딩을

[Embedding] 16. 행동의 수가 적으면 임베딩이 비슷해지나?

“그럴 가능성이 높다 — 하지만 이유는 모델마다 다르다” 들어가며 행동 기반

[Embedding] 15. 고객의 행동수가 BFM 임베딩 품질에 미치는 영향

“많을수록 좋다”는 말은 절반만 맞다 들어가며 행동 기반 임베딩을

[Embedding] 14. 자연어로 학습된 LLM을 행동 데이터로 파인튜닝해서 BFM을 만들면 기존 LLM 능력은 사라지는가?

“그럴 수 있다 — 하지만 설계에 달려 있다” 들어가며 이 질문은

[Embedding] 13. LLM을 행동시퀀스로 학습한게 BFM인가?

“비슷해 보이지만, 같지는 않다” 들어가며 지난 글에서 LLM과 BFM을 간략히

[Embedding] 12. BFM에서 임베딩을 도출할 때 mean pooling을 해야하나?

BFM에서 임베딩을 도출할 때 mean pooling을 해야 하나? “대부분은 아니다

[Embedding] 11. BFM에서의 임베딩이 갖는 의미

BFM에서의 임베딩은 ‘다음에 올 예측 행동 자체’로 볼 수