본문 바로가기

LG Aimers 요약

(12)
8. 고객 Scoring Model, 추천 시스템 알고리즘(Content-based filtering, Collaborative filtering) 고객 Data 기반의 예측 Scoring Model 고객을 선별하여 고객에게 어떤 제품을 matching해서 상품을 추천하여 구매로 연결 시키는 모델 RFM Scoring (고객 분석) RFM Scoring은 고객의 가치를 분석하기 위한 기법으로 고객의 최근성(Recency), 구매빈도(Frequency), 구매금액(Monetary) 지표를 바탕으로 고객이 기업에 가져다 주는 수익에 얼마나 기여하는지를 판단할 수 있습니다. 추천시스템 1. Content-based filtering (컨텐츠 기반) 콘텐츠 기반 필터링 방식은 사용자가 특정 아이템을 선호하는 경우 그 아이템과 비슷한 콘텐츠를 가진 다른 아이템을 추천해주는 방식이다. Meta 정보가 풍부하거나 정리, DB 정제가 되어있다면 해당 방법 추천한다..
6 - 4. Transformer(Self-Attention, Encoding, Decoding) Transformer Seq2Seq with Attention 발전하여 Attention module가 Encoder, Decoder 역할 수행 RNN, CNN 모델 없이 온전히 attention module 만으로 sequence 입력 및 출력 처리 Encoding 좌측 block이 encoding 역할을 하고 n번에 걸쳐 block을 쌓아 전 layer에서 encoding 된 hidden state vector를 입력 vector로 받아들여 두번째 block이 진행된다. 하지만 현재 연산 단계에서 문장의 순서를 고려하지 않아도 encoding에 영향이 가지 않는 단점을 극복하고자 단어가 몇번째 순서인지 정보를 주입하는 positional encoding을 사용한다. Add : skip connecti..
6 - 3. Seq2Seq with Attention for Natural Language (RNN, LSTM, Seq2seq, Attention) RNN (Recurrent Neural Networks) sequence data에 특화된 딥러닝 모델 가중치는 고정한 상태로 h를 다시 입력으로 넣어 반복하는 구조이다 RNN 에서 가장 적합한 활성화함수 tanh 를 사용하여 결과 vector를 만든다 Vanila RNN 모델별 사용예시 one to many : image captioning many to one : sentiment classification many to many : machine translation, video classification Vanila RNN 을 사용한다면 학습 도중에 gradient vanishing 되거나 gradient 가 폭발적으로 증가하여 학습이 불안정한 문제점이 있다. 그래서 기본 구조는 동일하게 유지하되..
6 - 2. Convoltional Neutral Netwrok and Image Classification (CNN, Pooling, Convolution Filter) CNN 특정 class에 존재하는 작은 특정 패턴들을 정의하고 그 패턴들이 주어진 이미지 상에 있는지 검출, 인식 예시를 보며 이해해보자 ex) 고양이 귀, 눈은 일관되게 나타나게 되어 자세,색깔,배경 등 모든 요소를 규정하지 않고 일관되게 나타나는 부분 특징들을 bottom up 방식으로 검출, 정보를 조합하여 최종적으로 고양이라고 인식 X와 삐뚤어진 X를 비교했을때, 머신러닝에서는 오차의 개수가 많아 같다고 보기 어렵지만 ConvNet에서는 부분 요소들에 일관된 패턴이 존재하여 같다고 판단 Convolution 연산 특정 위치에 오버랩 시켰을떄 특정 패턴과의 매칭 정도를 정량적으로 정의. 기존 값에 convolution filter를 곱하여 매칭을 정도를 나타내는 결과 이미지를 activation m..
6 - 1. Introduction to Deep Neural Networks (Deep Learning, Forward Propagation, Back Propagation, Perceptron) Perceptron Neural Network 모델 구성하는 기본 알고리즘 입력값과 가중치 연산을 통해 가중합을 만들어내고 활성함수를 거쳐 최종 출력결과 전달한다 가중합의 값이 0보다 크다면 1, 0보다 작다면 0이 된다 Multi - Layer Perceptron ( Fully Connected Neural Network ) 선형모델로는 분류하기 힘든 복잡한 문제, XOR 문제를 Multi - Layer Perceptron 을 통해 해결할 수 있다. 그리고 입력노드와 출력노드 모두와 특정한 가중치 형태로 연결된 network 딥러닝 모델 구조 Forward Propagation input vector 를 column vector로 만들고 뉴런의 가중치를 row vector로 만들어 가중합을 연산, 활성..
5. 인과추론 (Simpson's Paradox) Casuality (인과성) 하나의 어떤 무언가가 다른 무엇을 생성함에 있어 영향을 미치는 것 인과 계층 1. Associational or Observational (관측 게층) 2. Interventional or Experimental (실험 계층) 3. Counterfactual (관측, 실험값을 동시에 고려하는 반사실적 계층) Simpson's Paradox 데이터의 그룹별 추세, 경향성이 나타나지만 전체적으로 보면 추세가 없거나 반대 방향의 경향성이 나타나는 현상 700명의 신장결석 환자에 대한 치료법에 관한 결과이다. 결석이 크기가 클때도 작을때도 모두 치료율이 높게 나타나는 A가 좋은 치료법이라고 할 수 있을까? 애매하다. 크기에 상관없이 모든 데이터에 대해 본다면 오히려 치료법 B가 치료..
4 - 5. Ensemble (Voting, Bagging, Boosting, Stacking), Confusion Matrix Ensemble (앙상블 방식) 알고리즘 종류에 상관 없이 다양한 머신러닝 모델을 묶어 사용하는 방식 Ensemble 장점 1) 예측성능을 안정적인 향상 가능 2) 모델 파라미터 튜닝이 많이 필요하지 않고 구현이 쉽다 Ensemble 모델 종류 1. Voting 동일한 데이터 세트에 다양한 모델링 결과에 대해 투표하여 최종 결과를 예측 Hard Voting : 각 분류기 결과물에서의 다수결 Soft Voting : 각 분류기의 확률을 평균을 최종 확률로 사용하여 분류한다 (일반적으로 성능 우수) 위 이미지를 예시로 들자면 [0.7, 0.3], [0.2, 0.8], [0.8, 0.2], [0.9, 0.1] 평균인 [0.65, 0.35] 가 최종확률이 되고 더 높은 확률인 최종결과를 1로 예측한다 2. Ba..
4 - 4. Support Vector Machine(SVM), Neural Network (NN), Activation function, Gradient Vanishing SVM 기초지식 Linear Classification 에서 다양한 종류의 hyper plane 이 존재해 hyper plane 에 따라 다른 성능을 보임 w1 은 대부분 잘 분류하는 것처럼 보이지만 새로운 데이터가 나타났을때 거리가 positive class 처럼 보이지만 hyper plane 에 의해 negative class 로 분류되는 오류발생 확률이 매우 높다 hyper plane의 가장 적절한 위치(w2)는 positive sample와 negative sample의 중간위치다. 1. Support Vector Machine (SVM) Support Vector 간의 거리를 최대화 하는 모델 위 그림과 같이 결정경계(hyper plane)과 가장 가까운 positive sample, negat..