03.20 (월)


딥러닝 기본과 최적화

Deep Learning’s Most Important Ideas -> Link

Bagging vs Boosting

  Bagging Boosting
방법 여러 개의 동일한 모델을 생성 후 집계 여러 개의 약한 모델을 순차적으로 생성 및 가중치 조정
목적 분산 감소 편향 감소
모델 복잡한 모델에 적용하기 적합 단순한 모델에 적용하기 적합
데이터 복원 추출 비복원 추출
대표모델 Random Forest Gradient Boosting Machine (GBM), XGBoost, LightGBM 등
장점 Overfitting 감소, 안정적인 성능 예측 성능 향상, 다양한 알고리즘 적용 가능
단점 모델 해석 어려움, 계산 복잡도 상승 가능 Overfitting 가능성, 계산 시간 증가

오늘의 회고

AI 지식들을 BoostCamp_AI 게시판으로 분리하였습니다. 작성한 내용이 길어지면 앞으로도 TIL게시판에서 분리할 예정이다.

기본적인 신경망 구조를 배우고 있는데, 데이터의 흐름을 이해하는 데 어려움이 있어 특히 신경써서 학습을 해야 될것 같다.


03.21 (화) ~ 03.24(금)


CNN, RNN, Generative Model

여러 네트워크에 대해서 학습을 진행하였습니다.

학습을 하면서 과제 코드를 완성시켜가면서 내가 확실히 잘 알지 못하는 채로 여러 함수들을 사용해가며 과제를 하고 있다는 점이 크게 느껴졌고, 밑바닥부터 시작하는 딥러닝, 김기현의 딥러닝 부트캠프 with 파이토치를 통해 기초 부분을 확실히 파악하고 넘어가야 할것 같다고 느꼈습니다.

그래서 Pytorch 게시판을 새로 만들었고 지금까지 학습한 내용과 책을 함께 참고하여 정리하기로 했습니다.


댓글남기기