Computer Science/[21-22] ML & DL10 [cv] LOOCV vs K-Fold and bias-variance trade-off - LOOCV (Leave-One-Out Cross Validation) vs K-Fold? 일단 두가지 모두 다 Cross-validation 기법이다. 데이터의 양은 정해져있고, (더 많은 데이터셋을 구하는건 더 어려운 일) overfitting 문제를 줄이기 위해서 Cross-validation를 한다. LOOCV: 한개의 관측값을 validation set으로 이용. 당연히 계산양이 많아지고, overfitting 되기 쉬워 데이터셋의 크기가 작을 때 사용함. K-Fold: fold의 개수에 따라서 데이터셋을 나누고, 그 중 하나를 validation set으로 이용. - Bias-variance trade-off LOOCV: low bias, high variance. 전체 n개의 데이터라고 하.. 2021. 11. 22. [EDA] Pandas.skew() 가 skewness를 계산하는 방법 pandas .skew()는 bias default = False, 반대로 scipy skew()는 bias default = True 2021. 11. 19. 이전 1 2 다음