두번째 주가 끝났다. 비지도학습과 클러스터링, 차원 축소 방법에 대해서 배웠다.
수학적인 내용이 많아서 '역시 수학이..' 싶었던 일주일이였고, 마지막에 추천시스템까지 다뤄서 쉽지 않은 코스였다.
수학 공부해야지 + 이번주는 NMF 적용할 수 있는 데이터셋 찾아서 연습. (아마도 영화 줄거리 위키..?)
1. Clustering for dataset exploration
- Unsupervised learning, clustering (K Means)
- Evaluating a clustering
- Transforming features for better clustering
2. Visualization with hierarchical clustering and t-SNE
- Visualizing hierarchies (dendrogram)
- Cluster labels in hierarchical clustering
- Different linakge methods
- t-SNE for 2-dimensional maps
3. Decorrelating your data and dimension reduction
- Decorrelation = pearson correlation = 0
- Visualizing the PCA transformation
- Intrinsic dimension <- can be determined by PCA
- PCA feature -> Informative data, noisy data
- Dimension reduction with PCA
- tf-idf word-frequency array
4. Discovering interpretable features
- NMF (Non-negative matrix factorization)
- NMF learns interpretable parts (PCA X)
- Building recommender systems using NMF
'Computer Science > [21-22] DataCamp ML, R' 카테고리의 다른 글
[WEEK1] Introduction to Statistics in R (0) | 2022.05.19 |
---|---|
[WEEK13] Feature Engineering for NLP in Python (0) | 2021.12.06 |
[WEEK12] Introduction to Natural Language Processing in Python (0) | 2021.11.29 |
DataCamp ML Scientist 참고 자료 (0) | 2021.09.02 |
[WEEK1] Supervised Learning with scikit-learn (0) | 2021.08.31 |
댓글