jun1-cs 님의 블로그

  • 홈
  • 태그
  • 방명록

2026/03 1

Dimension Reduction - PCA

1. Curse of dimensionality: as the dimension of space gets bigger, required size of data (number of distinct features) gets higher -> the model can be overfitted Use dimension reduction methods => select only important orientation, vector that shows high variance of datapoints-> eliminate unimportant features (noise)Ex) PCA, LDA 2. Principal components analysisEx) input data, X [100,4] -> standa..

머신러닝 2026.03.08
이전
1
다음
더보기
프로필사진

jun1-cs 님의 블로그

jun1-cs 님의 블로그 입니다.

  • 분류 전체보기 (43)
    • 리눅스 커널 (2)
    • 자바 (6)
    • 병렬 프로그래밍 (3)
    • 의료 인공지능 (1)
    • 비즈니스 (4)
    • 딥러닝 (12)
    • 연구 아이디어 (0)
    • 강화학습 (1)
    • 프로젝트 (1)
    • 머신러닝 (12)

Tag

degree of membership, hyperplane, probability theory, membership function, hedge operation, backpropagation, k means clustering, ML, 깊이우선탐색, a priori, dl, dfs, 의사를 위한 실전 인공지능, 순차 무모순, reduced rank LDA, deep learning, 스레드, 선형화 가능, 딥러닝, kernel pca,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/03   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바