jun1-cs 님의 블로그

  • 홈
  • 태그
  • 방명록

Gradient descent 1

[DL Study] 4. Cost gradient descent

1. 손실함수, Cost function손실=cost,loss,error Ex) 문자 2 사진을 받았을 때 이를 벡터로 변환하고 분석해, 무슨 숫자인지 맞춘다.x벡터에 대해 세타 벡터(L개의 레이어에 대한 weight와 bias들)를 곱한다-> output벡터 y hat이 나온다. y hat을 라벨링된 데이터의 y값, 정답 값과 비교(y값을 one-hot-coding을 이용해 대응되는 target 벡터로 변환)해 파라미터 세트인 세타를 평가한다. -> 평가방법1) MSE(mean squared error) 사용해 output과 target을 비교한다. (y1 hat - y1)^2 값의 평균이 최소가 될수록 output이 잘 나온 것이다. 2)Total Costy1, y1 hat 사이의 차이가 최소가..

딥러닝 2025.04.29
이전
1
다음
더보기
프로필사진

jun1-cs 님의 블로그

jun1-cs 님의 블로그 입니다.

  • 분류 전체보기 (43)
    • 리눅스 커널 (2)
    • 자바 (6)
    • 병렬 프로그래밍 (3)
    • 의료 인공지능 (1)
    • 비즈니스 (4)
    • 딥러닝 (12)
    • 연구 아이디어 (0)
    • 강화학습 (1)
    • 프로젝트 (1)
    • 머신러닝 (12)

Tag

k means clustering, hyperplane, kernel pca, dl, 딥러닝, ML, 스레드, degree of membership, 순차 무모순, deep learning, backpropagation, membership function, 선형화 가능, 깊이우선탐색, 의사를 위한 실전 인공지능, a priori, probability theory, hedge operation, reduced rank LDA, dfs,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/04   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바