jun1-cs 님의 블로그

  • 홈
  • 태그
  • 방명록

cost function 1

[DL Study] 4. Cost gradient descent

1. 손실함수, Cost function손실=cost,loss,error Ex) 문자 2 사진을 받았을 때 이를 벡터로 변환하고 분석해, 무슨 숫자인지 맞춘다.x벡터에 대해 세타 벡터(L개의 레이어에 대한 weight와 bias들)를 곱한다-> output벡터 y hat이 나온다. y hat을 라벨링된 데이터의 y값, 정답 값과 비교(y값을 one-hot-coding을 이용해 대응되는 target 벡터로 변환)해 파라미터 세트인 세타를 평가한다. -> 평가방법1) MSE(mean squared error) 사용해 output과 target을 비교한다. (y1 hat - y1)^2 값의 평균이 최소가 될수록 output이 잘 나온 것이다. 2)Total Costy1, y1 hat 사이의 차이가 최소가..

딥러닝 2025.04.29
이전
1
다음
더보기
프로필사진

jun1-cs 님의 블로그

jun1-cs 님의 블로그 입니다.

  • 분류 전체보기 (43)
    • 리눅스 커널 (2)
    • 자바 (6)
    • 병렬 프로그래밍 (3)
    • 의료 인공지능 (1)
    • 비즈니스 (4)
    • 딥러닝 (12)
    • 연구 아이디어 (0)
    • 강화학습 (1)
    • 프로젝트 (1)
    • 머신러닝 (12)

Tag

probability theory, kernel pca, hedge operation, dl, 의사를 위한 실전 인공지능, degree of membership, 딥러닝, membership function, hyperplane, 깊이우선탐색, reduced rank LDA, 순차 무모순, 선형화 가능, ML, backpropagation, dfs, 스레드, a priori, deep learning, k means clustering,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/04   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바