jun1-cs 님의 블로그

  • 홈
  • 태그
  • 방명록

batch normalization 1

[Easy! 딥러닝] Chapter 6. 배치 정규화와 레이어 정규화의 의미와 필요성

기울기 소실 문제를 해결하기 위해 활성화함수로 Sigmoid 함수나 Linear 함수 대신 ReLU를 쓸 수 있다. 그러나 기울기소실 문제를 해결하기 위해 ReLU 대신 배치정규화, 레이어정규화 기법도 사용할 수 있다. 1. 배치 정규화(Batch Normalization): 원하는 층(layer)에 적용하면 이전 층에서 나온 값들에 웨이트(파라미터)를 곱한 후에 이전 층의 batch_size 크기 데이터의 평균 및 표준편차를 구하고 (0,1)의 표준정규분포를 얻는다. 이후 a를 곱하고(a:표준편차역할) b를 더하여(b:평균역할) 두 파라미터가 추가된다. 이렇게 노드에 들어오는 값들을 재배치한 후, 활성화함수를 통과시켜 output 값으로 만든다. 이 과정은 활성화함수 통과 직전에 시행하는데, Re..

딥러닝 2025.05.16
이전
1
다음
더보기
프로필사진

jun1-cs 님의 블로그

jun1-cs 님의 블로그 입니다.

  • 분류 전체보기 (43)
    • 리눅스 커널 (2)
    • 자바 (6)
    • 병렬 프로그래밍 (3)
    • 의료 인공지능 (1)
    • 비즈니스 (4)
    • 딥러닝 (12)
    • 연구 아이디어 (0)
    • 강화학습 (1)
    • 프로젝트 (1)
    • 머신러닝 (12)

Tag

ML, 선형화 가능, reduced rank LDA, deep learning, membership function, 의사를 위한 실전 인공지능, backpropagation, degree of membership, probability theory, dl, 스레드, kernel pca, hyperplane, a priori, dfs, hedge operation, k means clustering, 딥러닝, 깊이우선탐색, 순차 무모순,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/04   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바