jun1-cs 님의 블로그

  • 홈
  • 태그
  • 방명록

activation function 1

[Deep Learning] 활성화 함수에 대해

1. 활성화 함수의 의미활성화 함수는 여러 hidden layer 사이에서, hidden layer 속 linear layer의 출력에 대해 비선형성을 더하는 용도로 사용된다.ex: ReLU 함수(정류선형함수) - max(z,0)으로, z가 양수여서 활성화 상태라면 기울기가 1로 일정하다. ReLU도 그렇고, 여러 활성화 함수들이 미분 불가능한 점을 가진다.(비선형성) -> 그런데, 아무리 비선형성 추가가 모델의 복잡성을 위해 필요하다고 해도, 비선형적이면 SGD에서 미분이 안 되는 거 아님? ->SGD를 통해서 loss function의 완전한 극솟점을 찾는 것은 불가능하다.-> 미분 불가능한 지점에 도달할 가능성은 거의 없으므로 이 부분을 문제삼지 않아도 된다.(만약 미분 불가능한 점에 대해 미분계..

딥러닝 2025.08.31
이전
1
다음
더보기
프로필사진

jun1-cs 님의 블로그

jun1-cs 님의 블로그 입니다.

  • 분류 전체보기 (43)
    • 리눅스 커널 (2)
    • 자바 (6)
    • 병렬 프로그래밍 (3)
    • 의료 인공지능 (1)
    • 비즈니스 (4)
    • 딥러닝 (12)
    • 연구 아이디어 (0)
    • 강화학습 (1)
    • 프로젝트 (1)
    • 머신러닝 (12)

Tag

deep learning, hedge operation, a priori, 깊이우선탐색, 딥러닝, 선형화 가능, kernel pca, k means clustering, reduced rank LDA, 스레드, hyperplane, probability theory, 의사를 위한 실전 인공지능, membership function, degree of membership, backpropagation, 순차 무모순, ML, dl, dfs,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/04   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바