Activation Function   활성화 함수

(2024-09-27)

1. 활성화 함수 (Activation Function)신경망에서 입력 신호를 변환하여 출력 신호를 만드는 비선형 함수
     - 비선형성을 도입하기 위해, 활성화 함수가 사용
        . 복잡한 패턴 학습이 가능
        . 신호의 강도 조절
        . 출력값의 범위 정규화뉴런 기능의 수학모델화를 위해,
     - 입력 데이터에 대해,
     - 가중치를 적용하고, 이 가중치의 합을 계산한 후, 
     - 활성화 함수를 통해, 최종 출력을 결정토록 함


2. 활성화 함수의 주요 종류

  ㅇ 시그모이드 함수 (Sigmoid Function)
        
[# σ(x) = \frac{1}{1+e^{-x}} #]
. 값이 0 ~ 1 사이로 압축 . 다중 클래스 분류에 사용 ㅇ 소프트맥스 함수 (Softmax Function) . 확률값 출력 . 다중 클래스 분류에 사용 ㅇ ReLU (Rectified Linear Unit)
[# ReLU(x) = max(0,x) #]
. 기울기 소실(Vanishing Gradient) 문제 완화 . 대부분의 은닉층에서 사용 ㅇ 하이퍼볼릭 탄젠트 함수 (tanh) 등

[신경망, 딥러닝]1. 인공 신경망 (ANN)   2. 퍼셉트론, 다층 퍼셉트론   3. 딥러닝   4. 활성화 함수   5. 역전파   6. 신경망 딥러닝 용어  

  1. Top (분류 펼침)      :     1,595개 분류    6,552건 해설

"본 웹사이트 내 모든 저작물은 원출처를 밝히는 한 자유롭게 사용(상업화포함) 가능합니다"
     [정보통신기술용어해설]       편집·운영 (차재복)          편집 이력