Activation Function   활성화 함수

(2024-09-27)

1. 활성화 함수 (Activation Function)신경망에서, 입력 신호를 변환하여 출력 신호를 만드는, 비선형 함수비선형성을 도입하기 위해, 활성화 함수가 사용됨
     - 복잡한 패턴 학습
     - 신호의 강도 조절
     - 출력값의 범위 정규화 등이 가능

  ㅇ (뉴런 기능의 수학모델화)
     - 입력 데이터에 대해,
     - 가중치를 적용하고, 이 가중치의 합을 계산한 후, 
     - 활성화 함수를 통해, 최종 출력을 결정토록 함


2. 활성화 함수의 주요 종류

  ㅇ 시그모이드 함수 (Sigmoid Function)
      
[# σ(x) = \frac{1}{1+e^{-x}} #]
- 값이 0 ~ 1 사이로 압축 - 다중 클래스 분류에 사용 ㅇ 소프트맥스 함수 (Softmax Function) - 확률값 출력 - 다중 클래스 분류에 사용 ㅇ ReLU (Rectified Linear Unit)
[# ReLU(x) = max(0,x) #]
- 기울기 소실(Vanishing Gradient) 문제 완화 - 대부분의 은닉층에서 사용 ㅇ 하이퍼볼릭 탄젠트 함수 (tanh) 등

신경망, 딥러닝
1. 인공 신경망 (ANN)   2. 인공 뉴런   3. 퍼셉트론, 다층 퍼셉트론   4. 딥러닝   5. 활성화 함수   6. 역전파   7. 신경망 딥러닝 용어   8. 신경망 딥러닝 파라미터  
용어해설 종합 (단일 페이지 형태)

"본 웹사이트 내 모든 저작물은 원출처를 밝히는 한 자유롭게 사용(상업화포함) 가능합니다"
     [정보통신기술용어해설]          편집 이력          소액 후원