신경망 딥러닝 용어

(2024-09-27)

1. 신경망 딥러닝 용어

  ㅇ 입력층 (Input Layer)
     - 입력 데이터를 받아들이는 층
        . 각 노드는 입력 데이터의 특성을 나타냄

  ㅇ 은닉층 (Hidden Layer)
     - 입력층과 출력층 사이의 층
        . 비선형 특성을 학습하며, 딥러닝의 주요 처리 과정이 이루어지는 부분

  ㅇ 출력층 (Output Layer)
     - 모델의 최종 결과를 출력하는 층
        . 분류 문제 : 클래스 확률, 회귀 문제 : 연속값 등을 출력

  ㅇ 뉴런 (Neuron)
     - 신경망의 기본 단위
        . 입력 신호를 받아 가중치와 활성화 함수를 통해 출력값을 계산

  ㅇ 가중치 (Weight)
     - 각 입력 신호의 중요도를 나타내는 값
        . 학습을 통해 최적의 값으로 조정됨

  ㅇ 바이어스 (Bias)
     - 활성화 함수의 출력값을 조정하는 상수
        . 모델이 더 유연하게 학습할 수 있도록 도와줌

  ㅇ 활성화 함수 (Activation Function)
     - 뉴런의 출력값을 비선형 변환하는 함수
        . ReLU, Sigmoid, Tanh, Softmax 등

  ㅇ 역전파 (Backpropagation)
     - 출력층 → 입력층 방향으로 오차를 전파하며, 가중치를 업데이트하는 학습 방법

  ㅇ 손실 함수 (Loss Function)
     - 모델예측값과 실제값 간의 차이를 나타내는 함수.
        . 회귀 문제 : 평균 제곱 오차 (MSE)
        . 분류 문제 : 교차 엔트로피 (Cross-Entropy)

  ㅇ 경사하강법 (Gradient Descent)
     - 손실 함수를 최소화하기 위해 가중치를 조정하는 알고리즘.
        . 변형된 방법으로는 Stochastic Gradient Descent (SGD), Adam 등이 있음

  ㅇ 에폭 (Epoch)
     - 전체 데이터셋이 신경망을 한 번 통과한 학습 단위

  ㅇ 배치 (Batch)
     - 학습 과정에서 한 번에 처리되는 데이터의 묶음
        . 미니 배치 (Mini-batch) : 데이터셋을 소규모로 나눠 학습.

  ㅇ 과적합 (Overfitting)
     - 모델이 훈련 데이터에 만 과도하게 최적화되어, 일반화 성능이 떨어지는 현상

  ㅇ 드롭아웃 (Dropout)
     - 과적합을 방지하기 위해 학습 중 일부 뉴런랜덤하게 제외하는 기법

  ㅇ 과소적합 (Underfitting)
     - 모델이 충분한 데이터로 학습하지 못해 성능이 낮은 상태하이퍼 파라미터 (Hyperparameter)
     - 학습 전에 설정하는 값 (학습률, 배치 크기, 은닉층 수 등)

  ㅇ 모델 파라미터 (Model Parameter)
     - 학습 중에 조정되는 값 (가중치, 편향 등)

신경망, 딥러닝
1. 인공 신경망 (ANN)   2. 인공 뉴런   3. 퍼셉트론, 다층 퍼셉트론   4. 딥러닝   5. 활성화 함수   6. 역전파   7. 신경망 딥러닝 용어   8. 신경망 딥러닝 파라미터  
용어해설 종합 (단일 페이지 형태)

"본 웹사이트 내 모든 저작물은 원출처를 밝히는 한 자유롭게 사용(상업화포함) 가능합니다"
     [정보통신기술용어해설]          편집 이력          소액 후원