신경망 딥러닝 파라미터

(2024-10-21)

Hyperparameter, 하이퍼 파라미터, Model Parameter, 모델 파라미터, Learning Rate, 학습률


1. 신경망 딥러닝 파라미터파라미터는, 모델데이터로부터 조정하는 값


2. 하이퍼 파라미터 (Hyperparameter)학습 전에 사람이 설정하는 값 

  ㅇ 주요 例)
     - 학습률 (Learning Rate)
        . 가중치와 편향의 업데이트 크기 (학습 속도) 조절
           .. 값이 너무 크면 발산하고, 너무 작으면 수렴이 느려질 수 있음
     - 배치 크기 (Batch Size)
        . 한 번의 학습에서 사용하는 데이터 샘플의 개수
        . 모델의 업데이트 빈도에 영향을 미침
           .. 소규모 배치 : 더 빠른 업데이트, 높은 노이즈
           .. 대규모 배치 : 안정적인 학습, 높은 계산 비용
     - 에포크 (Epoch)
        . 전체 데이터셋을 한 번 완전히 학습하는 과정의 횟수
        . 적정 값을 설정하지 않으면 과적합(overfitting) 또는 과소적합(underfitting) 발생
     - 정규화 강도 (Regularization Strength)
        . 과적합 방지를 위해 가중치 값에 규제를 가하는 정도
           .. L1 정규화 : 가중치의 절대값 합을 최소화
           .. L2 정규화 : 가중치의 제곱합을 최소화
     - 드롭아웃 비율 (Dropout Rate)
        . 학습 중 일부 뉴런의 출력을 랜덤하게 0으로 설정하는 비율
        . 과적합을 방지하고 일반화 성능을 향상
     - 네트워크 구조 (Network Architecture) 관련
        . 신경망의 층 수, 각 층의 뉴런 개수, 활성화 함수 종류 등
           .. 레이어 수 (은닉층 수), 입력/출력 차원, CNN의 커널 크기, RNN의 시퀀스 길이 등


3. 모델 파라미터 (Model Parameter)모델학습을 통해 결정되며, 최적화 과정에서 업데이트되는 값들
     - 최적화 알고리즘(경사하강법 등)에 의해 자동 조정됨

  ㅇ 주요 例)
     - 가중치 (Weight)
        . 각 뉴런 간 연결의 강도를 나타내는 값
        . 입력 데이터뉴런에 전달하며 곱해져 뉴런의 출력에 영향을 미침
        . 학습 데이터로부터 패턴모델링하는 핵심 요소
     - 편향 (Bias)
        . 뉴런에 더해지는 추가적인 상수 항
        . 출력값을 특정 방향으로 이동시키는 역할
        . 모델이 더 복잡한 패턴학습할 수 있도록 도와줌
     - 활성화 함수 출력 값
        . 활성화 함수(예: ReLU, Sigmoid, Tanh)를 통해 계산된 각 뉴런의 최종 출력 값
        . 모델비선형성을 추가하여 복잡한 데이터 관계를 학습하게 함

신경망, 딥러닝
1. 인공 신경망 (ANN)   2. 인공 뉴런   3. 퍼셉트론, 다층 퍼셉트론   4. 딥러닝   5. 활성화 함수   6. 역전파   7. 신경망 딥러닝 용어   8. 신경망 딥러닝 파라미터  
용어해설 종합 (단일 페이지 형태)

"본 웹사이트 내 모든 저작물은 원출처를 밝히는 한 자유롭게 사용(상업화포함) 가능합니다"
     [정보통신기술용어해설]          편집 이력          소액 후원