인공 지능 용어

(2026-02-14)

생성형 AI, Hallucination, LLM, GPT, 생성 모델, GAN


1. 인공 지능의 수준  :  "어느 수준의 지능을 목표로 하는가?"

  ㅇ ANI (Artificial Narrow Intelligence)  :  약 인공 지능 (Weak AI)
     - 특정 작업에 특화된 인공 지능  (현재 우리가 접하는 대부분의 인공지능 시스템)
        . 생성형 AI (Generative AI) : 데이터에서 패턴학습해 새로운 결과를 만들어내는 AI

  ㅇ AGI (Artificial General Intelligence)  :  강 인공 지능 (Strong AI)
     - 인간동등하거나 뛰어넘는 지능을 가진 인공 지능  (아직까지 이론적인 개념에 가까움)

  ㅇ ASI (Artificial Super Intelligence)  :  초 지능
     - 인간 지능을 훨씬 능가하는 초 지능  (철학,미래학적 논의 단계)


2. 인공 지능의 기능/역할  :  "무엇을 할 수 있는가?"Perception (인지)  :  언어 이해, 이미지 인식, 음성 인식 등

  ㅇ Reasoning (추론)  :  논리 추론, 확률 추론, Chain-of-Thought 등
     - Reasoning (추론)  :  주어진 정보로부터 새로운 결론을 도출하는 과정
        . 연역, 귀납, 가설 추론 등 포함
        . LLM에서는, 확률패턴 기반 추론 형태
     - Logical Reasoning (논리 추론)  :  명제 논리, 술어 논리형식 논리에 기반한 추론
        . 전통적 기호주의 AI에서 핵심
     - Probabilistic  Reasoning (확률 추론)
        . 현대 LLM은, "명시적 규칙 기반이 아닌", 통계적 방식으로 "논리처럼 보이는 출력" 생성
           .. 생성형 AI는 "논리 규칙으로 추론하는 기계"가 아니라,
           .. "논리적으로 보이도록 확률적으로 말하는 거대한 통계 모델"임
     - Chain-of-Thought (CoT)  :  단계별 사고 과정을 명시적으로 생성하는 기법
        . 복잡한 문제 해결 정확도 향상

  ㅇ Generation (생성)  :  텍스트, 이미지, 코드 생성

  ㅇ Decision / Planning (의사결정)  :  강화학습 기반 정책 결정


4. 인공 지능의 표현 방식  :  "정보를 어떻게 내부적으로 표현하는가?"

  ㅇ Tokenization (토큰화)  :  텍스트모델이 처리 가능한 단위(토큰)로 분할

  ㅇ Embedding (벡터 공간 표현)  :  단어,이미지,음성 등을 의미 기반의 벡터 공간으로 매핑
     - 모델이 "의미적 유사성"을 수학적으로 계산할 수 있게 해줌

  ㅇ Latent Space (잠재 공간)  :  모델이 내부적으로 의미를, "벡터 공간"에 배치해 표현하는 공간
     - 생성 모델의 "의미 좌표계" 역할

  ㅇ Knowledge Representation (지식 표현)


5. 인공 지능모델 구조  :  "어떤 수학적 구조로 계산하는가?"CNN / RNN (전통 구조)

  ㅇ Transformer (트랜스포머 구조)  :  자연어 처리,멀티모달 모델의 표준 구조
     - Self-attention을 사용해 문맥학습
     - CNN/RNN 구조 보다 병렬 처리 효율이 높아 대규모 학습에 적합

  ㅇ Generative Model (생성 모델)  :  학습패턴으로, 새로운 텍스트,이미지,음성 등을 생성
     - 훈련 데이터의 규칙성,패턴을 자동으로 발견 학습하여,
     - 훈련 데이터확률분포와 유사하게, 
     - 새로운 샘플들을 생성하는 신경망

  ㅇ GPT (Generative Pre-trained Transformer)
     - Transformer 기반으로, "사전 학습 → 특정 작업용 미세조정" 방식의 대표적 언어 모델
        . OpenAI가 제안 (GPT-1 : 2018)

  ㅇ LLM (대규모 언어 모델, Large Language Model)
     - 거대한 양의 텍스트 데이터를 바탕으로, 단어,문장,문맥 패턴학습언어 생성 모델
        . 자연어 처리와 딥러닝이 복합적으로 결합된 모델

  ㅇ GAN (Generative Adversarial Network, 생성적 적대 신경망)  :  서로 대립하는 2개의 신경망
     - (Generator vs Discriminator)
        . (흔히, 위조지폐를 만드는 범인과 위조지폐를 감별하는 경찰로 그려짐)
        . 적대적(Adversarial)으로 경쟁하며 학습해,
        . 현실과 유사한 새로운 데이터를 생성하는 모델 구조
     * 2014년 Ian Goodfellow가 제안한 대표적 생성 모델
        . 원래는 비지도 학습 형태로 제안됐지만, 준지도 학습,지도 학습,강화 학습 모두에 유용함 

  ㅇ Diffusion Model (확산 모델)  :  노이즈 → 점진적 제거 방식으로 고 품질 이미지 생성
     - 이미지 생성 분야의 최신 주류 모델


6. 인공 지능학습  :  "어떻게 학습하는가?"

  ㅇ Pretraining (사전학습)

  ㅇ Fine-tuning (미세 조정)  :  사전 학습 모델을, 특정 도메인 데이터로 추가 학습해,
     - "특화 모델"로 만드는 과정

  ㅇ Transfer Learning (전이 학습)  :  기존에 학습된 모델지식을, 새로운 작업에 재활용

  ㅇ RLHF (Reinforcement Learning from Human Feedback)  :  인간 피드백을 활용
     - 모델의 출력을, "사람이 선호하는 방향"으로 조정
        . ChatGPT 등 최신 LLM 학습의 핵심 과정

  ㅇ Adversarial Learning (적대적 학습)  :  적대자(공격자)를 설정해, 모델이 견고하도록 학습

  ㅇ Knowledge Distillation (지식 증류)  :  
     - 큰 모델(Teacher)의 지식을, 작은 모델(Student)에 압축하여 전달하는 방식
        . 경량화,온디바이스 AI에 활용


7. 인공 지능추론  :  "실제 서비스에서 어떻게 동작하는가?"

  ㅇ Symbolic AI (기호주의 AI)  :  규칙,논리 기반 추론 시스템
     - 생성형 AI와 대비되는 전통적 접근 방식

  ㅇ Inference (추론)  :  학습된 모델에 입력을 넣어, 실제 결과를 생성하는 과정을 일컬음
     - 지연 시간, 효율성 등과 관련됨

  ㅇ Context Window (컨텍스트 윈도우)  :  모델이 한 번에 기억 처리할 수 있는 최대 토큰 길이

  ㅇ Prompt Engineering (프롬프트 엔지니어링)  :  LLM에 적절한 입력(프롬프트)을 구성하여,
     - 원하는 출력을 얻는 기법

  ㅇ Latency / 효율 최적화


7. 인공 지능의 위험,제약,한계  :  "어떤 공학적 한계와 리스크가 존재하는가?"

  ㅇ Hallucination (환각)  :  AI가 사실이 아닌 내용을 "그럴듯하게 만들어내는" 현상
     - LLM(대규모 언어 모델)의 대표적 문제

  ㅇ Bias (편향)  :  데이터 또는 모델이 특정 패턴이나 집단에 대해, 
     - 불공정하거나 왜곡된 결과를 내는 문제

  ㅇ Explainability (설명가능성)  :  AI가 왜 그런 답변을 했는지 해석 가능성 정도
     - 의료,법률 등 규제 분야에서 중요

인공지능
1. 인공지능   2. 인공 지능 용어   3. 인공지능 역사   4.
기계학습
  5.
결정이론
  6.
최적화
  7.
기타
 

용어해설 종합 (단일 페이지 형태)

"본 웹사이트 내 모든 저작물은 원출처를 밝히는 한 자유롭게 사용(상업화포함) 가능합니다"
     [정보통신기술용어해설]