1. 인공 지능의 수준 : "어느 수준의 지능을 목표로 하는가?"
ㅇ ANI (Artificial Narrow Intelligence) : 약 인공 지능 (Weak AI)
- 특정 작업에 특화된 인공 지능 (현재 우리가 접하는 대부분의 인공지능 시스템)
. 생성형 AI (Generative AI) : 데이터에서 패턴을 학습해 새로운 결과를 만들어내는 AI
ㅇ AGI (Artificial General Intelligence) : 강 인공 지능 (Strong AI)
- 인간과 동등하거나 뛰어넘는 지능을 가진 인공 지능 (아직까지 이론적인 개념에 가까움)
ㅇ ASI (Artificial Super Intelligence) : 초 지능
- 인간 지능을 훨씬 능가하는 초 지능 (철학,미래학적 논의 단계)
2. 인공 지능의 기능/역할 : "무엇을 할 수 있는가?"
ㅇ Perception (인지) : 언어 이해, 이미지 인식, 음성 인식 등
ㅇ Reasoning (추론) : 논리 추론, 확률 추론, Chain-of-Thought 등
- Reasoning (추론) : 주어진 정보로부터 새로운 결론을 도출하는 과정
. 연역, 귀납, 가설 추론 등 포함
. LLM에서는, 확률적 패턴 기반 추론 형태
- Logical Reasoning (논리 추론) : 명제 논리, 술어 논리 등 형식 논리에 기반한 추론
. 전통적 기호주의 AI에서 핵심
- Probabilistic Reasoning (확률 추론)
. 현대 LLM은, "명시적 규칙 기반이 아닌", 통계적 방식으로 "논리처럼 보이는 출력" 생성
.. 생성형 AI는 "논리 규칙으로 추론하는 기계"가 아니라,
.. "논리적으로 보이도록 확률적으로 말하는 거대한 통계 모델"임
- Chain-of-Thought (CoT) : 단계별 사고 과정을 명시적으로 생성하는 기법
. 복잡한 문제 해결 정확도 향상
ㅇ Generation (생성) : 텍스트, 이미지, 코드 생성
ㅇ Decision / Planning (의사결정) : 강화학습 기반 정책 결정
4. 인공 지능의 표현 방식 : "정보를 어떻게 내부적으로 표현하는가?"
ㅇ Tokenization (토큰화) : 텍스트를 모델이 처리 가능한 단위(토큰)로 분할
ㅇ Embedding (벡터 공간 표현) : 단어,이미지,음성 등을 의미 기반의 벡터 공간으로 매핑
- 모델이 "의미적 유사성"을 수학적으로 계산할 수 있게 해줌
ㅇ Latent Space (잠재 공간) : 모델이 내부적으로 의미를, "벡터 공간"에 배치해 표현하는 공간
- 생성 모델의 "의미 좌표계" 역할
ㅇ Knowledge Representation (지식 표현)
5. 인공 지능의 모델 구조 : "어떤 수학적 구조로 계산하는가?"
ㅇ CNN / RNN (전통 구조)
ㅇ Transformer (트랜스포머 구조) : 자연어 처리,멀티모달 모델의 표준 구조
- Self-attention을 사용해 문맥을 학습
- CNN/RNN 구조 보다 병렬 처리 효율이 높아 대규모 학습에 적합
ㅇ Generative Model (생성 모델) : 학습한 패턴으로, 새로운 텍스트,이미지,음성 등을 생성
- 훈련 데이터의 규칙성,패턴을 자동으로 발견 학습하여,
- 훈련 데이터의 확률분포와 유사하게,
- 새로운 샘플들을 생성하는 신경망
ㅇ GPT (Generative Pre-trained Transformer)
- Transformer 기반으로, "사전 학습 → 특정 작업용 미세조정" 방식의 대표적 언어 모델
. OpenAI가 제안 (GPT-1 : 2018)
ㅇ LLM (대규모 언어 모델, Large Language Model)
- 거대한 양의 텍스트 데이터를 바탕으로, 단어,문장,문맥 패턴을 학습한 언어 생성 모델
. 자연어 처리와 딥러닝이 복합적으로 결합된 모델
ㅇ GAN (Generative Adversarial Network, 생성적 적대 신경망) : 서로 대립하는 2개의 신경망
- (Generator vs Discriminator)
. (흔히, 위조지폐를 만드는 범인과 위조지폐를 감별하는 경찰로 그려짐)
. 적대적(Adversarial)으로 경쟁하며 학습해,
. 현실과 유사한 새로운 데이터를 생성하는 모델 구조
* 2014년 Ian Goodfellow가 제안한 대표적 생성 모델
. 원래는 비지도 학습 형태로 제안됐지만, 준지도 학습,지도 학습,강화 학습 모두에 유용함
ㅇ Diffusion Model (확산 모델) : 노이즈 → 점진적 제거 방식으로 고 품질 이미지 생성
- 이미지 생성 분야의 최신 주류 모델
6. 인공 지능의 학습 : "어떻게 학습하는가?"
ㅇ Pretraining (사전학습)
ㅇ Fine-tuning (미세 조정) : 사전 학습 모델을, 특정 도메인 데이터로 추가 학습해,
- "특화 모델"로 만드는 과정
ㅇ Transfer Learning (전이 학습) : 기존에 학습된 모델의 지식을, 새로운 작업에 재활용
ㅇ RLHF (Reinforcement Learning from Human Feedback) : 인간 피드백을 활용
- 모델의 출력을, "사람이 선호하는 방향"으로 조정
. ChatGPT 등 최신 LLM 학습의 핵심 과정
ㅇ Adversarial Learning (적대적 학습) : 적대자(공격자)를 설정해, 모델이 견고하도록 학습
ㅇ Knowledge Distillation (지식 증류) :
- 큰 모델(Teacher)의 지식을, 작은 모델(Student)에 압축하여 전달하는 방식
. 경량화,온디바이스 AI에 활용
7. 인공 지능의 추론 : "실제 서비스에서 어떻게 동작하는가?"
ㅇ Symbolic AI (기호주의 AI) : 규칙,논리 기반 추론 시스템
- 생성형 AI와 대비되는 전통적 접근 방식
ㅇ Inference (추론) : 학습된 모델에 입력을 넣어, 실제 결과를 생성하는 과정을 일컬음
- 지연 시간, 효율성 등과 관련됨
ㅇ Context Window (컨텍스트 윈도우) : 모델이 한 번에 기억 처리할 수 있는 최대 토큰 길이
ㅇ Prompt Engineering (프롬프트 엔지니어링) : LLM에 적절한 입력(프롬프트)을 구성하여,
- 원하는 출력을 얻는 기법
ㅇ Latency / 효율 최적화
7. 인공 지능의 위험,제약,한계 : "어떤 공학적 한계와 리스크가 존재하는가?"
ㅇ Hallucination (환각) : AI가 사실이 아닌 내용을 "그럴듯하게 만들어내는" 현상
- LLM(대규모 언어 모델)의 대표적 문제
ㅇ Bias (편향) : 데이터 또는 모델이 특정 패턴이나 집단에 대해,
- 불공정하거나 왜곡된 결과를 내는 문제
ㅇ Explainability (설명가능성) : AI가 왜 그런 답변을 했는지 해석 가능성 정도
- 의료,법률 등 규제 분야에서 중요