생성형 AI와 LLM (Generative AI & Large Language Models)
핵심 인사이트 (3줄 요약)
텍스트·이미지·코드 등을 새로 생성하는 AI 기술. GPT·Claude·Gemini 등 LLM은 Transformer 아키텍처 기반, 수천억 파라미터의 대규모 사전학습 모델. RAG·파인튜닝·프롬프트 엔지니어링이 활용의 핵심기술이다.
1. 생성형 AI 분류
┌─────────────────────────────────────────────────────────┐
│ 생성형 AI (Generative AI) │
├─────────────────────────────────────────────────────────┤
│ │
│ 텍스트 생성 (LLM): │
│ GPT-4o(OpenAI), Claude 3.5(Anthropic), │
│ Gemini 1.5(Google), Llama 3(Meta), HyperCLOVA X(네이버)│
│ │
│ 이미지 생성 (Diffusion): │
│ DALL-E 3(OpenAI), Midjourney, Stable Diffusion │
│ Imagen 3(Google), Firefly(Adobe) │
│ │
│ 코드 생성: │
│ GitHub Copilot, CodeLlama, Gemini Code Assist │
│ │
│ 멀티모달 (텍스트+이미지+음성): │
│ GPT-4o, Gemini 1.5 Pro, Claude 3.5 Sonnet │
│ │
└─────────────────────────────────────────────────────────┘
2. LLM 핵심 원리 - Transformer 아키텍처
Transformer (2017, "Attention is All You Need"):
입력: "고양이가 생선을"
↓ 토큰화 (Tokenization)
[고양이][가][생선][을] → 각 토큰을 벡터로 변환
Self-Attention (자기 주의):
각 토큰이 다른 모든 토큰과의 관계 가중치 계산
"생선을" → "고양이"와 강한 연결 (맥락 파악)
Multi-Head Attention:
여러 관점에서 동시에 Attention 수행 (병렬)
Position Encoding:
순서 정보 추가 (Transformer는 순서 개념 없음)
Feed-Forward Network:
비선형 변환으로 표현 능력 확장
Layer Normalization + Residual Connection:
학습 안정성 확보
결과: 문맥을 이해한 벡터 표현 → 다음 토큰 예측
3. LLM 학습 단계
1단계: 사전 학습 (Pre-training)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
대규모 텍스트 데이터로 언어 패턴 학습
- CommonCrawl, Wikipedia, GitHub, Books...
- 수조(Trillion) 토큰
- 자기 지도 학습 (다음 토큰 예측)
- 비용: 수백억~수천억 원
- 결과: 기반 모델 (Base Model)
2단계: 지시 미세조정 (Instruction Fine-tuning)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
인간이 작성한 지시-응답 쌍으로 학습
"다음 문서를 요약해줘" → [좋은 요약]
지시를 잘 따르도록 조정
3단계: RLHF (Reinforcement Learning from Human Feedback)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
인간 선호도 기반 강화학습
여러 응답 중 인간이 선호하는 것을 보상 신호로 사용
→ 안전하고 유용한 응답 생성
DPO (Direct Preference Optimization): RLHF 단순화 버전
4. RAG (Retrieval-Augmented Generation) ★
LLM의 한계:
1. 학습 데이터 컷오프 (최신 정보 모름)
2. 환각(Hallucination): 없는 사실 생성
3. 내부 정보 없음 (기업 문서, 개인 데이터)
RAG 해결책:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
사용자 질문: "우리 회사 2024년 매출은?"
↓
(1) 질문 임베딩 → 벡터로 변환
↓
(2) 벡터DB에서 유사 문서 검색 (Top-K)
→ [2024 재무제표.pdf], [연간보고서.docx]
↓
(3) 검색된 문서를 프롬프트에 추가
↓
(4) LLM: 문서 기반으로 답변 생성
↓
(5) "2024년 매출은 500억으로 전년 대비 20% 증가..."
RAG vs 파인튜닝 비교:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
RAG: 외부 DB 연결, 최신 정보 가능, 비용 낮음
지식 업데이트 용이 (DB만 업데이트)
파인튜닝: 모델 자체 학습, 스타일·형식 최적화 탁월
학습 비용↑, 지식 업데이트 어려움
5. 프롬프트 엔지니어링
Zero-Shot: 예시 없이 직접 질문
"다음 리뷰의 감성을 분류해줘: '제품이 훌륭합니다'"
Few-Shot: 예시 포함
"긍정: '좋아요' → 긍정
부정: '별로야' → 부정
분류: '훌륭합니다' → "
Chain-of-Thought (CoT): 단계별 추론 유도
"단계별로 생각해보자..."
→ 복잡한 추론 문제 성능 대폭 향상
System Prompt: AI 역할·제약 정의
"당신은 법률 전문가입니다. 한국 법률만 기준으로 답변하세요."
ReAct (Reason + Act): 추론 + 도구 사용
생각 → 행동(검색/계산) → 관찰 → 반복
6. AI 거버넌스와 안전성
LLM 위험성:
1. 편향(Bias): 학습 데이터 편향 재현
2. 환각(Hallucination): 거짓 정보 생성
3. 저작권: 학습 데이터 저작권 문제
4. 딥페이크: 허위 콘텐츠 생성
5. 개인정보: 학습 데이터 기억·유출
AI 거버넌스 프레임워크:
- EU AI Act (2024): 위험 기반 규제
- 금지 AI: 사회 신용, 감정 인식 (업무·교육)
- 고위험 AI: 의료·법집행·고용
- 제한 AI: 챗봇 (AI임을 밝혀야)
- NIST AI RMF: 위험 관리 프레임워크
- 한국: AI 기본법 제정 추진
AI 안전성 기법:
- RLHF·Constitutional AI: 안전 행동 학습
- 레드팀: 공격적 테스트 (탈옥, 독성 콘텐츠)
- 워터마킹: AI 생성 콘텐츠 표시
7. LLM 비교표
| 모델 | 개발사 | 파라미터 | 컨텍스트 | 특징 |
|---|---|---|---|---|
| GPT-4o | OpenAI | 비공개 | 128K | 멀티모달, 범용 |
| Claude 3.5 Sonnet | Anthropic | 비공개 | 200K | 코딩·분석 강력 |
| Gemini 1.5 Pro | 비공개 | 1M | 최장 컨텍스트 | |
| Llama 3 70B | Meta | 70B | 8K | 오픈소스 |
| HyperCLOVA X | 네이버 | 82B | - | 한국어 특화 |
| EXAONE | LG AI | 300억+ | - | 한국 기업용 |
8. 실무에서? (기술사적 판단)
- 기업 AI 도입: RAG + 사내 문서 기반 질의응답 시스템
- 코딩: GitHub Copilot → 개발 생산성 55% 향상 (연구)
- 한국 규제: 금융·의료·공공 AI 사용 지침 마련 중
- 기술사 포인트: LLM 학습 3단계, RAG vs 파인튜닝, AI 거버넌스
9. 관련 개념
- 딥러닝 (Transformer)
- 벡터 데이터베이스
- AI/ML 개요
- MLOps
📝 기술사 모의답안 (2.5페이지 분량)
📌 예상 문제
"대형 언어 모델(LLM)의 구조와 학습 과정(사전학습·미세조정·RLHF)을 설명하고, RAG(검색 증강 생성)와 Fine-tuning을 비교하여 기업 AI 적용 전략을 논하시오."
Ⅰ. 개요
**대형 언어 모델(LLM, Large Language Model)**이란 수천억 개의 파라미터를 가진 Transformer 기반 딥러닝 모델로, 방대한 텍스트 데이터를 자기지도학습으로 사전학습하여 언어 이해·생성이 가능한 생성형 AI의 핵심 기술이다.
- 등장 배경: 2017년 "Attention is All You Need" Transformer 논문 → 2018년 BERT → 2020년 GPT-3 → 2022년 ChatGPT 출시로 AI의 대중화 시대 도래
- 핵심 혁신: 자기회귀(Autoregressive) 방식으로 다음 토큰을 예측하는 단순한 과제만으로 광범위한 언어 능력 창발(Emergence)
Ⅱ. 구성 요소 및 핵심 원리
1. Transformer 아키텍처 핵심
| 구성 요소 | 역할 | 기술적 의미 |
|---|---|---|
| Self-Attention | 입력 토큰 간 관계 학습 | "고양이가 물고기를 먹었다 → 고양이=주어, 먹었다=술어" 파악 |
| Multi-Head Attention | 다양한 관점의 관계 병렬 학습 | 문법적·의미적·지시적 관계 동시 포착 |
| Feed-Forward Network | 비선형 변환으로 표현 풍부화 | 각 위치별 독립 처리 |
| Positional Encoding | 토큰 순서 정보 삽입 | 순열 불변 Self-Attention에 위치 정보 추가 |
2. LLM 학습 3단계
1단계. 사전학습 (Pre-training):
- 인터넷 텍스트 수조 토큰으로 다음 토큰 예측
- 비용: 수백억~수천억 원 (H100 수천 개, 수개월)
- 결과: 언어의 통계적 패턴과 세계 지식 습득 (Base Model)
2단계. 미세조정 (Supervised Fine-tuning, SFT):
- 인간이 작성한 고품질 예시로 지시 수행 능력 학습
- 적은 데이터(수만~수십만 개)로 빠른 적용
3단계. RLHF (강화학습 + 인간 피드백):
- 인간 평가자가 여러 응답 중 더 나은 것 선택
- 보상 모델 학습 → PPO 알고리즘으로 정책 개선
- 결과: 안전하고 도움이 되며 무해한(HHH) 모델
Ⅲ. 기술 비교 분석: RAG vs Fine-tuning
| 항목 | RAG (검색 증강 생성) | Fine-tuning (미세조정) |
|---|---|---|
| 원리 | 실시간으로 외부 문서 검색 후 생성 | 도메인 데이터로 모델 파라미터 재학습 |
| 지식 최신성 | ★ 실시간 갱신 가능 | 학습 후 동결 (재학습 필요) |
| 비용 | ★ 저렴 (검색 인프라만) | 고가 (GPU 학습 비용) |
| 개인정보 리스크 | 검색 데이터 노출 위험 | ★ 모델에 통합 (베이스라인 안전) |
| 형식/스타일 변경 | 어려움 | ★ 가능 (챗봇 어투, 용어 변경) |
| 환각 방지 | ★ 출처 기반 생성으로 환각 감소 | 도메인 지식 주입 가능 |
| 적합 시나리오 | 사내 문서 QA, 고객 지원 | 특수 도메인(의료·법률) 용어 학습 |
★ 선택 기준: 최신 정보 기반 답변 필요 → RAG / 도메인 특화 스타일·용어 필요 → Fine-tuning / 두 가지 필요 → RAG + Fine-tuning 결합
Ⅳ. 실무 적용 방안
| 분야 | 적용 방법 | 기대 효과 |
|---|---|---|
| 기업 내부 지식 관리 | 사내 문서 RAG 파이프라인 구축 | 직원 정보 검색 시간 70% 단축 |
| 고객 서비스 | LLM 기반 AI 상담원 (Fine-tuning) | 상담 처리 용량 300% 증가 |
| 코드 지원 | GitHub Copilot 유형 사내 코드 어시스턴트 | 개발 생산성 30~55% 향상 |
| 의료/법률 | 전문 도메인 Fine-tuning + RLHF | 전문 용어 정확도 90% 이상 |
거버넌스 고려사항
- EU AI Act: 고위험 AI(의료, 채용)는 투명성·설명 가능성 의무
- 데이터 보안: 민감 데이터는 On-premise LLM 또는 사설 클라우드 VPC 배포
- 환각 관리: 출처 인용 표시, 신뢰 점수 제공, 인간 검토 프로세스 유지
Ⅴ. 기대 효과 및 결론
| 효과 | 내용 | 정량 목표 |
|---|---|---|
| 업무 생산성 | 반복 문서 작업 자동화 | 화이트칼라 생산성 20~40% 향상 |
| 고객 경험 | 24/7 맞춤형 AI 상담 | 고객 만족도 CSAT 20점 향상 |
| 의사결정 | 방대한 데이터 기반 인사이트 | 의사결정 시간 50% 단축 |
결론
LLM은 인터넷 발명 이후 가장 큰 생산성 혁명을 일으킬 기술로 평가받는다. 기업은 RAG와 Fine-tuning을 조합한 사적·안전한 엔터프라이즈 AI를 구축하되, EU AI Act 등 글로벌 AI 거버넌스 규제에 선제적으로 대응하는 책임 있는 AI(Responsible AI) 전략이 필수적이다.
※ 참고: Vaswani et al. "Attention is All You Need"(2017), OpenAI GPT-4 Technical Report, EU AI Act(2024), NIST AI RMF 1.0
어린이를 위한 종합 설명
LLM은 "엄청난 책을 읽은 AI"야!
학습:
인터넷 전체 + 책 수백만권 읽기 📚
→ 언어 패턴 완전 습득!
→ 다음 단어 예측하는 게 기본 원리
RAG:
"모르는 건 찾아보고 답해!"
도서관(벡터DB)에서 관련 책 꺼내
→ 그걸 보면서 답하기 📖
환각(Hallucination):
너무 자신감 있게 없는 말을 하는 것 😅
"수도가 파리인 나라는?"
→ "그 나라의 수도 파리는 인구가..."
→ 실제로 없는 나라 얘기를 자연스럽게!
비밀: ChatGPT가 하루에 처리하는 질문이 1억 개 이상! 🌍✨