생성형 AI와 LLM (Generative AI & Large Language Models)

핵심 인사이트 (3줄 요약)

텍스트·이미지·코드 등을 새로 생성하는 AI 기술. GPT·Claude·Gemini 등 LLM은 Transformer 아키텍처 기반, 수천억 파라미터의 대규모 사전학습 모델. RAG·파인튜닝·프롬프트 엔지니어링이 활용의 핵심기술이다.

1. 생성형 AI 분류

┌─────────────────────────────────────────────────────────┐
│              생성형 AI (Generative AI)                   │
├─────────────────────────────────────────────────────────┤
│                                                         │
│  텍스트 생성 (LLM):                                     │
│    GPT-4o(OpenAI), Claude 3.5(Anthropic),              │
│    Gemini 1.5(Google), Llama 3(Meta), HyperCLOVA X(네이버)│
│                                                         │
│  이미지 생성 (Diffusion):                               │
│    DALL-E 3(OpenAI), Midjourney, Stable Diffusion      │
│    Imagen 3(Google), Firefly(Adobe)                    │
│                                                         │
│  코드 생성:                                             │
│    GitHub Copilot, CodeLlama, Gemini Code Assist       │
│                                                         │
│  멀티모달 (텍스트+이미지+음성):                         │
│    GPT-4o, Gemini 1.5 Pro, Claude 3.5 Sonnet          │
│                                                         │
└─────────────────────────────────────────────────────────┘

2. LLM 핵심 원리 - Transformer 아키텍처

Transformer (2017, "Attention is All You Need"):

입력: "고양이가 생선을"
      ↓ 토큰화 (Tokenization)
[고양이][가][생선][을] → 각 토큰을 벡터로 변환

Self-Attention (자기 주의):
  각 토큰이 다른 모든 토큰과의 관계 가중치 계산
  "생선을" → "고양이"와 강한 연결 (맥락 파악)

Multi-Head Attention:
  여러 관점에서 동시에 Attention 수행 (병렬)

Position Encoding:
  순서 정보 추가 (Transformer는 순서 개념 없음)

Feed-Forward Network:
  비선형 변환으로 표현 능력 확장

Layer Normalization + Residual Connection:
  학습 안정성 확보

결과: 문맥을 이해한 벡터 표현 → 다음 토큰 예측

3. LLM 학습 단계

1단계: 사전 학습 (Pre-training)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
대규모 텍스트 데이터로 언어 패턴 학습
- CommonCrawl, Wikipedia, GitHub, Books...
- 수조(Trillion) 토큰
- 자기 지도 학습 (다음 토큰 예측)
- 비용: 수백억~수천억 원
- 결과: 기반 모델 (Base Model)

2단계: 지시 미세조정 (Instruction Fine-tuning)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
인간이 작성한 지시-응답 쌍으로 학습
"다음 문서를 요약해줘" → [좋은 요약]
지시를 잘 따르도록 조정

3단계: RLHF (Reinforcement Learning from Human Feedback)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
인간 선호도 기반 강화학습
여러 응답 중 인간이 선호하는 것을 보상 신호로 사용
→ 안전하고 유용한 응답 생성

DPO (Direct Preference Optimization): RLHF 단순화 버전

4. RAG (Retrieval-Augmented Generation) ★

LLM의 한계:
1. 학습 데이터 컷오프 (최신 정보 모름)
2. 환각(Hallucination): 없는 사실 생성
3. 내부 정보 없음 (기업 문서, 개인 데이터)

RAG 해결책:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

사용자 질문: "우리 회사 2024년 매출은?"
      ↓
   (1) 질문 임베딩 → 벡터로 변환
      ↓
   (2) 벡터DB에서 유사 문서 검색 (Top-K)
       → [2024 재무제표.pdf], [연간보고서.docx]
      ↓
   (3) 검색된 문서를 프롬프트에 추가
      ↓
   (4) LLM: 문서 기반으로 답변 생성
      ↓
   (5) "2024년 매출은 500억으로 전년 대비 20% 증가..."

RAG vs 파인튜닝 비교:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
RAG:        외부 DB 연결, 최신 정보 가능, 비용 낮음
            지식 업데이트 용이 (DB만 업데이트)
파인튜닝:   모델 자체 학습, 스타일·형식 최적화 탁월
            학습 비용↑, 지식 업데이트 어려움

5. 프롬프트 엔지니어링

Zero-Shot: 예시 없이 직접 질문
  "다음 리뷰의 감성을 분류해줘: '제품이 훌륭합니다'"

Few-Shot: 예시 포함
  "긍정: '좋아요' → 긍정
   부정: '별로야' → 부정
   분류: '훌륭합니다' → "

Chain-of-Thought (CoT): 단계별 추론 유도
  "단계별로 생각해보자..."
  → 복잡한 추론 문제 성능 대폭 향상

System Prompt: AI 역할·제약 정의
  "당신은 법률 전문가입니다. 한국 법률만 기준으로 답변하세요."

ReAct (Reason + Act): 추론 + 도구 사용
  생각 → 행동(검색/계산) → 관찰 → 반복

6. AI 거버넌스와 안전성

LLM 위험성:
1. 편향(Bias): 학습 데이터 편향 재현
2. 환각(Hallucination): 거짓 정보 생성
3. 저작권: 학습 데이터 저작권 문제
4. 딥페이크: 허위 콘텐츠 생성
5. 개인정보: 학습 데이터 기억·유출

AI 거버넌스 프레임워크:
- EU AI Act (2024): 위험 기반 규제
  - 금지 AI: 사회 신용, 감정 인식 (업무·교육)
  - 고위험 AI: 의료·법집행·고용
  - 제한 AI: 챗봇 (AI임을 밝혀야)
- NIST AI RMF: 위험 관리 프레임워크
- 한국: AI 기본법 제정 추진

AI 안전성 기법:
- RLHF·Constitutional AI: 안전 행동 학습
- 레드팀: 공격적 테스트 (탈옥, 독성 콘텐츠)
- 워터마킹: AI 생성 콘텐츠 표시

7. LLM 비교표

모델개발사파라미터컨텍스트특징
GPT-4oOpenAI비공개128K멀티모달, 범용
Claude 3.5 SonnetAnthropic비공개200K코딩·분석 강력
Gemini 1.5 ProGoogle비공개1M최장 컨텍스트
Llama 3 70BMeta70B8K오픈소스
HyperCLOVA X네이버82B-한국어 특화
EXAONELG AI300억+-한국 기업용

8. 실무에서? (기술사적 판단)

  • 기업 AI 도입: RAG + 사내 문서 기반 질의응답 시스템
  • 코딩: GitHub Copilot → 개발 생산성 55% 향상 (연구)
  • 한국 규제: 금융·의료·공공 AI 사용 지침 마련 중
  • 기술사 포인트: LLM 학습 3단계, RAG vs 파인튜닝, AI 거버넌스

9. 관련 개념

  • 딥러닝 (Transformer)
  • 벡터 데이터베이스
  • AI/ML 개요
  • MLOps


📝 기술사 모의답안 (2.5페이지 분량)

📌 예상 문제

"대형 언어 모델(LLM)의 구조와 학습 과정(사전학습·미세조정·RLHF)을 설명하고, RAG(검색 증강 생성)와 Fine-tuning을 비교하여 기업 AI 적용 전략을 논하시오."


Ⅰ. 개요

**대형 언어 모델(LLM, Large Language Model)**이란 수천억 개의 파라미터를 가진 Transformer 기반 딥러닝 모델로, 방대한 텍스트 데이터를 자기지도학습으로 사전학습하여 언어 이해·생성이 가능한 생성형 AI의 핵심 기술이다.

  • 등장 배경: 2017년 "Attention is All You Need" Transformer 논문 → 2018년 BERT → 2020년 GPT-3 → 2022년 ChatGPT 출시로 AI의 대중화 시대 도래
  • 핵심 혁신: 자기회귀(Autoregressive) 방식으로 다음 토큰을 예측하는 단순한 과제만으로 광범위한 언어 능력 창발(Emergence)

Ⅱ. 구성 요소 및 핵심 원리

1. Transformer 아키텍처 핵심

구성 요소역할기술적 의미
Self-Attention입력 토큰 간 관계 학습"고양이가 물고기를 먹었다 → 고양이=주어, 먹었다=술어" 파악
Multi-Head Attention다양한 관점의 관계 병렬 학습문법적·의미적·지시적 관계 동시 포착
Feed-Forward Network비선형 변환으로 표현 풍부화각 위치별 독립 처리
Positional Encoding토큰 순서 정보 삽입순열 불변 Self-Attention에 위치 정보 추가

2. LLM 학습 3단계

1단계. 사전학습 (Pre-training):
  - 인터넷 텍스트 수조 토큰으로 다음 토큰 예측
  - 비용: 수백억~수천억 원 (H100 수천 개, 수개월)
  - 결과: 언어의 통계적 패턴과 세계 지식 습득 (Base Model)

2단계. 미세조정 (Supervised Fine-tuning, SFT):
  - 인간이 작성한 고품질 예시로 지시 수행 능력 학습
  - 적은 데이터(수만~수십만 개)로 빠른 적용

3단계. RLHF (강화학습 + 인간 피드백):
  - 인간 평가자가 여러 응답 중 더 나은 것 선택
  - 보상 모델 학습 → PPO 알고리즘으로 정책 개선
  - 결과: 안전하고 도움이 되며 무해한(HHH) 모델

Ⅲ. 기술 비교 분석: RAG vs Fine-tuning

항목RAG (검색 증강 생성)Fine-tuning (미세조정)
원리실시간으로 외부 문서 검색 후 생성도메인 데이터로 모델 파라미터 재학습
지식 최신성★ 실시간 갱신 가능학습 후 동결 (재학습 필요)
비용★ 저렴 (검색 인프라만)고가 (GPU 학습 비용)
개인정보 리스크검색 데이터 노출 위험★ 모델에 통합 (베이스라인 안전)
형식/스타일 변경어려움★ 가능 (챗봇 어투, 용어 변경)
환각 방지★ 출처 기반 생성으로 환각 감소도메인 지식 주입 가능
적합 시나리오사내 문서 QA, 고객 지원특수 도메인(의료·법률) 용어 학습

★ 선택 기준: 최신 정보 기반 답변 필요 → RAG / 도메인 특화 스타일·용어 필요 → Fine-tuning / 두 가지 필요 → RAG + Fine-tuning 결합


Ⅳ. 실무 적용 방안

분야적용 방법기대 효과
기업 내부 지식 관리사내 문서 RAG 파이프라인 구축직원 정보 검색 시간 70% 단축
고객 서비스LLM 기반 AI 상담원 (Fine-tuning)상담 처리 용량 300% 증가
코드 지원GitHub Copilot 유형 사내 코드 어시스턴트개발 생산성 30~55% 향상
의료/법률전문 도메인 Fine-tuning + RLHF전문 용어 정확도 90% 이상

거버넌스 고려사항

  • EU AI Act: 고위험 AI(의료, 채용)는 투명성·설명 가능성 의무
  • 데이터 보안: 민감 데이터는 On-premise LLM 또는 사설 클라우드 VPC 배포
  • 환각 관리: 출처 인용 표시, 신뢰 점수 제공, 인간 검토 프로세스 유지

Ⅴ. 기대 효과 및 결론

효과내용정량 목표
업무 생산성반복 문서 작업 자동화화이트칼라 생산성 20~40% 향상
고객 경험24/7 맞춤형 AI 상담고객 만족도 CSAT 20점 향상
의사결정방대한 데이터 기반 인사이트의사결정 시간 50% 단축

결론

LLM은 인터넷 발명 이후 가장 큰 생산성 혁명을 일으킬 기술로 평가받는다. 기업은 RAG와 Fine-tuning을 조합한 사적·안전한 엔터프라이즈 AI를 구축하되, EU AI Act 등 글로벌 AI 거버넌스 규제에 선제적으로 대응하는 책임 있는 AI(Responsible AI) 전략이 필수적이다.

※ 참고: Vaswani et al. "Attention is All You Need"(2017), OpenAI GPT-4 Technical Report, EU AI Act(2024), NIST AI RMF 1.0


어린이를 위한 종합 설명

LLM은 "엄청난 책을 읽은 AI"야!

학습:
인터넷 전체 + 책 수백만권 읽기 📚
→ 언어 패턴 완전 습득!
→ 다음 단어 예측하는 게 기본 원리

RAG:
"모르는 건 찾아보고 답해!"
도서관(벡터DB)에서 관련 책 꺼내
→ 그걸 보면서 답하기 📖

환각(Hallucination):
너무 자신감 있게 없는 말을 하는 것 😅
"수도가 파리인 나라는?" 
→ "그 나라의 수도 파리는 인구가..."
→ 실제로 없는 나라 얘기를 자연스럽게!

비밀: ChatGPT가 하루에 처리하는 질문이 1억 개 이상! 🌍✨