Brain
Science
root
/
학습 노트
/
Study Note
/
6: ICT 융합 기술 (ICT Convergence)
/
4. 인공지능 심화 및 LLM 트렌드
4. 인공지능 심화 및 LLM 트렌드
261. 파운데이션 모델 (Foundation Model) - 스탠퍼드 HAI 정의, 방대한 무라벨 데이터를 자기지도 학습하여 여러 다운스트림 태스크에 전이 가능한 거대 범용 모델
262. 트랜스포머 (Transformer) 어텐션 기반 병렬 연산 구조
263. LLM (Large Language Model) - 수백억 이상의 파라미터를 가진 거대 언어 모델 (GPT-4, Gemini, Claude, Llama 3)
264. sLLM / SLM (Small Large Language Model) - 7B 이하의 경량화 파운데이션 모델, 엣지 기기 오프라인 구동 및 특정 도메인 파인튜닝용 (Llama-3-8B, Phi-3, Gemma 등)
265. 창발성 (Emergent Abilities) - 파라미터와 훈련 데이터 규모가 특정 임계치를 넘겼을 때, 사전에 프로그래밍/학습하지 않은 복잡한 추론 논리 능력이 스스로 발현되는 현상
266. 자기 지도 학습 (Self-Supervised Learning) - 다음 단어 예측(Next Token Prediction), 빈칸 채우기(MLM) 방식으로 사람이 라벨링하지 않아도 텍스트 구조 자체를 정답 삼아 자가 학습
267. 인스트럭션 튜닝 (Instruction Tuning) - 범용 LLM을 "인간의 명령(지시문)"과 "그에 따른 모범 답변" 데이터셋(Prompt-Response)으로 추가 지도 미세조정(SFT)하여 대화형 챗봇 형태로 가다듬는 과정
268. 인간 피드백 기반 강화학습 (RLHF, Reinforcement Learning from Human Feedback) - LLM이 내뱉은 여러 답변을 인간이 랭킹 매겨 보상 모델(Reward Model)을 훈련시키고, 이를 PPO 강화학습 알고리즘으로 본 모델에 적용하여 유해성/편향성을 통제 (정렬, Alignment 기법)
269. RLAIF (AI 피드백 기반 강화학습) - 인간 라벨러 대신 GPT-4 등 고성능 AI가 답변 품질 랭킹 채점을 대행 (헌법적 AI / Constitutional AI - Anthropic 제안)
270. DPO (Direct Preference Optimization) - 강화학습(PPO)과 보상 모델 구축의 복잡한 2단계를 생략하고, 선호/비선호 데이터셋으로 LLM을 직접 미세 조정하는 최신 최적화 기법
271. 프롬프트 엔지니어링 (Prompt Engineering) - LLM의 숨겨진 능력을 이끌어내기 위해 질문 컨텍스트를 구조화 설계
272. 제로샷 (Zero-shot) / 원샷 (One-shot) / 퓨샷 (Few-shot) 프롬프팅
273. 생각의 사슬 (CoT, Chain-of-Thought) - "단계별로 차근차근 생각해 보자"는 명령을 통해 중간 추론 과정(Reasoning Path)을 생성하게 유도하여 수학/논리 문제 정답률 극대화
274. ToT (Tree of Thoughts) / GoT (Graph of Thoughts) - 단일 사슬을 넘어 여러 추론 경로를 탐색/평가하며 분기하는 고도화 프롬프팅
275. 환각 (Hallucination / 할루시네이션) - LLM이 학습 데이터의 공백이나 패턴 오류로 인해 그럴싸한 허위 사실(거짓말)을 진실처럼 생성하는 한계점
276. RAG (Retrieval-Augmented Generation / 검색 증강 생성) - 할루시네이션 극복 아키텍처. 사용자 질문 수신 시 ①외부 사내 DB/문서에서 관련 문단 검색(Retrieve) -> ②검색된 문단을 프롬프트에 주입(Augment) -> ③LLM이 참조하여 답변 생성(Generate)
277. 벡터 데이터베이스 (Vector Database) - RAG 검색의 핵심, 텍스트/이미지를 다차원 임베딩 텐서로 변환 저장하고 코사인 유사도 연산으로 문맥적(Semantic) 의미가 가까운 문서를 빛의 속도로 추출 (Milvus, Pinecone 등)
278. 임베딩 (Embedding) - 비정형 데이터의 의미적 관계를 다차원 실수 배열(벡터) 공간에 좌표로 투영하는 변환 과정
279. 하이브리드 검색 (Hybrid Search) - 전통적인 키워드 정확 일치 검색(BM25)과 벡터 의미 유사도 검색(Dense)을 결합하여 검색 정확도 상호 보완
280. 시맨틱 캐시 (Semantic Cache) - 이전 질문의 의미 벡터값을 저장해두고, 유사한(정확히 일치하지 않아도) 질문이 오면 LLM API를 호출하지 않고 캐시에서 답변 즉시 반환 (지연시간 단축, 비용 절감)
281. 파인튜닝 (Fine-Tuning / 미세 조정) 전이 학습 방법론
282. 파라미터 효율적 미세 조정 (PEFT, Parameter-Efficient Fine-Tuning) - 수천억 파라미터 거대 모델 전체를 업데이트하기엔 GPU 자원이 부족하므로, 원래 가중치는 동결(Freeze)하고 극히 일부의 추가 파라미터 모듈만 훈련
305. 연합 학습 (Federated Learning)
2026-04-18
306. 그래프 신경망 (GNN, Graph Neural Network)
2026-04-18
307. 컨텍스트 윈도우 (Context Window) 확장 기술
2026-04-18
308. 장기 문맥 (Long-context) 처리 기술
2026-04-18
309. 코사인 어닐링 (Cosine Annealing) 및 학습률 스케줄링
2026-04-18
310. AI 윤리, 편향성 (Bias), 저작권 (Copyright) 이슈
2026-04-18
311. 오디오/비디오 생성 AI (Sora, TTS, 딥페이크)
2026-04-18
312. 클립 (CLIP: Contrastive Language-Image Pre-training)
2026-04-18
313. 자율주행 강화학습과 모방 학습 (Imitation Learning)
2026-04-18
314. 강화학습 벨만 방정식 (Bellman Equation) 및 Q-Value
2026-04-18
315. 오토인코더 (Autoencoder) 구조 및 VAE
2026-04-18
316. AI 반도체 생태계 (NPU, TPU, HBM)
2026-04-18
317. LPU (Language Processing Unit)
2026-04-18
318. AI 컴파일러 (ONNX, TensorRT)
2026-04-18
319. 비정형 데이터 OCR 및 LLM 파싱 (ETL 파이프라인)
2026-04-18
320. 온디바이스 SLM (Small Language Model) 경량 아키텍처
2026-04-18
361. 그래디언트 소실 (Vanishing Gradient) 및 가중치 초기화
2026-04-18
377. 퍼셉트론 수렴 정리 (Perceptron Convergence Theorem)
2026-04-18
380. 텐서플로우/파이토치 계산 그래프 (Computational Graph) 지연 실행 vs 즉시 실행
2026-04-18
381. 딥러닝 미분 연쇄 법칙과 자동 미분 (Autograd)
2026-04-18
382. 퍼지 집합 (Fuzzy Set)과 논리 제어 (Min-Max)
2026-04-18
399. 매니폴드 가설 (Manifold Hypothesis)과 차원 축소
2026-04-18
409. 모델 양자화 (Quantization) 및 오차 최소화
2026-04-18
410. AI 지적 재산권, 데이터 주권 (Data Sovereignty), Data Act
2026-04-18
411. 지식 정보 시스템 온톨로지 (Ontology) 및 OWL/RDF
2026-04-18
412. 시간 합성곱 네트워크 (TCN)와 팽창 인과 합성곱
2026-04-18
413. 다중 모달 클립 (CLIP)과 대조 손실 (Contrastive Loss) 정렬
2026-04-18
414. LLM 디코더의 텍스트 생성 제어 (Top-K, Temperature)
2026-04-18
415. RAG 리랭크 (Re-rank)와 크로스 인코더 (Cross-Encoder)
2026-04-18
416. 프롬프트 인젝션(Prompt Injection)과 시맨틱 라우팅(Semantic Routing)
2026-04-18
421. 튜링 테스트 (Turing Test)와 기계 지능 평가
2026-04-18
422. A* 알고리즘과 허용 휴리스틱 (Admissible Heuristic)
2026-04-18
423. 몬테카를로 트리 탐색 (MCTS)과 알파고
2026-04-18
433. 퍼셉트론 (Perceptron)의 XOR 한계와 은닉층
2026-04-18
434. 시그모이드 (Sigmoid) 함수와 기울기 소실 (Vanishing Gradient)
2026-04-18
435. ReLU 활성화 함수와 도함수 (0, 1의 마법)
2026-04-18
436. 역전파 (Backpropagation)와 연쇄 법칙 (Chain Rule)
2026-04-18
437. 확률적 경사 하강법 (SGD)과 미니배치 (Mini-batch)
2026-04-18
438. Adam 옵티마이저 (관성과 적응형 학습 속도)
2026-04-18
439. 드롭아웃 (Dropout) 정규화와 앙상블 효과
2026-04-18
440. L1 / L2 정규화 (Regularization)와 페널티
2026-04-18
441. 배치 정규화 (Batch Normalization)
2026-04-18
442. CNN (합성곱 신경망)과 스트라이드, 패딩, 필터
2026-04-18
443. 풀링 (Pooling)과 이동 불변성 (Translation Invariance)
2026-04-18
444. ResNet의 잔차 연결 (Residual Connection)과 기울기 소실 방어
2026-04-18
445. YOLO (You Only Look Once)와 1-Stage 객체 탐지
2026-04-18
446. RNN (순환 신경망)과 BPTT (Backpropagation Through Time)
2026-04-18
447. LSTM (장단기 메모리)과 셀 상태 (Cell State), 게이트
2026-04-18
448. 어텐션 (Attention) 메커니즘과 병목 (Bottleneck) 한계 돌파
2026-04-18
449. 트랜스포머 (Transformer)와 셀프 어텐션 (Self-Attention) 병렬 연산
2026-04-18
450. BERT와 양방향 (Bidirectional) 마스크 언어 모델 (MLM)
2026-04-18
451. GPT와 단방향 (Uni-directional) 자가 회귀 (Auto-regressive) 생성
2026-04-18
452. 파운데이션 모델 (Foundation Model)과 자기 지도 학습
2026-04-18
453. 프롬프트 엔지니어링과 CoT (Chain of Thought) 단계별 추론
2026-04-18
454. 할루시네이션 (Hallucination, 환각)의 발생 원인과 방어
2026-04-18
455. RAG (Retrieval-Augmented Generation, 검색 증강 생성)
2026-04-18
456. 벡터 DB (Vector Database)와 코사인 임베딩 (Cosine Embedding)
2026-04-18
457. PEFT와 LoRA (저차원 적응 파인 튜닝)
2026-04-18
458. 양자화 (Quantization)와 FP32, INT8 압축 모델링
2026-04-18
459. 지식 증류 (Knowledge Distillation)와 교사-학생 네트워크
2026-04-18
460. GAN (생성적 적대 신경망)과 생성자/판별자
2026-04-18
461. 디퓨전 모델 (Diffusion Model)과 노이즈 역산 생성
2026-04-18
462. RLHF (인간 피드백 기반 강화학습)와 모델 정렬 (Alignment)
2026-04-18
463. 마르코프 결정 과정 (MDP)과 상태, 행동, 보상
2026-04-18
464. Q-Learning과 오프 폴리시 (Off-Policy)
2026-04-18
465. DQN (Deep Q-Network)과 경험 리플레이, 타겟 네트워크
2026-04-18
지식 그래프 기반 검색 증강 생성 (GraphRAG)
2026-03-05
전문가 혼합 모델 (Mixture of Experts, MoE)
2026-03-05
에이전틱 AI 워크플로우 (Agentic AI Workflows)
2026-03-05