Brain
Science
root
/
학습 노트
/
Study Note
/
10: 인공지능 (Artificial Intelligence)
/
1. 인공지능 기초 및 탐색 알고리즘
1. 인공지능 기초 및 탐색 알고리즘
1. 인공지능 (Artificial Intelligence)의 정의 - 지능적 기계 및 에이전트를 설계하는 학문
2026-03-04
2. 튜링 테스트 (Turing Test) - 앨런 튜링 제안, 기계가 지능이 있는지를 판별하는 텍스트 대화 시험
2026-03-04
3. 강인공지능 (Strong AI / AGI, Artificial General Intelligence) - 인간과 같거나 뛰어난 범용 지능
2026-03-04
4. 약인공지능 (Weak AI / Narrow AI) - 특정 작업(바둑, 번역, 인식)에만 특화된 지능
2026-03-04
5. 초인공지능 (ASI, Artificial Super Intelligence) - 모든 면에서 인간을 초월한 지능
2026-03-04
6. 싱귤래리티 (Singularity / 특이점) - 인공지능이 스스로 자신보다 나은 AI를 만들어내어 기술 발전이 무한히 폭발하는 시점
2024-05-20
7. 지식 표현 (Knowledge Representation) - 규칙 기반, 의미망, 프레임, 스크립트 등
2024-05-20
8. 지식 베이스 (Knowledge Base) / 추론 엔진 (Inference Engine)
2024-05-20
9. 전문가 시스템 (Expert System) - 특정 분야 전문가의 지식을 룰 기반으로 구현 (MYCIN, DENDRAL)
2024-05-20
10. 전향 추론 (Forward Chaining) - 데이터에서 시작하여 결론 도출 (데이터 주도)
2024-05-20
11. 후향 추론 (Backward Chaining) - 가설/목표에서 시작하여 조건 데이터 검증 (목표 주도)
2024-05-24
12. 퍼지 논리 (Fuzzy Logic) - 0과 1 사이의 확률적 연속값(소속도)을 이용해 애매한 개념 처리 (Zadeh 제안)
2024-05-24
13. 상태 공간 탐색 (State Space Search)
2024-05-24
14. 맹목적 탐색 (Uninformed Search) - DFS(깊이 우선 탐색), BFS(너비 우선 탐색)
2024-05-24
15. 휴리스틱 탐색 (Heuristic Search / Informed Search) - 직관이나 경험 기반 정보(휴리스틱 함수)를 활용한 최적 탐색
2024-05-24
16. 언덕 오르기 탐색 (Hill Climbing) - 현재 상태에서 이웃 상태 중 가장 좋은 곳으로만 이동 (지역 최적해에 빠질 위험)
2024-05-24
17. A* (A-Star) 알고리즘 - f(n) = g(n) + h(n), 시작점부터의 실제 비용 g(n)과 목표까지의 예상 비용 h(n)을 합산하여 최단 경로 탐색
2024-05-24
18. 허용적 휴리스틱 (Admissible Heuristic) - A*가 최적해를 보장하기 위한 조건, h(n)이 실제 목표까지의 비용을 과대평가하지 않아야 함
2024-05-24
19. 미니맥스 알고리즘 (Minimax Algorithm) - 턴제 게임 트리(체스, 틱택토)에서 자신은 최대(Max), 상대는 최소(Min)를 선택한다고 가정하고 탐색
2024-05-24
20. 알파-베타 가지치기 (Alpha-Beta Pruning) - 미니맥스 트리에서 탐색할 필요가 없는 가지를 잘라내어 연산량 감소
2024-05-24
21. 몬테카를로 트리 탐색 (MCTS, Monte Carlo Tree Search) - 바둑(알파고) 등 경우의 수가 방대한 게임에서 무작위 시뮬레이션(롤아웃)을 통해 승률을 계산하여 최적 경로를 확장하는 탐색 기법
2026-04-02
22. MCTS 4단계 - 선택(Selection) -> 확장(Expansion) -> 시뮬레이션(Simulation) -> 역전파(Backpropagation)
2026-04-02
23. 머신러닝 (Machine Learning) 개념 - 데이터를 통해 기계가 스스로 규칙과 패턴을 학습
2026-04-02
24. 학습의 3가지 패러다임 - 지도 학습(Supervised), 비지도 학습(Unsupervised), 강화 학습(Reinforcement)
2026-04-02
25. 편향-분산 트레이드오프 (Bias-Variance Trade-off)
2026-04-02
26. 편향 (Bias) - 모델이 너무 단순하여 실제 데이터 패턴을 놓침 (과소적합, Underfitting)
2026-04-05
27. 분산 (Variance) - 모델이 학습 데이터의 노이즈까지 과도하게 외워버림 (과대적합, Overfitting)
2026-04-05
28. 오캄의 면도날 (Occam's Razor) 원칙 - 같은 성능이면 구조가 단순한 모델이 낫다.
2026-04-05
29. 차원의 저주 (Curse of Dimensionality) - 특성(변수) 공간 차원이 늘어날수록, 데이터 간 거리가 희소해지고 학습 효율이 급감하는 현상
2026-04-05
30. 차원 축소 (Dimensionality Reduction) 기법
2026-04-05
31. 독립 변수 (Independent Variable / Feature) / 종속 변수 (Dependent Variable / Target/Label)
2026-04-05
32. 회귀 (Regression) - 연속적인 수치 예측 (집값, 주가)
2026-04-05
33. 분류 (Classification) - 이산적인 클래스 판별 (스팸 여부, 개/고양이 사진)
2026-04-05
34. 군집화 (Clustering) - 정답(Label) 없이 데이터의 유사도에 따라 그룹 묶기
2026-04-05
35. 연관 규칙 (Association Rules) - 장바구니 분석 (A를 사면 B도 산다)
2026-04-05
36. 특성 공학 (Feature Engineering) - 도메인 지식을 활용하여 모델 학습에 좋은 피처(Feature)를 추출/가공
2026-04-05
37. 원-핫 인코딩 (One-Hot Encoding) - 범주형 데이터를 0과 1의 벡터로 변환
2026-04-05
38. 라벨 인코딩 (Label Encoding) / 정수 인코딩
2026-04-05
39. 스케일링 (Scaling) - 정규화(Normalization, 0~1), 표준화(Standardization, 평균 0 표준편차 1 Z-score)
2026-04-05
40. 교차 검증 (Cross-Validation) - K-Fold 분할 모델 평가 기법 (과적합 방지, 일반화 성능 확인)
2026-04-05
41. 하이퍼파라미터 (Hyperparameter) - 모델 학습 전 인간(엔지니어)이 직접 설정해야 하는 변수 (학습률, 트리 깊이 등)
2026-04-05
42. 그리드 서치 (Grid Search) / 랜덤 서치 (Random Search) / 베이지안 최적화 - 하이퍼파라미터 튜닝 기법
2026-04-05
43. 평가 지표 - 혼동 행렬 (Confusion Matrix: TP, FP, FN, TN)
2026-04-05
44. 정확도 (Accuracy) - 전체 대비 정답 비율 (데이터 불균형 시 왜곡)
2026-04-05
45. 정밀도 (Precision) - 모델이 Positive로 예측한 것 중 실제 Positive의 비율
2026-04-05
46. 재현율 (Recall / 민감도 / TPR) - 실제 Positive 중에서 모델이 맞춘 비율
2026-04-05
47. F1-Score - 정밀도와 재현율의 조화 평균
2026-04-05
48. ROC 커브 (Receiver Operating Characteristic) & AUC (Area Under Curve) - 임계값 변화에 따른 FPR 대비 TPR 그래프
2026-04-05
49. 앙상블 학습 (Ensemble Learning) - 여러 개의 약한 분류기를 결합하여 강력한 하나의 모델 구성
2026-04-07
50. 보팅 (Voting) - 다수결 (Hard Voting) 및 확률 평균 (Soft Voting)
2026-04-07
51. 배깅 (Bagging, Bootstrap Aggregating) - 훈련 데이터를 랜덤 복원 추출하여 독립 모델 병렬 학습 후 평균/다수결 (Random Forest)
2026-04-07
52. 부스팅 (Boosting) - 앞 모델이 틀린 오차(잔차)에 가중치를 부여해 다음 모델이 순차적으로 보완 (AdaBoost, GBM, XGBoost, LightGBM)
2026-04-07
53. 스태킹 (Stacking) - 여러 모델의 예측 결과를 다시 훈련 데이터로 삼아 메타 모델이 최종 학습
2026-04-07
54. 결정 트리 (Decision Tree) 학습 (불순도 기준 - 엔트로피, 지니 지수)
2026-04-07
55. 로지스틱 회귀 (Logistic Regression) - Sigmoid 함수 기반 이진 분류 선형 모델
2026-04-07
56. K-NN (K-Nearest Neighbors) - 새로운 데이터를 가장 가까운 K개 이웃의 클래스 중 다수결로 판별 (게으른 학습, Lazy Learning)
2026-04-07
57. K-Means 군집화 (비지도 학습) - K개의 중심점(Centroid)을 잡고 거리 기반 데이터 할당, 중심점 이동 반복 EM(Expectation Maximization)
2026-04-07
58. SVM (Support Vector Machine) - 두 클래스 간의 마진(Margin)을 최대화하는 초평면(Hyperplane)을 찾는 분류/회귀 모델
2026-04-07
59. 커널 트릭 (Kernel Trick) - 선형 분류 불가능 데이터를 고차원 내적 공간으로 매핑해 분리 (RBF 커널, 다항식 커널)
2026-04-07
60. 나이브 베이즈 분류기 (Naive Bayes) - 변수들이 조건부 독립이라 가정하고 베이즈 정리를 적용한 확률적 분류기 (스팸 필터링)
2026-04-07