Brain
Science
root
/
학습 노트
/
Study Note
/
10: 인공지능 (Artificial Intelligence)
/
2. 딥러닝 아키텍처 및 신경망 공학
2. 딥러닝 아키텍처 및 신경망 공학
61. 인공 신경망 (ANN, Artificial Neural Network) - 인간 두뇌의 뉴런 생물학적 구조를 모방한 모델
2026-04-07
62. 퍼셉트론 (Perceptron) - 로젠블랫 제안, 입력값 덧셈 후 임계치 넘으면 1 출력 (단층 신경망)
2026-04-07
63. 단층 퍼셉트론의 한계 - XOR(배타적 논리합) 문제 등 선형 분리 불가 문제 해결 못함 (AI의 1차 암흑기 원인)
2026-04-07
64. 다층 퍼셉트론 (MLP, Multi-Layer Perceptron) - 은닉층(Hidden Layer) 도입으로 비선형 문제 해결 가능
2026-04-07
65. 심층 신경망 (DNN, Deep Neural Network) - 2개 이상의 은닉층을 가진 다층 퍼셉트론
66. 가중치 (Weight, W) / 편향 (Bias, b) - 선형 방정식의 파라미터 (y = Wx + b)
67. 활성화 함수 (Activation Function) - 신경망 층 사이에 비선형성(Non-linearity)을 부여하는 필수 함수
68. 계단 함수 (Step Function) - 0 이하면 0, 0 이상이면 1 반환 (미분 불가)
69. 시그모이드 함수 (Sigmoid) - 0~1 사이 반환, 기울기 소실(Vanishing Gradient) 문제 발생
70. 하이퍼볼릭 탄젠트 (tanh) - -1~1 사이 반환, 중심이 0으로 수렴 (시그모이드보다 우수)
71. ReLU (Rectified Linear Unit) 함수 - x>0이면 x, x<0 이면 0 (기울기 소실 해결, 연산 빠름, 현재 가장 대중적)
72. Leaky ReLU / ELU - ReLU의 죽은 뉴런(Dying ReLU, 음수 입력 시 가중치 미갱신) 문제 해결 (음수 구간에 미세한 기울기 부여)
73. 소프트맥스 함수 (Softmax) - 다중 클래스 분류 시 출 력층 적용, 결과값 총합을 1로 만들어 확률화
74. 순전파 (Forward Propagation) - 인경신경망의 예측 과정
2026-04-10
75. 손실 함수 (Loss Function) - 예측 오차 계산
2026-04-10
76. MSE (Mean Squared Error) - 회귀 문제 핵심 손실 함수
2026-04-10
77. 크로스 엔트로피 오차 (CEE) - 분류 문제 핵심 손실 함수
2026-04-10
78. 역전파 (Backpropagation) - 가중치 수정과 기울기 계산
2026-04-10
79. 옵티마이저 (Optimizer) - 손실 함수 최적화와 가중치 갱신 알고리즘
2026-04-10
80. 경사 하강법 (GD) - 손실 함수 최적화와 학습률
2026-04-10
81. 확률적 경사 하강법 (SGD) - 미니배치를 통한 속도 향상
2026-04-10
82. 딥러닝 학습 주기 - Mini-batch Size, Epoch, Iteration 개념
2026-04-10
83. 지역 최솟값 (Local Minima) vs 전역 최솟값 (Global Minimum)
2026-04-10
84. 모멘텀 (Momentum) 옵티마이저 - 관성 활용 최적화
2026-04-10
85. 적응형 학습률 - Adagrad와 RMSProp의 보폭 조절 마법
2026-04-10
86. Adam (Adaptive Moment Estimation) - 최강의 결합 옵티마이저
2026-04-10
87. 가중치 초기화 (Weight Initialization) - Xavier와 He 초기화
2026-04-10
88. 기울기 소실 (Vanishing Gradient) - 딥러닝 암흑기의 원인
2026-04-10
89. 기울기 폭발 (Exploding Gradient) - 딥러닝 갱신폭 제어
2026-04-10
90. 정규화 (Regularization) - 과적합 방지 및 L1/L2 규제
2026-04-10
91. L1/L2 규제 - 가중치 감쇠(Weight Decay)와 과적합 방지
2026-04-10
92. 드롭아웃 (Dropout) - 딥러닝 앙상블 효과와 과적합 억제
2026-04-10
93. 조기 종료 (Early Stopping) - 과적합 방지와 학습 타이밍
2026-04-10
94. 배치 정규화 (Batch Normalization) - 미니배치 층간 정규화
2026-04-10
95. 합성곱 신경망 (CNN) - 공간 정보 보존 이미지 인식 아키텍처
2026-04-10
96. 합성곱 층 (Convolution Layer) - 필터 스캐닝 특징 추출
2026-04-10
97. 스트라이드 (Stride) - CNN 필터 이동 보폭과 특징 맵 축소
2026-04-10
98. 패딩 (Padding) - 이미지 크기 축소 방지와 가장자리 보존
2026-04-10
99. 특성 맵 (Feature Map) - CNN 필터 압축 지도의 실체
2026-04-10
100. 풀링 층 (Pooling Layer) - 해상도 압축과 불변성 확보
2026-04-10
101. 최대 풀링 (Max Pooling) / 평균 풀링 (Average Pooling) 비교
2026-04-10
102. 완전 연결 층 (FC Layer) - 추출된 특징의 1차원 분류
2026-04-10
103. CNN 주요 아키텍처의 발전 (AlexNet, VGG, ResNet 등)
2026-04-10
104. ResNet (Residual Network) - 잔차 연결 152층 기울기 소실 돌파
2026-04-10
105. 1x1 합성곱 (1x1 Convolution) - 병목 차원 축소와 파라미터 최적화
2026-04-10
106. 객체 탐지 (Object Detection) - 위치 좌표 바운딩 박스 판별
2026-04-10
107. R-CNN, Fast R-CNN, Faster R-CNN (2-Stage 탐지기) 진화
2026-04-10
108. YOLO 와 SSD (1-Stage 탐지기) - 실시간 고속 객체 탐지
2026-04-10
109. 이미지 분할 (Image Segmentation) - 픽셀 단위 객체 추론
2026-04-10
110. 의미적 분할 (Semantic Segmentation) vs 인스턴스 분할 (Instance Segmentation)
2024-11-20
111. 순환 신경망 (RNN, Recurrent Neural Network)
2024-11-20
112. 은닉 상태 (Hidden State) 순환 루프
2024-11-20
113. 장기 의존성 문제 (Long-term Dependency)
2026-03-04
114. BPTT (Backpropagation Through Time)
2026-03-04
115. LSTM (Long Short-Term Memory)
2026-03-04
LSTM의 3가지 게이트 (Input, Forget, Output)
2026-03-04
GRU (Gated Recurrent Unit) — 효율적인 시퀀스 학습 모델
2026-03-04
양방향 RNN (Bidirectional RNN) — 과거와 미래를 잇는 문맥 이해
2026-03-04
Seq2Seq 모델 (Sequence-to-Sequence Model)
2026-03-25
컨텍스트 벡터 (Context Vector)
2026-03-25