DPU (Data Processing Unit / SmartNIC)
핵심 인사이트 (3줄 요약)
- 본질: 데이터센터 네트워크 속도가 100Gbps~400Gbps로 폭발하면서, 네트워크 패킷 라우팅, 방화벽 암호화, 스토리지 제어(NVMe) 등을 처리하느라 정작 메인 CPU가 본업을 못 하고 뻗어버리는 비극을 막기 위해 랜카드(NIC) 위에 고성능 ARM 코어와 하드웨어 가속기(ASIC)를 융합해 만든 3대 프로세서(CPU, GPU, DPU)의 한 축이다.
- 가치: 서버 CPU가 떠안고 있던 지저분하고 무거운 '데이터센터 인프라 세금(Datacenter Tax)' 연산을 DPU라는 독립된 칩셋으로 통째로 오프로딩(Off-loading)하여, 비싼 서버 CPU의 연산력 100%를 오롯이 고객 애플리케이션이나 클라우드 가상머신(VM)에 할당(판매)할 수 있게 해 준다.
- 융합: 아마존 AWS의 '나이트로(Nitro)' 시스템으로 대성공을 거두며 클라우드 인프라의 절대 표준이 되었고, 엔비디아의 블루필드(BlueField) 등을 통해 하드웨어 인프라 제어 권력이 소프트웨어(Hypervisor OS)에서 DPU 칩셋으로 완전히 이전되는 **'인프라의 반도체화(Infrastructure as Silicon)'**를 완성했다.
Ⅰ. 개요 및 필요성 (Context & Necessity)
DPU (Data Processing Unit, 초창기엔 SmartNIC으로 불림)의 탄생은 클라우드 기업(아마존, MS, 구글)들이 서버의 CPU 낭비를 보며 피눈물을 흘리다 만들어낸 "데이터센터의 독립선언문"이다.
과거에는 랜선으로 데이터 패킷이 들어오면 메인 CPU가 인터럽트를 받고, 보안 암호를 풀고(TLS), 가상 머신(VM) 스위칭을 해주고, 디스크(SSD) 주소를 매핑해 주는 온갖 뒤치다꺼리를 다 했다. 네트워크 속도가 1Gbps일 땐 CPU가 남는 시간에 대충 해줘도 문제없었다. 그런데 데이터센터 네트워크가 100Gbps, 400Gbps로 폭발하자 대재앙이 터졌다. 1초에 쏟아지는 수억 개의 패킷 검사(방화벽)와 압축 해제를 하느라, 비싼 돈 주고 산 64코어 CPU 중 무려 20~30코어가 '인프라 관리(Datacenter Tax)'만 하다가 과로사하게 된 것이다.
클라우드 벤더(AWS)는 분노했다. "CPU 코어를 고객한테 빌려주고 돈을 받아야 하는데, 왜 우리 클라우드 관리 시스템(하이퍼바이저)이 코어 30%를 다 파먹고 있지?!" "야! 아예 랜카드(NIC) 위에다가 독자적인 ARM CPU 코어랑 방화벽/압축 전용 칩셋(ASIC)을 통째로 박아 넣어버려! 그리고 그 랜카드 안에서 패킷 검사, 암호 해독, 디스크 연결 다 끝낸 뒤에 메인 CPU한테는 깨끗한 밥상만 차려서 바쳐라! CPU는 진짜 비싼 돈 버는 일만 하게!"
이 기막힌 융합 발상이 바로 단순한 랜카드를 지능형 프로세서로 승격시킨 DPU의 시작이다.
📢 섹션 요약 비유: 옛날엔 회사 사장님(CPU)이 택배 상하차, 경비원(방화벽), 청소(데이터 압축)까지 다 하느라 정작 중요한 결재를 30%밖에 못 했습니다(Datacenter Tax). DPU는 아예 회사 로비 현관에 '다목적 수위실(SmartNIC)'을 크게 지어놓고 100명의 특수 직원을 둔 겁니다. 잡다한 일은 수위실에서 완벽히 다 끝내고, 사장님 책상에는 서명할 진짜 중요한 결재 서류만 올려주는 극강의 인프라 분업 시스템입니다.
Ⅱ. 아키텍처 및 핵심 원리 (Deep Dive)
DPU는 단순한 가속기(GPU/TPU)와 달리, 그 자체가 독자적인 리눅스(Linux) 운영체제를 돌리며 호스트 CPU를 철저히 왕따(격리)시키는 완벽한 SoC (System-on-Chip) 다.
| DPU 핵심 내부 구성 블록 | 아키텍처적 역할 및 오프로딩(Offload) 기능 | 범용 CPU의 구원 포인트 (효과) |
|---|---|---|
| High-speed NIC (초고속 랜카드) | 200~400Gbps의 트래픽을 물리적으로 받아내는 이더넷 포트 | 네트워크 대역폭 한계(I/O Bound)의 일차적 방어선 |
| Multi-core ARM CPU (독립 두뇌) | 호스트 메인보드 OS와 완전히 분리된 DPU만의 독자적 Linux 구동. 하이퍼바이저 제어앱을 여기서 돌림 | 메인 CPU에서 클라우드 관리 데몬 프로그램들을 완전히 퇴출시켜 보안과 성능 확보 (Zero-Trust) |
| Network/Security ASIC (가속기) | IPsec, TLS 암호화/복호화, OVS(가상 스위치 라우팅) 규칙을 소프트웨어 칩 회로로 1클럭에 하드웨어 처리 | CPU가 수천 클럭 소모하던 패킷 암호 해독(AES) 연산을 칩 레벨에서 나노초 만에 박살 냄 |
| Storage Accelerator (NVMe-oF) | 멀리 떨어진 랙(Rack)의 하드디스크(SSD)를 마치 내 메인보드에 꽂혀 있는 것처럼 속여주는 압축 및 블록 저장소 가속기 | CPU가 디스크 I/O 인터럽트 때문에 잠들고 깨는(Context Switch) 치명적 낭비 100% 근절 |
DPU 아키텍처의 가장 소름 돋는 무기는 **보안 격리(Air-gap Isolation)**와 Zero-Trust 아키텍처다.
[전통적 하이퍼바이저 vs DPU(AWS Nitro)의 완벽한 아키텍처 격리 프랙탈]
(1) 낡은 클라우드 방식 (소프트웨어 하이퍼바이저)
[ 메인 CPU ]
├─ 구역 A: 해커 고객이 빌린 가상 머신(VM)
├─ 구역 B: 착한 고객이 빌린 가상 머신(VM)
└─ 구역 C: 클라우드 회사의 하이퍼바이저(제어 및 방화벽 프로그램)
=> 비극: 셋이 같은 CPU 캐시와 메모리를 공유함. 해커가 스펙터(Spectre) 해킹 기법으로 구역 C를 털거나 CPU를 100% 마비시키면 클라우드 센터가 통째로 털림.
(2) 현대 클라우드 방식 (DPU 하드웨어 격리)
[ DPU 칩 (랜카드 위치) ] : 클라우드 회사의 하이퍼바이저와 방화벽이 아예 물리적으로 분리된 이곳에 삼. (성역)
▲ (PCIe 버스 통신)
[ 메인 CPU ] : 오직 해커 고객과 착한 고객의 VM만 돌아감. (메인 CPU 자원 100% 판매 가능!)
=> 마법: 해커가 메인 CPU를 악성코드로 불태워도, 방화벽과 제어권은 물리적으로 떨어진
DPU 칩이 쥐고 있으므로 즉시 인터넷을 끊어버리고 무력화할 수 있음. 완벽한 하드웨어 격리 달성.
결국 DPU는 성능 가속기를 넘어서, 클라우드 업체가 메인 서버 CPU를 100% 믿지 않아도(Zero Trust) 스스로 인프라를 통제할 수 있게 만든 "감시자이자 문지기 칩"이다.
📢 섹션 요약 비유: 옛날엔 건물주(클라우드 벤더)가 세입자(고객 VM)랑 같은 층에 살면서 문단속(보안)과 택배 배달(네트워크)을 직접 했습니다(소프트웨어 제어). 그러다 세입자가 미쳐서 불을 지르면 건물주도 같이 죽었죠. DPU는 건물주가 아예 건물 밖 독립된 경비실(랜카드 칩)로 거처를 완전히 옮긴 겁니다. 건물(CPU) 전체를 온전히 세입자에게 100% 비싸게 임대(자원 확보)해 주고, 문제가 생기면 경비실에서 건물 스위치를 싹 내려버리는 궁극의 방어 시스템입니다.
Ⅲ. 융합 비교 및 다각도 분석 (Comparison & Synergy)
현대 데이터센터의 성배를 차지하기 위해 CPU, GPU, DPU 3대장이 어떻게 역할을 나누고 융합하는지 아키텍처 지형도를 이해해야 한다.
데이터센터 3대 프로세서(CPU vs GPU vs DPU) 융합 생태계
| 프로세서 종류 | 주요 거주 위치 | 아키텍처적 본질적 역할 | 융합의 시너지 포인트 |
|---|---|---|---|
| CPU (만능 지휘관) | 메인보드 중앙 | 비즈니스 로직(Application), OS 커널 구동, 예외 처리 등 머리 쓰는 일 | 데이터베이스 쿼리, 웹 요청 등 복잡한 조건 분기(MIMD) 처리 |
| GPU (무식한 용병) | PCIe 슬롯 확장 | 모니터 렌더링, 인공지능(AI) 신경망 행렬 곱셈(MAC) 무한 폭격 | 챗GPT 학습 등 엄청난 덩어리 수학 연산(SIMT)의 짬처리(오프로드) |
| DPU (인프라 문지기) | 랜카드(NIC) 슬롯 | 네트워크 트래픽 분류, 암호화 풀기, 외부 디스크(SSD) 연결 맵핑, 방화벽 규칙 적용 | CPU를 괴롭히던 지저분한 패킷 분석을 가로채어, CPU와 GPU가 연산에만 100% 집중하게 해줌 |
타 과목 관점의 융합 시너지
- 소프트웨어 정의 네트워크 (SDN / OVS 융합): 수만 대의 가상 머신(VM)이 통신할 때, 옛날에는 메인 CPU가
Open vSwitch(OVS)라는 소프트웨어 스위치를 억지로 돌려가며 패킷을 쪼개고 라우팅했다. 이 엄청난 소프트웨어 CPU 인터럽트를, 엔비디아 블루필드(BlueField) DPU는 아예 칩 내부의 eSwitch(Hardware ASIC) 회로와 1:1로 융합 매핑해버렸다. CPU가 1초에 1,000번씩 인터럽트에 걸려 멈추던 재앙이 DPU 칩의 하드웨어 전력으로 0.1나노초 만에 스킵되며, 클라우드 가상 네트워크의 속도가 하드웨어 스위치급으로 퀀텀 점프했다. - 분산 스토리지 (NVMe over Fabrics, NVMe-oF): 빅데이터 서버 한 대에 SSD를 100개씩 꽂을 수는 없다. 그래서 저기 멀리 있는 다른 랙(Rack)에 SSD 1만 개를 모아놓은 스토리지 서버를 만든다. 이 멀리 있는 SSD를 가져올 때 메인 CPU가 TCP/IP 포장을 풀고 조립하면 엄청 느리다. DPU는 RDMA(Remote Direct Memory Access) 하드웨어 엔진을 융합 탑재하여, 메인 CPU 몰래 랜선을 타고 들어와서 우리 서버 램(RAM)에 직접 데이터를 꽂아버린다. 윈도우(OS) 입장에서는 마치 자기 메인보드에 꽂혀 있는 로컬 SSD인 것처럼 착각하는 소름 돋는 I/O 가상화를 DPU가 뒤에서 완벽히 사기(Virtualization) 쳐준다.
[DPU 오프로딩(Off-loading)을 통한 데이터센터 CPU 코어 환급 마법]
* AWS EC2 인스턴스를 돌리는 물리 서버 (총 64 코어)
(1) DPU(Nitro) 탑재 전:
- 네트워크/방화벽/스토리지 소프트웨어(Hypervisor)가 16 코어 처묵처묵 (Datacenter Tax 25%)
- 고객에게 돈 받고 팔 수 있는 코어: 딱 48 코어뿐. (적자 발생)
(2) DPU(Nitro) 랜카드 융합 탑재 후:
- Hypervisor 소프트웨어 전체를 DPU 칩(랜카드) 내부의 ARM 코어로 이사 보냄!
- 메인 서버 64 코어 전체가 하이퍼바이저의 부담에서 100% 해방됨.
- 고객에게 64 코어 전체(Bare Metal 성능 그대로)를 다 팔아버림! (매출 33% 떡상 및 서버 렉 완벽 제거)
=> 하드웨어 투자가 클라우드 비즈니스 모델 수익을 폭발시킨 교과서적 사례.
📢 섹션 요약 비유: DPU 융합은 고급 레스토랑의 혁신입니다. 옛날엔 메인 셰프(CPU)가 손님 예약 전화받고(네트워크), 식자재 창고 가서 재료 떼오고(스토리지), 위생 검사(보안)까지 하느라 정작 하루에 스테이크를 30장밖에 못 구웠습니다. 그래서 식당 입구에 무지막지하게 똑똑한 매니저(DPU)를 고용해서 전화, 창고, 위생을 싹 다 맡겨버린 겁니다. 셰프는 주방에 박혀서 고기만 굽게 되니 하루 100장의 스테이크(CPU 100% 활용률)를 팔 수 있게 되었습니다.
Ⅳ. 실무 적용 및 기술사적 판단 (Strategy & Decision)
실무 클라우드 아키텍트나 대형 핀테크 인프라 엔지니어는 "이 트래픽의 병목이 우리 앱 코드(Application) 문제인지, 아니면 커널의 네트워크 스택(Datacenter Tax) 문제인지"를 칼같이 분리해서 진단하고 DPU 오프로딩을 기획해야 한다.
실무 클라우드/HPC 인프라 DPU 도입 시나리오
-
마이크로서비스(MSA) 서비스 메시(Service Mesh) 프록시 오프로딩
- 상황: 수천 개의 쿠버네티스(K8s) 컨테이너가 서로 API 통신을 할 때마다, 이스티오(Istio)나 엔보이(Envoy) 프록시(Proxy)가 사이드카(Sidecar)로 붙어 mTLS 암호화와 트래픽 라우팅을 수행함. 이 암호화 연산 때문에 노드(서버)의 CPU 30%가 프록시로 타죽으며 정작 앱은 뻗어버림.
- 의사결정: 이 무거운 이스티오 프록시 소프트웨어를 메인 CPU의 컨테이너에서 뜯어내어, 엔비디아 BlueField DPU 칩 내부의 ARM 코어와 암호화 가속기(Crypto ASIC) 위로 내려버리는(Offload) 인프라 아키텍처 전면 개편을 단행한다.
- 이유: mTLS(상호 암호화)는 무식한 수학 연산이다. 똑똑한 메인 CPU가 할 일이 아니다. DPU 칩에 달린 암호화 가속 엔진은 이 TLS 암/복호화를 1클럭에 하드웨어로 박살 낸다. DPU를 도입하면 마이크로서비스 간의 통신 지연(Latency)이 1/10로 줄어들고, 메인 CPU는 프록시 오버헤드에서 해방되어 100% 비즈니스 로직만 돌리게 되는 인프라의 구원이 열린다.
-
AI GPU 클러스터의 RDMA 통신(GDR) 최적화
- 상황: H100 GPU 1,000대를 엮어 LLM(거대 언어 모델)을 분산 학습시키는데, 서버 간 텐서(행렬) 데이터를 넘겨주는 네트워크 병목 때문에 GPU 사용률이 40%로 처박힘.
- 의사결정: 메인 CPU를 거쳐 TCP/IP 스택으로 데이터를 쏘는 멍청한 구형 아키텍처를 당장 폐기한다. 대신 GPUDirect RDMA (GDR) 기술이 탑재된 DPU(SmartNIC)를 도입하여, DPU가 메인 CPU 커널을 완전히 왕따시키고 GPU VRAM 메모리에 있는 텐서 데이터를 랜선을 통해 다른 서버의 GPU VRAM으로 빛의 속도로 직접(Direct) 쏴버리는 바이패스(Bypass) 네트워크를 구축한다.
- 이유: AI 학습 시 수백 기가바이트의 데이터가 오갈 때, 메인 CPU에 인터럽트를 걸어 OS의 메모리 버퍼로 데이터를
Copy-and-Paste하는 짓은 서버를 죽이는 맹독이다. DPU는 아예 메인 CPU를 수면(Sleep) 상태로 놔둔 채, 랜카드(하드웨어)가 직접 GPU 메모리를 파먹고 뱉어내는 극단적인 초고속 우회로(Bypass)를 만들어준다. AI 인프라의 성능은 GPU 스펙이 아니라 이 DPU/NIC의 RDMA 대역폭이 100% 결정한다.
[실무 데이터센터 병목 (Datacenter Tax) 프로파일링 진단 트리]
[현상] 서버 트래픽이 초당 10Gbps를 넘어가자, 서버의 CPU `sys(커널 모드)` 점유율이 80%를 찍으며 웹앱이 뻗음.
├─ `top` 이나 `perf` 분석 시 `ksoftirqd` (네트워크 인터럽트 데몬)나 암호화(SSL) 함수가
│ CPU 자원을 미친 듯이 갉아먹고 있는가?
│ ├─ Yes ──> 100% 데이터센터 인프라 텍스(Tax) 병목이다!
│ │ 똑똑한 CPU가 패킷 까보고 암호 푸는 단순 노가다를 하느라 본업을 못 하고 있다.
│ │ => 해결: 당장 트래픽 처리를 하드웨어로 떠넘기는 SmartNIC(DPU)을 서버에 꽂거나,
│ │ 클라우드에서 Nitro Enabled 인스턴스(AWS C5/C6 등)로 마이그레이션 하라!
│ │
│ └─ No ───> 네트워크 탓이 아니다. 앱 내부의 DB 락(Lock) 대기나 무거운 JSON 파싱이 원인이다.
│ 비즈니스 로직(Application)을 리팩토링하라.
운영 및 아키텍처 도입 체크리스트
- 베어메탈(Bare-metal) 수준의 극강 성능을 고객에게 클라우드로 팔고 싶은데, 고객이 서버에 나쁜 해킹 코드를 심을까 봐 두렵다면? 보안 제어 솔루션(Agent)을 고객 OS에 깔지 말고, 고객이 절대 손댈 수 없는 랜카드 칩셋(DPU) 내부에 격리(Air-gapped)하여 백도어 통제망을 완벽하게 구축했는가?
안티패턴: 초당 접속자 수십 명 수준의 낡고 작은 모놀리식(Monolithic) 레거시 서버 환경을 구축하면서 "요즘은 DPU(SmartNIC)가 대세래!" 하며 장비당 수백만 원짜리 최신 블루필드(BlueField) 랜카드를 도배하는 돈지랄. DPU는 네트워크 대역폭이 CPU의 허리를 꺾어버릴 만큼 폭주하는 100G/400G 스케일 환경에서나 빛을 발하는 인프라 수술 도구다. 작은 트래픽에서는 일반 랜카드(NIC)와 차이가 0에 수렴한다.
📢 섹션 요약 비유: DPU는 공항의 자동 출입국 심사대(하드웨어)와 같습니다. 사람이 일일이 여권을 까보고(CPU 인터럽트) 도장 찍어주는 옛날 방식으로는 1만 명의 관광객(패킷)이 몰리면 공항이 마비됩니다. 1초 만에 여권을 스캔하고 문을 열어주는 자동화 기계(DPU 암호화 가속기)를 게이트에 쫙 깔아야만, 공항 직원(CPU)은 진짜 심각한 밀수범(비즈니스 로직) 잡는 데에만 모든 정신을 집중할 수 있습니다.
Ⅴ. 기대효과 및 결론 (Future & Standard)
DPU(Data Processing Unit)는 수십 년간 폰 노이만 아키텍처의 중심이자 데이터센터의 절대 제왕이었던 "메인보드 CPU의 권력을 랜카드 칩셋으로 강제 이양" 시켜버린 권력 교체(Shift)의 상징이다.
| 패러다임 극복 과제 | CPU 중심의 소프트웨어 인프라 시대 | DPU 중심의 하드웨어 오프로딩 시대 | 클라우드 산업 생태계 파급 효과 |
|---|---|---|---|
| 클라우드 자원 활용률 | 하이퍼바이저 낭비로 코어의 70%만 판매 | 오버헤드 0%. 코어 100%를 고객에게 할당 | AWS(Nitro) 등 거대 클라우드 벤더의 서버 마진율 극대화 및 초격차 달성 |
| 제로 트러스트 보안 | 해커가 OS 커널을 뚫으면 방화벽도 다 털림 | 방화벽 칩(DPU)이 물리적으로 분리되어 안전 | 악성코드가 퍼져도 DPU가 하드웨어 단에서 서버를 단절시켜 버리는 무결점 보안 |
미래 전망: DPU는 단순한 랜카드(NIC) 수준을 넘어 데이터센터의 '진짜 메인 마더보드' 역할을 뺏어오고 있다. 향후 아키텍처는 서버 섀시(상자) 안에 CPU와 메모리를 아무렇게나 흩뿌려 놓고(Disaggregated Infrastructure), 이 모든 자원을 거대한 DPU 스위칭 패브릭 망이 중앙 통제하여 "A 고객에겐 CPU 2개와 저쪽 서버의 램 100GB를 0.1초 만에 논리적으로 조립해 대여해 주는" 궁극의 컴포저블 인프라(Composable Infrastructure) 시대로 융합/진화할 것이다. 결국 미래의 컴퓨터는 거대한 스위치 망(DPU) 하나가 수만 개의 CPU와 GPU 부품을 레고 조립하듯 지배하는 외계 구조로 바뀔 것이다.
📢 섹션 요약 비유: 옛날엔 사장님(CPU) 책상이 회사(서버)의 중심이었고, 문지기(랜카드)는 그냥 바깥에 있는 하수인이었습니다. 하지만 사이버 전쟁과 트래픽 폭주 시대가 오자, 엄청난 무기와 권력을 쥔 경호실장(DPU)이 회사의 실세가 되었습니다. 사장님(CPU)과 디자인 팀장(GPU)은 이제 경호실장(DPU)이 허락하고 조립해 준 안전한 방 안에서만 열심히 자기 일만 묵묵히 해내는 거대한 인프라 권력 이동이 완료되었습니다.
📌 관련 개념 맵 (Knowledge Graph)
- 하드웨어 가속기 (Hardware Accelerator) | DPU 역시 넓은 의미에서 암호화, 패킷 라우팅, 스토리지 압축을 전담하는 특수 목적 가속기(ASIC) 덩어리 칩셋임
- 오프로딩 (Off-loading) | 메인 CPU가 하던 귀찮은 인프라 네트워크 작업을 통째로 뜯어서 DPU 하드웨어에게 하청(짬처리)을 주는 현대 클라우드의 최고 생존 기술
- RDMA (Remote Direct Memory Access) | 다른 서버의 메모리 데이터를 퍼올 때, 메인 CPU나 OS 커널(TCP/IP 스택)을 아예 깨우지 않고 랜카드(DPU)가 다이렉트로 메모리 버스에 꽂아버려 지연을 0으로 만드는 마법
- 데이터센터 텍스 (Datacenter Tax) | 가상 머신(VM)을 띄우고 네트워크/방화벽을 관리하느라 서버 CPU의 연산력 중 20~30%가 쓸데없이 낭비되어 증발하는 클라우드 사업자의 뼈아픈 세금 비용 (DPU가 이를 0으로 만듦)
- 컴포저블 인프라 (Composable Infrastructure) | DPU의 최종 목표. CPU, 램, 디스크를 1대의 물리 서버 박스에 가두지 않고 데이터센터 전체에 쫙 흩뿌려둔 뒤, DPU 통신망이 이를 필요할 때마다 레고처럼 조립해서 가상 컴퓨터로 만들어주는 미래 클라우드 융합 기술
👶 어린이를 위한 3줄 비유 설명
- 개념: DPU(스마트 랜카드)는 똑똑한 사장님(CPU)이 하루 종일 회사 문 앞에서 손님들 신분증 검사하고 택배 상자를 뜯느라 정작 중요한 서류 결재를 못 하는 걸 막아주는 '만능 인공지능 경비 아저씨'예요.
- 원리: 예전 경비 아저씨(옛날 랜카드)는 손님이 오면 무조건 사장님을 깨워서 허락을 받았지만, DPU 경비 아저씨는 자기가 똑똑한 두뇌(칩)를 갖고 있어서 사장님을 안 깨우고 나쁜 놈(해커)은 쫓아내고 착한 손님은 알아서 방으로 안내해 줘요.
- 효과: 귀찮고 힘든 일은 DPU 경비 아저씨가 입구에서 빛의 속도로 다 끝내주기 때문에, 사장님(서버 CPU)은 의자에 딱 앉아서 회사에 진짜 돈을 벌어다 주는 제일 중요한 일(앱 프로그램 실행)만 100% 집중해서 할 수 있게 된답니다.