15. 지연 (Latency/Delay) - 데이터 관점
핵심 인사이트 (3줄 요약)
- 본질: 네트워크에서 데이터 패킷이 출발지부터 목적지까지 도달하는 데 걸리는 총 지연 시간(Total Nodal Delay)은 **처리 지연(Processing), 큐잉 지연(Queuing), 전송 지연(Transmission), 전파 지연(Propagation)**의 네 가지 독립적인 지연 요소들의 합이다.
- 가치: 데이터 관점에서의 핵심 병목은 라우터 버퍼에 패킷이 쌓여 기다리는 큐잉 지연과, 대역폭 한계로 인해 패킷을 선로에 밀어 넣는 데 걸리는 전송 지연이며, 이를 통제하는 것이 QoS(Quality of Service) 엔지니어링의 본질이다.
- 융합: 트래픽이 폭증할 때 처리량(Throughput)은 일정 수준을 유지하더라도 큐잉 지연이 기하급수적으로 솟구치며(Bufferbloat), 이는 TCP의 타임아웃을 유발해 전체 네트워크를 붕괴시키는 치명적 연쇄 작용을 낳는다.
Ⅰ. 개요 및 필요성 (Context & Necessity)
-
개념: 컴퓨터 네트워크에서 패킷 하나가 라우터 하나를 거쳐 다음 목적지까지 이동할 때(One-Hop) 겪는 4가지 지연 요소는 다음과 같다.
- 처리 지연 (Processing Delay): 라우터가 패킷 헤더를 까보고 에러를 검사한 뒤 어디로 보낼지 결정(라우팅 테이블 룩업)하는 데 걸리는 시간. (매우 짧음, 마이크로초 단위)
- 큐잉 지연 (Queuing Delay): 나갈 길이 막혀 있거나 앞선 패킷들이 많아 라우터의 램(Buffer)에 저장된 채 자기 순서를 기다리는 시간. (트래픽에 따라 극도로 가변적)
- 전송 지연 (Transmission Delay): 패킷의 첫 비트부터 마지막 비트까지 온전히 전선으로 밀어 넣는(Push) 데 걸리는 시간. ($L/R$, 대역폭의 영향을 받음)
- 전파 지연 (Propagation Delay): 전선에 올라탄 첫 번째 비트가 빛의 속도로 물리적 거리를 날아가 다음 목적지 라우터에 닿는 데 걸리는 시간. ($d/s$, 거리의 영향을 받음)
-
필요성: "왜 게임에서 핑(Ping)이 튀는가?"라는 질문에 대답하기 위해서는 지연의 구조를 해부해야 한다. 만약 전송 지연이 문제라면 비싼 돈을 주고 기가 랜(대역폭 상향)으로 바꿔야 하지만, 큐잉 지연이 문제라면 QoS를 설정해 게임 패킷에 새치기 권한을 주어야 하고, 전파 지연이 문제라면 물리적으로 가까운 게임 서버(Edge Computing)를 찾아야 한다. 원인을 정확히 분해하지 못하면 엉뚱한 인프라에 돈을 낭비하게 되므로 4대 지연의 분리 분석은 필수적이다.
-
💡 비유: 고속도로 톨게이트 1개를 통과하는 과정과 같다.
- 처리 지연: 톨게이트 직원이 내 표를 확인하고 요금을 정산하는 시간.
- 큐잉 지연: 내 앞에 늘어선 차들 때문에 톨게이트 진입 전 줄을 서서 기다리는 시간 (명절엔 길어짐).
- 전송 지연: 내 차가 톨게이트 차단기를 완전히 빠져나가는 데 걸리는 시간 (트럭은 오래 걸리고 오토바이는 빠름).
- 전파 지연: 톨게이트를 벗어난 후 다음 도시까지 고속도로를 쌩쌩 달리는 시간 (물리적 거리).
-
4대 지연의 시공간적 발생 위치 시각화:
┌─────────────────────────────────────────────────────────┐
│ 네트워크 라우터(Node) 통과 시 발생하는 4대 지연 구조 │
├─────────────────────────────────────────────────────────┤
│ │
│ [라우터 A] │
│ ▶ (1) Processing Delay (CPU 처리: 헤더 검사, 목적지 검색) │
│ ↓ │
│ ▶ (2) Queuing Delay (버퍼 대기: 앞 패킷이 나갈 때까지 대기) │
│ ↓ │
│ ▶ (3) Transmission Delay (선로로 밀어넣기: 길이 L / 속도 R) │
│ ─────────┬─────────────────────────┬─────────────── │
│ 마지막 비트 첫 비트 │
│ └─────────────── (4) Propagation Delay │
│ (빛의 속도로 날아감: 거리 d / 속도 s)│
│ │
│ [라우터 B]│
│ │
│ * 총 노드 지연(d_nodal) = d_proc + d_queue + d_trans + d_prop │
└─────────────────────────────────────────────────────────┘
[다이어그램 해설] 그림은 패킷이 라우터를 거치는 생로병사를 보여준다. 들어오자마자 CPU가 계산하는 짧은 시간(1)을 거쳐 큐(Queue)에 쌓인다. 혼잡도에 따라 (2)번 시간은 0이 될 수도 있고 수 초가 될 수도 있다. 내 차례가 되면 랜카드(NIC)가 패킷 전체(L)를 선폭(R)에 맞게 욱여넣는데, 이 밀어내는 행위 자체가 (3)번 지연이다. 선에 올라탄 펄스들이 전자기파의 속도로 허공을 날아가는 물리적 비행시간이 (4)번 지연이다. 이 네 가지가 모두 합쳐져 우리가 흔히 아는 Ping(RTT, 왕복 지연)을 구성한다.
- 📢 섹션 요약 비유: 피자를 배달시킬 때, 주방장이 주문서를 읽는 시간(처리), 화덕에 자리가 날 때까지 피자 반죽이 대기하는 시간(큐잉), 피자를 굽는 시간(전송), 배달부가 오토바이로 우리 집까지 달려오는 시간(전파)이 모두 합쳐져야 내 입에 피자가 들어옵니다.
Ⅱ. 아키텍처 및 핵심 원리 (Deep Dive)
1. 전송 지연 (Transmission Delay) vs 전파 지연 (Propagation Delay)
이 두 가지를 헷갈리는 것이 초보 엔지니어의 가장 흔한 실수다.
- 전송 지연 ($d_{trans} = L / R$): 공유기가 패킷을 '뿜어내는' 시간.
- $L$ = 패킷의 길이 (Bits)
- $R$ = 링크 전송률 / 대역폭 (bps)
- 예: 100Mbps($R$) 랜선으로 1,000비트($L$) 패킷을 보낼 때, 스위치가 1,000비트를 전선에 다 밀어 넣는 데 걸리는 시간은 $1,000 / 100,000,000 = 10 \mu s$(마이크로초).
- 전파 지연 ($d_{prop} = d / s$): 선에 올라탄 비트가 '날아가는' 시간.
- $d$ = 물리적 거리 (m)
- $s$ = 매체 내 전파 속도 (보통 빛의 속도의 2/3, 약 $2 \times 10^8$ m/s)
- 예: 서울-부산 400km($d$)를 갈 때 걸리는 시간은 $400,000 / 200,000,000 = 2 ms$(밀리초).
극단적 예시: 10대의 덤프트럭(데이터 $L$)을 고속도로에 올리는 시간(전송 지연, 톨게이트 징수 속도 $R$)과, 고속도로에 올라간 트럭이 시속 100km($s$)로 서울에서 부산($d$)까지 달리는 시간(전파 지연)은 아예 성격이 다른 별개의 물리량이다.
2. 큐잉 지연 (Queuing Delay)과 병목 붕괴
데이터 관점에서 가장 제어하기 까다로운 악마는 큐잉 지연이다. 라우터에 도달하는 패킷의 도착 속도($a \cdot L$)가 라우터가 선로로 밀어내는 속도($R$)보다 빠르면 패킷은 큐(버퍼)에 쌓인다. 이를 트래픽 강도(Traffic Intensity) $I = (L \times a) / R$ 로 표현한다.
┌───────────────────────────────────────────────────────────────┐
│ 트래픽 강도(I)에 따른 큐잉 지연의 기하급수적 증가 곡선 │
├───────────────────────────────────────────────────────────────┤
│ │
│ 큐잉 지연 (Queuing Delay) │
│ │ / │
│ │ / │
│ ∞ │ / │
│ │ / │
│ │ / │
│ │ / │
│ │ / │
│ │ / │
│ │ _ _ _ ─ ─ ─ │
│ 0 └──────────────────────────────────────────────│─────▶ │
│ 0 0.5 0.8 1.0 (I) │
│ 트래픽 강도 ( I = La / R ) │
│ │
│ * 해석: 트래픽 유입량(La)이 링크 대역폭(R)에 근접할수록 (I가 1에 가까워질수록)│
│ 큐잉 지연은 완만하게 증가하다가 수직으로 솟구치며 무한대(패킷 드롭)가 됨.│
└───────────────────────────────────────────────────────────────┘
[다이어그램 해설] 고속도로(R) 용량의 50% 수준(I=0.5)으로 차가 들어올 때는 아무도 브레이크를 밟지 않는다(큐잉 지연 0). 하지만 용량의 90% 수준으로 차가 들어오기 시작하면, 병목이 병목을 물고 연쇄 작용을 일으켜 대기 시간이 기하급수적으로 치솟는다. I가 1을 넘으면 버퍼는 즉시 가득 차고 도착하는 모든 패킷은 버려진다(Packet Drop). 즉, 대역폭을 100% 꽉 채워서 쓴다는 것은 역설적으로 큐잉 지연을 무한대로 만들어 통신망을 죽이겠다는 소리와 같다. 네트워크 엔지니어가 평시 트래픽 대역폭을 항상 60~70% 선에서 여유 있게 유지하려는 이유가 이 큐잉 지연 곡선 때문이다.
- 📢 섹션 요약 비유: 지하철 에스컬레이터(대역폭 R)에 사람들이 천천히 올 때는 안 기다리고 바로 타지만, 퇴근 시간에 갑자기 몰려오면(트래픽 강도 증가) 에스컬레이터 속도는 그대로인데 계단 앞 대기 줄(큐잉 지연)만 수백 미터로 끝없이 길어지는 현상과 완벽히 일치합니다.
Ⅲ. 융합 비교 및 다각도 분석
비교 1: 4대 지연 요소 특성 비교
| 지연 종류 | 계산식 / 결정 요인 | 가변성 | 해결 방안 (최적화) |
|---|---|---|---|
| 처리 지연 ($d_{proc}$) | CPU 속도, 라우터 알고리즘 성능 | 고정적 (매우 짧음) | 고성능 ASIC 라우터 칩셋, SDN 하드웨어 라우팅 |
| 큐잉 지연 ($d_{queue}$) | 현재 망의 혼잡도 (트래픽 상태) | 매우 가변적 (랜덤) | QoS 우선순위 큐 적용, 대역폭(R) 증설, RED 알고리즘 |
| 전송 지연 ($d_{trans}$) | $L / R$ (패킷 길이 / 대역폭) | 고정적 (스펙에 따름) | 패킷 크기(L) 감소, 1G $\rightarrow$ 10G망으로 회선 대역폭(R) 업그레이드 |
| 전파 지연 ($d_{prop}$) | $d / s$ (거리 / 빛의 속도) | 고정적 (물리적 한계) | 엣지 컴퓨팅, CDN 도입으로 서버와 유저 간 거리(d) 자체를 단축 |
과목 융합 관점
-
운영체제 (OS): 디스크 I/O나 스케줄링에서도 동일한 현상이 벌어진다. CPU 처리 시간(전송 지연)을 아무리 줄여도 앞선 프로세스가 끝나길 기다리는 Ready Queue 대기 시간(큐잉 지연)이 길어지면 사용자 체감 반응속도(Response Time)는 망가진다.
-
클라우드 컴퓨팅 (Cloud): 글로벌 서비스(예: 넷플릭스)에서 미국 본사 서버(전파 지연 200ms)의 영상을 한국에서 직접 보면 로딩이 느리다. 대역폭을 수천 Gbps로 올려도 빛의 속도 한계(전파 지연)는 극복 불가능하므로, 한국에 캐시 서버(CDN)를 지어 물리적 거리 $d$를 줄여 전파 지연을 5ms로 낮추는 아키텍처를 채택한다.
-
📢 섹션 요약 비유: 피자 배달 지연 원인을 분석할 때, 조리 도구를 최신으로 바꾸는 건 '전송 지연' 해결, 배달부를 늘리는 건 '큐잉 지연' 해결, 아예 우리 동네에 분점을 새로 내는 건 '전파 지연' 해결입니다.
Ⅳ. 실무 적용 및 기술사적 판단
실무 시나리오
-
시나리오 — 대용량 다운로드 중 화상 회의 끊김 (Bufferbloat 현상): 집에서 아버지가 100GB짜리 영화를 1기가 인터넷으로 풀 스피드 다운로드 받고 있는데, 옆방 아들의 실시간 줌(Zoom) 회의 영상이 뚝뚝 끊기고 음성이 3초 뒤에 들린다. [해결책] 거대한 라우터 버퍼가 만든 참사인 **버퍼블로트 (Bufferbloat)**다. 파일 다운로드(TCP) 트래픽이 공유기의 버퍼를 100% 꽉 채우고 있어, 지연에 극도로 민감한 아들의 화상 회의 패킷(UDP)이 그 거대한 큐 맨 뒤에 서서 수십 밀리초 동안 꼼짝 못 하는 큐잉 지연 병목에 빠진 것이다. 해결책은 공유기에서 **QoS(Quality of Service)**를 설정하여 화상 패킷(VoIP/Video)을 별도의 우선순위 큐(Priority Queue)에 담아 영화 패킷들을 새치기하여 먼저 전송(Transmission)되게 만들거나, 버퍼가 꽉 차기 전에 영화 패킷을 일부러 버려(AQM/RED) TCP 속도를 늦추도록 설계해야 한다.
-
시나리오 — 해외 클라우드 DB 연결 시 핑(Ping) 테스트 한계: 한국 서버 프론트엔드에서 미국 AWS 서부 리전의 DB를 조회하는데 쿼리 한 번에 150ms가 걸려 앱이 너무 느리다. 개발팀은 네트워크팀에 "미국까지 가는 대역폭(Bandwidth) 10G 전용선을 더 굵은 100G로 늘려달라"고 요구한다. [해결책] 전파 지연과 전송 지연을 구분하지 못한 무지한 요구다. 패킷 크기 1KB를 보내는 데 걸리는 전송 지연($L/R$)은 이미 10G 망에서 1마이크로초 이내로 수렴했다. 150ms 지연의 99%는 태평양 해저 케이블 1만km를 빛이 날아가는 **물리적 전파 지연($d/s$)**이다. 대역폭을 100G로 늘려봤자 대기표 끊는 속도만 빨라질 뿐, 비행기 속도(빛)는 빨라지지 않으므로 150ms는 영원히 줄어들지 않는다. 아키텍트는 쿼리를 비동기로 바꾸거나, 한국 리전에 DB 읽기 복제본(Read Replica)을 두어 물리적 거리를 지우는 소프트웨어 아키텍처적 결단을 내려야 한다.
지연(Latency) 이슈 발생 시 핵심 병목 구간을 진단하는 의사결정 흐름은 다음과 같다.
┌───────────────────────────────────────────────────────────────────┐
│ 네트워크 Latency/Ping 저하 및 지터(Jitter) 발생 진단 플로우 │
├───────────────────────────────────────────────────────────────────┤
│ │
│ [사용자가 응답 지연(Lag)을 호소. Ping 테스트 시 지연값(ms) 확인] │
│ │ │
│ ▼ │
│ 새벽(트래픽 없을 때)에는 정상인데, 업무 시간(트래픽 집중 시)에만 지연이 치솟는가?│
│ ├─ 예 ─────▶ [전형적인 큐잉 지연(Queuing Delay) 병목] │
│ │ │ │
│ │ └─▶ [대역폭(R) 증설, 장비의 QoS/AQM 튜닝 도입] │
│ │ │
│ └─ 아니오 (새벽에도 똑같이 느리다) │
│ │ │
│ ▼ │
│ 목적지 서버의 지리적 위치가 해외이거나 매우 먼 거리에 있는가? │
│ ├─ 예 ─────▶ [물리적 전파 지연(Propagation Delay) 한계 도달] │
│ │ │ │
│ │ └─▶ [CDN 배치, DB 캐싱(Redis), Edge 구조 도입]│
│ │ │
│ └─ 아니오 ──▶ [라우터/방화벽의 L7 DPI 엔진에 의한 CPU 처리 지연 의심]│
└───────────────────────────────────────────────────────────────────┘
[다이어그램 해설] 핑이 튈 때 가장 먼저 물어야 할 것은 "언제 튀는가?"이다. 트래픽 양에 따라 지연이 요동치는(지터, Jitter) 원인은 오직 큐잉 지연밖에 없다. 항상 똑같이 100ms로 느리다면 그것은 전파 지연(물리적 거리)이거나, 방화벽이 패킷을 뜯어보느라 걸리는 고정적인 처리 지연(CPU 병목)이다. 이 플로우는 네트워크 증설에 돈을 부을지, 개발팀이 캐시 서버 구조를 바꿀지를 결정하는 가장 중요한 아키텍처 판단 기준이다.
도입 체크리스트
- 기술적: 고빈도 트레이딩(HFT, 주식매매) 같은 초저지연망 구축 시, 스위치 아키텍처가 패킷 전체가 다 들어올 때까지 버퍼에 담는 스토어 앤 포워드(Store-and-Forward) 방식이 아닌, 헤더만 보고 즉시 내보내는 컷스루 (Cut-through) 방식을 채택하여 처리/전송 지연을 나노초 수준으로 깎아냈는가?
- 운영·보안적: IoT 센서 데이터를 전송할 때, 센서에서 주기적으로 보내는 짧은 핑 패킷(Keep-alive)이 영상 스트리밍과 같은 대용량 패킷 뒤에 큐잉되어 타임아웃으로 오인(장비 오프라인 처리)되지 않도록 QoS 우선순위를 부여했는가?
안티패턴
-
버퍼 사이즈의 맹신 (무조건 큰 게 좋다는 착각): 스위치나 서버의 송신 버퍼(Tx Queue)를 무식하게 메가바이트 단위로 무작정 늘리는 행위. 버퍼가 크면 패킷 로스(Drop)는 안 생기겠지만, 앞선 트래픽이 밀렸을 때 내 패킷이 거대한 버퍼 맨 끝에서 수백 밀리초 동안 갇혀 있게 된다(버퍼블로트). TCP 입장에서는 이 긴 지연 시간을 '네트워크 에러'로 간주해 타임아웃을 내고 패킷을 또다시 재전송하여 큐를 2배로 폭파시키는 대참사(Congestion Collapse)를 유발한다. 버퍼는 무조건 큰 게 좋은 게 아니라 적정량에서 과감하게 버려주는(Drop) 것이 네트워크 건강에 이롭다.
-
📢 섹션 요약 비유: 명절에 고속도로 진입로(버퍼)를 수십 km로 엄청나게 길게 만들면, 차들이 쫓겨나진 않겠지만(No Drop) 목적지에 도착하는 데 20시간(큐잉 지연)이 걸려 차 안에서 사람들이 굶어 죽습니다. 차라리 진입로를 막아 출발 자체를 못 하게 하는 것(Drop/QoS)이 전체 교통망을 살리는 길입니다.
Ⅴ. 기대효과 및 결론
정량/정성 기대효과
| 최적화 지점 | 기존 병목 환경 | 지연 최소화 아키텍처 적용 | 비즈니스 개선 효과 |
|---|---|---|---|
| 큐잉 지연 해소 | 트래픽 폭주 시 지연 시간 초 단위로 튐 | QoS 도입으로 핵심 트래픽 지연 1ms 고정 | VoIP, 실시간 게임의 사용자 이탈(Churn) 방지 |
| 전파 지연 해소 | 물리적 거리 3,000km, RTT 100ms | CDN 엣지 노드 전진 배치, RTT 10ms | 글로벌 웹 서비스 로딩 속도 10배 향상 |
| 처리 지연 해소 | 소프트웨어 라우터 CPU 점유율 100% | ASIC / DPU 하드웨어 오프로딩 적용 | 100G 방화벽 검사 환경에서도 와이어스피드 처리 달성 |
미래 전망
- TSN (Time-Sensitive Networking)의 표준화: 기존 이더넷은 '운 좋으면 빨리가고 막히면 기다리는(Best-Effort)' 확률적 네트워크다. 그러나 로봇 원격 수술이나 자율주행차에서는 단 1ms의 큐잉 지연도 살인으로 이어진다. 이에 큐잉 지연 자체를 완전히 수학적으로 스케줄링하여 패킷의 도착 시간을 마이크로초 단위까지 100% 보장(Deterministic)하는 이더넷 기술(TSN)이 산업 표준으로 자리 잡고 있다.
- AI 기반 적응형 큐 관리 (AQM): 기존에는 버퍼가 일정 수준 이상 차면 기계적으로 패킷을 버렸지만(RED), 미래 라우터는 내장된 신경망(AI)이 현재 흐르는 트래픽 패턴과 혼잡의 파도를 예측하여 큐잉 지연이 치솟기 0.1초 전에 스스로 패킷 드롭 정책을 미세 조정하여 최적의 핑을 유지하게 될 것이다.
참고 표준
- DiffServ (Differentiated Services, RFC 2474): 패킷의 IP 헤더(DSCP 필드)에 색깔표를 칠해, 라우터가 긴급 패킷(음성 등)을 큐잉 지연 없이 무조건 먼저 통과시키도록 하는 서비스 품질(QoS) 보장 국제 표준.
- CoDel (Controlled Delay): 버퍼블로트(Bufferbloat) 문제를 해결하기 위해, 패킷이 큐(버퍼)에 머무는 '지연 시간' 자체를 실시간으로 추적하여 일정 시간(예: 5ms)을 넘기면 과감히 패킷을 폐기함으로써 버퍼를 쾌적하게 비워내는 최신 큐 관리 알고리즘.
네트워크 패킷의 여정은 '시간(Latency)'과의 가혹한 사투다. 대역폭(Bandwidth)이 돈으로 살 수 있는 굵은 하드웨어라면, 지연(Delay)은 돈만으로는 결코 정복할 수 없는 물리학과 소프트웨어 튜닝의 예술이다. 엔지니어는 속도가 느리다는 불평 앞에서 무작정 회선을 늘리기 전에, 패킷이 지금 CPU의 연산에 치여(처리 지연) 아픈지, 앞차 뒤통수를 보며(큐잉 지연) 답답한지, 문 통과가 좁아(전송 지연) 힘든지, 아니면 갈 길이 너무 멀어(전파 지연) 지쳤는지를 진맥하는 명의(名醫)가 되어야 한다.
┌──────────────────────────────────────────────────────────────────┐
│ 패킷 지연 (Latency) 정복을 위한 아키텍처 진화 로드맵 │
├──────────────────────────────────────────────────────────────────┤
│ │
│ 1단계 (물리적 속도업) 2단계 (우회와 캐싱) 3단계 (시간의 절대 통제) │
│ │ │ │ │
│ ▼ ▼ ▼ │
│ [전송 지연 정복: 대역폭 R] → [전파 지연 정복: CDN] → [큐잉 지연 정복: TSN] │
│ │ │ │ │
│ ├─ 10M → 1G → 100G망 ├─ 글로벌 캐시 서버 배치 ├─ 결정론적 스케줄링 도입 │
│ ├─ L/R 식에서 분모 폭발 ├─ d/s 식에서 거리(d) 소멸 ├─ 스마트 팩토리, 자율주행 │
│ └─ "파이프를 무식하게 넓힘" └─ "물리적 공간을 접어버림" └─ "지연(Jitter) 자체를 0으로"│
└──────────────────────────────────────────────────────────────────┘
[다이어그램 해설] 인류가 네트워크 지연을 어떻게 하나씩 쳐부수고 왔는지를 보여준다. 처음엔 선로 속도(대역폭)를 높여 전송 지연을 죽였다. 그다음엔 빛의 속도 한계를 극복하기 위해 아예 서버를 사용자 집 앞에 가져다 놓는 CDN(클라우드 엣지)을 만들어 전파 지연을 죽였다. 이제 마지막으로 남은 가장 악독한 보스몹이 바로 앞차가 빠지길 기다리는 '큐잉 지연'이다. 이를 죽이기 위해 도착 시간을 1나노초까지 확정 지어주는 TSN(시간 민감형 네트워크)이 차세대 인더스트리얼 4.0망의 최종 목적지로 개발되고 있다.
- 📢 섹션 요약 비유: 처음엔 빠른 스포츠카를 샀고(전송 지연 해결), 그다음엔 직장 근처로 이사를 갔고(전파 지연 해결), 마지막으로는 모든 도로의 신호등을 내 차에 맞춰 완벽히 초록불로 연동시키는 기적(큐잉 지연 해결)을 통해 지각 없는 통신망을 완성하는 중입니다.
📌 관련 개념 맵 (Knowledge Graph)
| 개념 명칭 | 관계 및 시너지 설명 |
|---|---|
| 핑 (Ping / RTT) | 패킷이 목적지를 찍고 내 컴퓨터로 다시 돌아오는 데 걸리는 총체적인 왕복 지연 시간으로, 4대 지연이 모두 녹아있는 대중적인 성능 지표다. |
| QoS (Quality of Service) | 라우터의 버퍼 혼잡 시, VIP 패킷(음성, 영상)의 큐잉 지연을 0에 가깝게 만들기 위해 우선순위 큐(Priority Queue)를 할당하는 L3 제어 기술이다. |
| 버퍼블로트 (Bufferbloat) | 과도하게 큰 메모리(버퍼)를 탑재한 네트워크 장비가 패킷을 버리지 않고 무작정 쌓아두다가 큐잉 지연을 수 초 단위로 폭발시키는 재앙적 현상이다. |
| CDN (콘텐츠 전송 네트워크) | 물리적인 빛의 속도 한계에서 오는 전파 지연을 해결하기 위해, 원본 서버의 데이터를 사용자 지리적 위치와 가장 가까운 엣지 서버에 복사해 두는 아키텍처다. |
| 스토어 앤 포워드 (Store & Forward) | 패킷 전체가 들어올 때까지 기다렸다가(전송 지연 발생) 에러를 검사하고 내보내는 기본 스위칭 방식으로, 지연을 줄이기 위해 헤더만 보고 쏘는 Cut-through 방식과 대비된다. |
👶 어린이를 위한 3줄 비유 설명
- 처리 지연/큐잉 지연은 톨게이트 직원이 표를 검사하는 시간(처리)과, 내 앞에 차가 10대나 있어서 줄을 서서 기다리는 끔찍한 시간(큐잉)이에요.
- 전송 지연은 우리 차가 톨게이트 차단기를 통과해서 도로 위에 완전히 올라타는 데 걸리는 짧은 시간이에요.
- 전파 지연은 도로에 올라탄 우리 차가 목적지 도시까지 쌩쌩 고속도로를 달리는 시간이에요. 내가 게임할 때 화면이 뚝뚝 끊기는 건 십중팔구 줄 서서 기다리는 '큐잉 지연' 때문이랍니다!