TPU (Tensor Processing Unit)
핵심 인사이트 (3줄 요약)
- 본질: 구글(Google)이 자사의 TensorFlow 딥러닝 프레임워크와 거대 신경망 모델 연산을 세상에서 가장 빠르고 값싸게 돌리기 위해, 제어 로직을 뜯어내고 순수 행렬(Tensor) 계산기만 극단적으로 박아 넣은 데이터센터 전용 **초대형 인공지능 가속기(ASIC)**다.
- 가치: 폰 노이만 아키텍처의 고질병인 '메모리 읽기/쓰기 대역폭 병목'을 깨부수기 위해, 데이터가 칩 내부 연산기들을 릴레이 파도처럼 타고 흐르는 거대한 '시스톨릭 어레이(Systolic Array)' 구조를 채택하여 1클럭에 수만 개의 곱셈(MAC)을 전력 낭비 없이 쏟아낸다.
- 융합: 단일 칩의 성능을 넘어, 수천 대의 TPU 칩을 빛의 속도로 묶는 '3D 토러스(Torus)' 네트워크망과 융합된 **'TPU 팟(Pod)'**으로 진화하며, 챗GPT(LLM) 같은 수천억 파라미터 스케일의 초거대 분산 학습을 지탱하는 클라우드 인프라의 최종 병기가 되었다.
Ⅰ. 개요 및 필요성 (Context & Necessity)
TPU (Tensor Processing Unit)는 AI 혁명을 주도하던 구글이 "엔비디아(NVIDIA) GPU에만 의존하다간 데이터센터 전기세와 칩 구매 비용 때문에 파산하겠다"는 공포감에서 직접 구워낸(직접 설계한) 생존형 ASIC(주문형 반도체)이다.
구글 검색의 음성 인식이나 번역 등 전 세계 수십억 명의 인공지능 요청(Inference)을 처리하려면 엄청난 양의 서버가 필요했다. 하지만 기존의 GPU나 CPU는 너무 많은 범용 기능(그래픽 렌더링, 복잡한 분기 예측)을 담고 있어 비싸고, 전기만 미친 듯이 먹었다.
엔지니어들은 결단했다. "우리가 어차피 소프트웨어는 텐서플로우(TensorFlow)라는 표준(행렬 곱셈 덩어리)을 쓰고 있잖아? 이 텐서플로우 명령어만 딱딱 1대 1로 기계어로 알아듣고 박살 내는, 멍청하지만 행렬만 잘 곱하는 괴물 칩을 우리 입맛대로 깎아서 우리 클라우드 데이터센터에만 도배하자!"
[범용 GPU와 구글 TPU의 설계 철학(Trade-off) 극단적 비교]
(A) NVIDIA GPU (다용도 병렬 처리기)
- 성격: 쿠다(CUDA) 프로그래밍만 하면 게임, 비트코인, 암호 해독, AI 뭐든 다 할 수 있음. (범용성 높음)
- 구조: SM이라는 덩어리들이 메모리(VRAM)와 쉴 새 없이 통신하며 데이터를 퍼다 나름.
- 단점: 유연한 대신 무거운 메모리 통신으로 인해 전력 소모(발열)가 300W~700W로 폭주.
(B) Google TPU (오직 텐서플로우만을 위한 외길 인생)
- 성격: 오직 딥러닝의 "행렬 곱셈(Matrix Multiplication)" 딱 1가지 임무만 99% 수행. (범용성 제로)
- 구조: 메모리에 다녀오는 것 자체를 죄악으로 여김. 칩 한가운데에 65,536개의 연산기(MAC)를
거대한 256x256 바둑판으로 깔아놓고(시스톨릭 어레이), 데이터를 릴레이로 끝까지 밀어버림.
- 장점: 메모리를 안 다녀오니 전기세가 혁명적으로 줄어들고(극강의 전성비), 행렬 처리 속도는
GPU를 압살하며 구글 클라우드(GCP)의 독점적 인프라 마진을 창출.
결국 TPU는 "어차피 미래는 인공지능 하나뿐이다"라는 구글의 확신이 하드웨어 반도체 구조(ASIC)로 영구 박제된 도메인 특화 아키텍처(DSA)의 끝판왕이다.
📢 섹션 요약 비유: GPU가 총, 칼, 활을 다 쓸 줄 알고 어떤 전장이든 투입할 수 있는 비싼 '만능 특수부대'라면, TPU는 오직 활만 쏠 줄 알지만 1초에 10만 발의 화살을 정확히 쏘아 올려 성벽 하나를 순식간에 녹여버리는 가성비 최고의 '전용 궁수 부대'입니다. 인공지능(행렬 곱셈)이라는 거대한 성벽을 뚫는 데는 이 궁수 부대만 한 게 없습니다.
Ⅱ. 아키텍처 및 핵심 원리 (Deep Dive)
TPU가 세상을 놀라게 한 가장 큰 아키텍처적 무기는 폰 노이만 병목(메모리 랙)을 무식하게 파훼한 **'시스톨릭 어레이(Systolic Array)'**의 거대한 융합 탑재다.
| TPU 핵심 아키텍처 | 하드웨어 동작 원리 | 폰 노이만 한계 극복 효과 | 비유 |
|---|---|---|---|
| Matrix Multiply Unit (MXU) | TPU의 심장. 256 x 256 크기로 MAC(곱셈누적) 연산기 65,536개가 2D 바둑판처럼 꽉꽉 들어차 있음 | 1 클럭당 무려 6만 5천 개의 행렬 곱셈을 융단 폭격해 속도를 차원이 다르게 끌어올림 | 한 번에 도장 6만 개를 찍는 거대한 프레스 기계 |
| Systolic Array (심장 박동 배열) | 메모리에서 읽어온 가중치(Weight) 데이터가 바둑판의 각 연산기(PE)를 따라 옆 사람에게 툭툭 릴레이로 전달되며 연산됨 | 매번 레지스터나 메모리를 뒤질 필요가 없어 메모리 접근 오버헤드 99% 증발 (초저전력의 비밀) | 옆 사람에게 모래주머니 휙휙 패스하는 노가다 줄 |
| Unified Buffer (거대 SRAM) | 칩 면적의 거의 절반(24MB 등)을 차지하는 초고속 내부 캐시 메모리 | 데이터를 밖(DRAM)에서 가져오지 않고 칩 내부에서 바로바로 MXU로 들이부어 굶지 않게(Starvation 방지) 먹여줌 | 공장 한가운데 있는 엄청나게 큰 식자재 창고 |
| CISC 기반 복합 명령어 | (예: Read_Weights, Matrix_Multiply 등) 한 줄의 명령어에 어마어마한 덩어리 작업을 지시함 | 제어 로직(디코더)을 극한으로 줄여서 남는 공간을 죄다 연산기에 몰빵 가능 | "1만 개 파 썰어라!" 딱 한마디만 하는 대장 |
TPU의 데이터 이동은 일반 CPU/GPU와 차원이 다르다. 일반 칩은 연산기 1개당 메모리 통로가 1개 뚫려있지만, TPU는 6만 개의 연산기 덩어리가 하나의 거대한 심장(Systolic)처럼 맥박을 뛰며 한 방향으로 데이터를 밀어낸다.
[TPU 시스톨릭 어레이의 데이터 릴레이 (메모리 재사용의 마법)]
입력 데이터 [ X1, X2, X3... ] ──> (TPU 바둑판 연산기 배열 진입!)
[ PE 1 ] -> (X1 * W1 계산) -> 계산 결과와 X1을 오른쪽 [ PE 2 ] 로 바로 휙 던짐! (메모리 안 거침!)
│
[ PE 2 ] -> (받은 결과에 X1 * W2 계산 누적) -> 다시 오른쪽 [ PE 3 ] 으로 휙 던짐!
│
[ PE 3 ] -> (최종 누적) -> 뚝딱 정답 Y 완성! 와르르 쏟아짐!
=> 엄청난 이득: X1 이라는 데이터 1개를 메모리에서 딱 "한 번" 가져왔는데,
그걸 PE 1, 2, 3이 릴레이로 재사용(Reuse)하며 곱셈을 3번 쳐버림.
메모리 대역폭(구리선 낭비)을 완벽히 절약하며 칩의 온도를 극적으로 식힘.
📢 섹션 요약 비유: TPU(시스톨릭 어레이)는 거대한 조립식 컨베이어 벨트입니다. 6만 명의 일꾼이 줄을 쫙 서서, 맨 앞 사람이 자동차 나사를 하나 조이고 뒷사람에게 차를 밀어주면 뒷사람이 바퀴를 달고 또 밀어줍니다. 부품을 창고(메모리)에서 꺼내오느라 걸어 다닐 일 없이 제자리에 서서 밀려오는 차에 작업만 하면 되니 속도가 우주에서 제일 빠릅니다.
Ⅲ. 융합 비교 및 다각도 분석 (Comparison & Synergy)
구글은 이 거대한 TPU 칩 하나를 만드는 데 그치지 않고, 칩들을 묶는 네트워크(토폴로지)까지 완전히 새로 깎아 **'TPU Pod'**이라는 거대 융합 클러스터 슈퍼컴퓨터를 완성했다.
스케일 업(Scale-up)을 넘어선 스케일 아웃(Scale-out): TPU Pod
단일 칩(Chip)의 행렬 곱셈 속도는 엄청났지만, 파라미터가 수천억 개에 달하는 챗GPT(LLM) 모델은 칩 1개로 학습하려면 수백 년이 걸린다. 칩 수천 개를 묶어야 하는데 일반 이더넷(Ethernet) 랜선으로 묶으면 통신 렉(병목) 때문에 TPU의 속도가 무용지물이 된다.
그래서 구글은 아예 TPU 칩에 광통신망(ICI) 인터페이스를 하드웨어적으로 칩 내부에 때려 박고, 칩들을 3D 토러스(Torus) 형태의 전용망으로 엮어버리는(융합) 결단을 내렸다.
| 클러스터 융합 아키텍처 | 전통적 GPU 클러스터 (AWS / 이더넷 기반) | 구글 TPU Pod 클러스터 (전용망 융합) | 대규모 딥러닝 파급력 |
|---|---|---|---|
| 칩 간 통신망 (Interconnect) | PCIe 버스 -> 호스트 CPU -> 이더넷 스위치 -> 다시 GPU로 가는 험난한 여행 (병목 극심) | 칩셋에 박힌 전용 링크로 TPU끼리 3D/4D 토러스(도넛) 모양으로 다이렉트 직결 (초고속) | 수천 대 노드의 동기화(All-Reduce) 딜레이 소멸 |
| 소프트웨어 맵핑 구조 | 개발자가 노드 번호를 지정해가며 분산 학습 쪼개기(MPI) 쌩쇼를 해야 함 | 컴파일러(XLA)가 4,096대의 TPU를 마치 거대한 1대의 칩(SSI)처럼 알아서 코드를 찢어버림 | 개발자 추상화의 극치 달성 |
| 결함 허용 (Fault Tolerance) | 스위치 1개 터지면 랙(Rack) 전체가 마비 | 3D 토러스 망은 꼬리를 무는 도넛 형태라 1개 끊어지면 바로 우회전송 가능 | 거대 AI 모델의 몇 달간 무중단 학습 보장 |
타 과목 관점의 융합 시너지
- 컴파일러 최적화 (XLA 컴파일러): TPU는 하드웨어가 멍청한 대신, 소프트웨어 컴파일러가 모든 짐을 진다. 구글은 텐서플로우와 PyTorch 코드를 TPU 기계어로 완벽하게 번역하는 XLA (Accelerated Linear Algebra) 라는 괴물 컴파일러를 만들었다. 프로그래머가 짠 파이썬 코드 여러 줄을 분석해서 "어차피 이거 곱하고 더하는 거네? 커널 여러 개 띄우지 말고 하나의 거대한 연산 덩어리로 퓨전(Kernel Fusion)해버려!"라며 칩 메모리 접근을 최소화하는 하드웨어-소프트웨어 극한 융합을 이끌어냈다.
- 양자화 (Quantization, FP16/BF16): TPU가 미친 속도를 내는 또 다른 이유는 데이터 다이어트다. 32비트 실수(FP32) 대신 구글이 딥러닝 전용으로 고안한 Bfloat16 (16비트 부동소수점) 데이터 포맷을 하드웨어로 박아 넣었다. 신경망은 0.0001 같은 세밀함보다, 숫자의 큼지막한 범위(Exponent)가 더 중요하다는 수학적 통찰을 반영한 것이다. 데이터가 절반으로 줄어드니 대역폭은 2배 늘고 칩 면적은 폭발적으로 절약되었다 (수학과 아키텍처의 융합).
[구글 TPU 컴파일러(XLA)의 커널 퓨전(Kernel Fusion) 마법]
[ 파이썬 텐서플로우 코드 ]
A = X * Y // 연산 1
B = A + Z // 연산 2
C = Relu(B) // 연산 3 (활성화 함수)
(1) 일반 GPU(CUDA)의 멍청한 실행:
연산 1을 위해 메모리 왕복 -> 연산 2를 위해 메모리 왕복 -> 연산 3을 위해 메모리 왕복.
(결과: 메모리 버스 3번 탑승. 대역폭 낭비 폭발)
(2) TPU + XLA 컴파일러의 융합:
XLA: "저거 세 개 어차피 한 덩어리잖아? 합쳐(Fusion)!"
TPU: 메모리에서 X, Y, Z 딱 한 번 퍼옴 -> 시스톨릭 어레이에 넣고 곱하기, 더하기, Relu까지
원패스(One-pass) 릴레이로 한 방에 뚫고 나옴 -> 정답 C 딱 한 번 메모리에 저장!
(결과: 메모리 접근 1/3로 극단적 압축. 이래서 속도가 차원이 다름)
📢 섹션 요약 비유: 일반 공장은 직원(GPU)이 나사 1개 조이고 창고(메모리)에 갖다 놓고, 다시 꺼내서 색칠하고 창고에 갖다 놓습니다. TPU(XLA 컴파일러 융합) 공장은 똑똑한 십장(컴파일러)이 작업 지시서를 하나로 묶어버립니다. 나사 조이자마자 창고에 안 가고 바로 옆 사람에게 던져 색칠하게 만들어서 3단계를 단 1번의 움직임으로 끝내버리는 완벽한 공정 혁신입니다.
Ⅳ. 실무 적용 및 기술사적 판단 (Strategy & Decision)
실무 AI 모델러나 클라우드(GCP) 엔지니어가 비싼 돈 주고 TPU 노드를 대여했을 때, TPU의 "고정된 행렬 바둑판" 성격을 이해하지 못하고 코드를 짜면 TPU는 아무 일도 하지 않는 거대한 고철 덩어리가 된다.
실무 클라우드 TPU(GCP) 성능 최적화 시나리오
-
텐서 패딩(Padding)과 배치 사이즈(Batch Size)의 128 배수 강제
- 상황: TPU v3를 빌려서 PyTorch로 모델을 훈련시켰는데, 배치 사이즈(Batch Size)를 100으로 설정했더니 연산 속도가 GPU보다 구리게 나옴.
- 의사결정: 데이터 배치 사이즈와 텐서 행렬의 차원 크기를 강제로 128의 배수(예: 128, 256, 512...)로 패딩(Padding)하거나 늘려버린다.
- 이유: TPU 내부의 행렬 계산기(MXU)는 무식하게 거대한 128 x 128짜리 2D 바둑판이다. 만약 100짜리 데이터를 던져주면, 128x128칸 중에 100x100칸만 채워지고, 나머지 가장자리 수만 개의 덧셈기 회로는 텅 빈 채로 전기만 먹으며 놀게 된다(Occupancy 박살). 칩 하드웨어의 바둑판 크기를 100% 꽉 채워서 밀어 넣는 것(하드웨어-소프트웨어 형상 매핑)이 TPU 튜닝의 유일하고도 가장 강력한 절대 원칙이다.
-
동적 제어 흐름(Dynamic Control Flow / if-else) 타파
- 상황: 자연어 처리(NLP)를 할 때 들어오는 문장의 길이(Length)가 제각각이라, 파이썬 코드 안에
for루프의 길이가 매번 바뀌는 동적 그래프(Dynamic Graph) 모델을 짬. TPU가 계속 재컴파일(Re-compile) 되면서 서버가 터짐. - 의사결정: 입력 텐서의 길이를 가장 긴 문장 길이에 맞춰 모두 동일하게 0으로 패딩(Padding/Fixed Shape)시켜버리고,
tf.cond나if-else같은 브랜치를 완전히 평탄화(Static Graph)하여 XLA 컴파일러에 던진다. - 이유: TPU의 XLA 컴파일러는 "미리 전체 행렬 크기를 파악해서 한 번에 칩에 고정된 길을 뚫어놓는" 방식(AOT 컴파일)이다. 만약 런타임에 데이터 크기가 휙휙 변하면, TPU는 기존에 깔아놓은 컨베이어 벨트를 때려 부수고 수 분에 걸쳐 다시 칩셋 회로를 매핑하는 끔찍한 짓을 반복한다. TPU는 예측 불가한 다이나믹(Dynamic)을 극도로 혐오하는 공산주의 기계다. 철저한 통일(Static Shape)만이 생존 비결이다.
- 상황: 자연어 처리(NLP)를 할 때 들어오는 문장의 길이(Length)가 제각각이라, 파이썬 코드 안에
[실무 AI 인프라: GPU vs TPU 도입 비용/효율 판독 트리]
[질문 1] 내가 돌리려는 모델이 컴퓨터 비전(CNN)이나 트랜스포머(LLM) 같은
거대한 행렬 덩어리 중심의 표준 아키텍처인가?
├─ No ───> 복잡한 트리 구조, 강화학습 환경의 잦은 룰 변경, 비정형 데이터 처리 등
│ => 무조건 유연성 최강인 엔비디아 GPU(CUDA)를 선택하라.
│ TPU에 올리면 컴파일 에러 나고 하드웨어가 굶어 죽음.
│
└─ Yes ──> [질문 2] 모델 코드를 자주 수정하지 않고, 수일~수개월 동안 대규모 배치 학습만 돌릴 것인가?
├─ Yes ──> "TPU의 완벽한 밥이다." 구글 클라우드(GCP)에서 TPU Pod을 통째로 빌려라!
│ 동일 비용 대비 GPU보다 학습 시간이 2~3배 단축되는 기적을 맛본다.
└─ No ───> 논문 쓰느라 코드를 1분마다 바꿔야 하는 연구 단계.
재컴파일 오버헤드 때문에 빡쳐서 모니터를 부수게 되니 얌전히 GPU 써라.
운영 및 아키텍처 도입 체크리스트
- TPU 워크로드를 짤 때, 모델 가중치는 TPU 칩에 있지만 훈련 데이터는 CPU 램에 있는 상황에서 PCIe 병목이 터지지 않도록, CPU의 데이터 전처리(Data Loading) 파이프라인 스레드를 분리하여 TPU가 1밀리초도 쉬지 않게 계속 밥을 떠먹여 주는(infeed) 비동기 설계를 했는가?
-
GKE (Google Kubernetes Engine) 환경에서 TPU 멀티 노드를 프로비저닝할 때, 일반적인 이더넷 통신이 아니라 3D 토러스 고속 통신을 보장하는
TPU Slice개념의 연속된 물리적 하드웨어 덩어리로 할당받았는지 매니페스트(Manifest)를 점검했는가?
안티패턴: "우와 구글 TPU 엄청 빠르대!" 라며 고작 1,000건의 데이터나 작은 추천 알고리즘 딥러닝을 훈련시키려고 TPU 인스턴스를 띄우는 돈지랄. TPU는 엔진 예열(XLA 컴파일)에만 수 분이 걸리는 거대 화물열차다. 가벼운 짐을 옮길 때 화물열차를 부르면 시동 거는 시간에 이미 자전거(CPU)가 도착해 버린다. 압도적으로 방대한 스케일의 대작(초거대 AI)에서만 그 위력을 발휘한다.
📢 섹션 요약 비유: TPU는 시속 1,000km로 달리는 초특급 화물열차(ASIC)입니다. 짐(텐서 데이터)을 규격화된 네모 반듯한 컨테이너(128 배수 패딩)에 꽉꽉 담아 일렬로 기차에 실어 보내면 세상에서 제일 빠릅니다. 하지만 크기가 제각각인 비닐봉지(동적 그래프)를 무작정 기차에 던지거나, 골목길 택배 배달(조건 분기)을 이 기차한테 시키면 기차는 선로를 이탈해 탈선해 버립니다.
Ⅴ. 기대효과 및 결론 (Future & Standard)
TPU는 클라우드 제국 구글이 "인공지능의 시대에는 하드웨어와 소프트웨어가 완벽히 하나로 융합(Full-stack Integration)된 자만이 살아남는다"는 철학을 세상에 입증한 역사적 괴물이다.
| 패러다임 극복 과제 | 범용 칩(GPU/CPU) 의존 시대 | TPU 클라우드 인프라 융합의 파급력 | 거시적 IT 산업 기대효과 |
|---|---|---|---|
| AI 하드웨어 종속성 | 엔비디아(CUDA)의 압도적 독점과 갑질 | 구글 자체 생태계(TensorFlow+TPU)의 독립 쟁취 | 빅테크(Amazon, MS, Meta)들의 자체 AI 칩(ASIC) 개발 춘추전국시대 폭발 |
| 딥러닝 에너지/비용 | 100배 커진 모델을 훈련할 전기세가 파산 수준 | 극강의 시스톨릭 어레이로 전성비(Perf/W) 혁명 | 챗GPT 같은 거대 모델의 천문학적 훈련 비용을 현실 가능한 수준으로 압축 |
미래 전망: 거대한 데이터센터에서 행렬을 씹어먹던 TPU의 철학은 엣지(Edge)로 내려오고 있다. 스마트폰이나 자율주행 자동차 내부에 들어가는 소형 Edge TPU들이 그 주인공이다. 통신이 불가능한 극한 환경에서도 센서의 영상 데이터를 실시간 시스톨릭 어레이로 찍어 눌러 0.01초 만에 사물을 인식하고(온디바이스 AI), 소비 전력은 1와트(W) 미만으로 방어하는 엣지-클라우드(Edge-Cloud) TPU 통합 융합 생태계가 미래 사물인터넷(IoT)의 두뇌를 지배하게 될 것이다.
📢 섹션 요약 비유: TPU의 탄생은 엔비디아라는 렌터카 회사에 매일 엄청난 렌트비(GPU 구매비)를 뜯기던 택배 회사 구글이 열받아서 "우리가 직접 택배만 죽어라 나르는 특수 트럭(TPU)을 직접 만들어 버리자!" 하고 독립을 선언해 대성공을 거둔 사건입니다. 이제 모든 택배 회사(빅테크)들이 각자 자기만의 특수 트럭을 찍어내며 칩셋 전쟁의 새 막이 올랐습니다.
📌 관련 개념 맵 (Knowledge Graph)
- NPU (Neural Processing Unit) | TPU를 포함하는 더 큰 상위 범주로, 인공지능 신경망 연산에만 극단적으로 몰빵한 모든 종류의 특수 목적 AI 가속기
- 시스톨릭 어레이 (Systolic Array) | 메모리 핑퐁 지연을 0으로 만들기 위해, TPU 내부에서 수만 개의 연산기들이 피가 흐르듯 바둑판 모양으로 데이터를 옆으로 릴레이 패스하며 곱해나가는 기적의 하드웨어 구조
- XLA (Accelerated Linear Algebra) | 파이썬(S/W) 코드를 TPU(H/W) 기계어로 번역할 때, 자잘한 연산들을 거대한 한 덩어리로 묶어버려(커널 퓨전) TPU가 메모리에 접근하는 횟수를 압살해 버리는 구글의 마법 컴파일러
- Bfloat16 (Brain Floating Point) | 구글이 딥러닝 연산에 최적화하여 깎아낸 16비트 소수점 규격. 정밀도는 낮추고 값의 범위는 넓혀 메모리 대역폭을 2배로 늘린 수학과 컴퓨터 구조의 융합물
- 텐서 (Tensor) | 스칼라(0차원), 벡터(1차원), 매트릭스(2차원)를 넘어서는 다차원 데이터 덩어리. TPU는 이 텐서를 단일 클럭에 바둑판으로 찍어 누르는 궁극의 텐서 학살기
👶 어린이를 위한 3줄 비유 설명
- 개념: 구글 TPU는 엑셀도 하고 게임도 하는 만능 컴퓨터(CPU)를 다 뜯어고쳐서, 오직 구구단(인공지능 수학 계산)만 전 우주에서 제일 빨리, 전기세 한 푼 안 들게 할 수 있도록 특별히 만든 마법의 계산기예요.
- 원리: 일반 계산기는 문제를 풀 때마다 머릿속 서랍(메모리)에서 공책을 계속 넣었다 뺐다 하느라 땀을 뻘뻘 흘려요. 하지만 TPU는 6만 명의 꼬마들이 손을 잡고 둥글게 서서 서랍에 안 가고 정답을 옆 친구에게 바로바로 휙휙 패스해서 순식간에 끝내버려요 (시스톨릭 어레이).
- 효과: 이 천재적인 패스 작전 덕분에, 수천 대의 TPU가 모이면 아무리 똑똑한 인공지능 모델(챗GPT 같은 거)도 엄청나게 빠르고 싼 가격으로 훈련을 마칠 수 있게 된답니다.