[Home] AI로 돌아가기

TPU · CPU · GPU 개요와 비교

🔗 참고 링크: CPU · GPU · TPU

(1) 한눈에 보기

CPU(중앙처리장치)는 범용 작업을 폭넓게 처리하는 두뇌로, 분기·제어가 많은 코드에 강하다. GPU(그래픽처리장치)는 대량의 동일·유사 연산을 동시에 처리하는 데이터 병렬에 특화되어 3D 그래픽과 딥러닝에 널리 쓰인다. TPU(텐서처리장치)는 행렬 곱 연산을 하드웨어로 가속하는 딥러닝 전용 칩(ASIC)으로 매우 높은 효율의 학습·추론을 노린다.

(2) CPU

(3) GPU

(4) TPU

TPU(Tensor Processing Unit)는 텐서를 처리하려고 만든 처리 장치이다. 여기서 텐서는 텐서플로 라이브러리에서 사용하는 데이터를 의미한다. 구글은 이러한 텐서플로라는 머신러닝 라이브러리를 구체적으로 처리하기 위해 자체적으로 TPU를 개발했다.

(5) 핵심 비교 표

구분 CPU GPU TPU
설계 목적 범용 컴퓨팅 데이터 병렬/그래픽 딥러닝 전용(행렬 연산)
연산 모델 스칼라/벡터(AVX/NEON) SIMT(워프/웨이브프런트) 시스트올릭 어레이 기반 매트릭스 유닛
병렬성 규모 수~수십 코어 수천 코어 대형 매트릭스 타일 + 대규모 스케일아웃
지연시간 매우 낮음 중간(배치에 유리) 배치 처리에 최적
메모리 특성 낮은 지연, 큰 캐시 매우 높은 대역폭(HBM 등) 대역폭·집적·전용 버퍼 최적화
전력/효율 범용에 균형 병렬 연산 대비 우수 딥러닝에 최고 효율 지향
대표 작업 OS/서비스 로직 그래픽, 미디어, 과학계산, ML 대규모 ML 학습·추론
개발 난이도 낮음(범용 언어) 중간(CUDA/ROCm 등) 중~높음(XLA/전용 워크플로)

(6) 언제 무엇을 쓰나?

(7) 용어 간단 정리