[Home] AI로 돌아가기

🔗 관련 문서: Wikipedia - GPU (Graphics Processing Unit)

GPU (Graphics Processing Unit)

...
Top 5 Applications that Benefit from NVIDIA GPUs

인공지능은 오랜 시간 쇠퇴기와 부흥기를 반복해 왔다. 2000년대 후반, 인공지능의 또 다른 부흥은 데이터의 폭발적 증가, 알고리즘의 고도화뿐 아니라 하드웨어 발전에 기인한 것이다. 특히 GPU의 도입은 대량 학습 데이터를 처리하는 속도를 획기적으로 향상시켰다.

초기의 인공지능은 CPU만으로 데이터를 처리하였기 때문에 시간 소모가 많아 실용성이 낮았다. 그러나 GPU가 적용되면서 학습 속도가 대폭 향상되었고, 이는 인공지능의 발전을 가속화시켰다.

GPGPU(General-Purpose computing GPU) 기술의 부상

GPU는 본래 그래픽 처리 장치로 개발되었으나, 일반 연산에도 활용할 수 있는 GPGPU 기술이 등장하면서 인공지능 분야로 확장되었다. 2010년, 엔비디아가 이 기술을 공개한 이후 딥러닝의 학습 시간은 수개월에서 며칠로 단축되었다.

인공지능 연산에서 GPU의 필요성

인공지능 학습 과정은 주로 행렬곱 연산으로 구성된다. 행렬은 행과 열의 데이터 구조이며, 두 행렬의 곱은 한 행과 한 열을 곱하고 그 결과를 더하는 방식으로 수행된다. 이러한 연산은 반복과 병렬 처리가 효율적인 구조를 요구하며, GPU는 이러한 구조에 적합하다.

...
행렬곱 연산

CPU와 GPU의 구조적 차이

CPU는 복잡한 명령어 실행을 위해 소수의 고성능 코어를 갖고 있으며, 제어 장치와 캐시를 포함한다. 반면 GPU는 단순 연산을 대규모로 병렬 처리하기 위한 수천 개의 ALU(산술 논리 장치; Arithmetic and Logic Unit)로 구성된다.

...
CPU vs GPU

CPU는 직렬 처리를 통해 멀티태스킹에 최적화되어 있으며, GPU는 대량의 데이터를 병렬 처리하는 데 특화되어 있다. 따라서 GPU는 인공지능 학습과 같은 작업에 높은 처리량을 제공할 수 있다.

...
CPU vs GPU 연산방식의 차이
표 1. CPU와 GPU의 비교
구분 CPU GPU
코어 수 적음 많음
작업 처리 순차적 병렬적
연산 방식 복잡한 연산 처리 단순 연산의 대규모 처리
장점 낮은 대기시간, 높은 제어력 높은 처리량
...
CPU vs GPU 코어 수의 차이
...
CPU vs GPU 성능비교

GPU의 실제 활용 사례

딥러닝은 수많은 수식 풀이를 요구하며, GPU는 이를 병렬적으로 처리할 수 있어 학습 속도를 향상시킨다. 알파고의 예에서는 16만 건 이상의 기보를 기반으로 매일 3만 회의 시뮬레이션을 수행하였다. 이처럼 막대한 연산량은 176개의 GPU가 작동하는 고성능 시스템으로 가능해졌다.

GPU는 현재 인공지능 기술의 핵심 인프라로 자리잡고 있다. 복잡한 수식의 반복 계산이 중심인 딥러닝 학습에서는 GPU의 도입이 필수적이다.

GPU의 용도

GPU의 전력 소비

GPU는 다수의 병렬 코어를 작동시키기 때문에 높은 전력을 소비한다. 특히 고성능 GPU는 CPU보다 훨씬 많은 전력을 사용할 수 있으며, 효율적인 전력 관리를 위한 기술이 중요하게 고려된다.

GPU 시장 현황

GPU 시장은 NVIDIA와 AMD가 주도하고 있으며, 최근에는 AI 연산을 위한 GPU가 주목받고 있다.