Notice
Recent Posts
Recent Comments
Link
관리 메뉴

Asia-Pacific Region Intelligence Center

반도체와 AI 반도체의 차이점 본문

Guide Ear&Bird's Eye6/산업의 쌀 반도체(5G. 인공지능, 자율주행. 태양광 재생에너지 등 )

반도체와 AI 반도체의 차이점

CIA Bear 허관(許灌) 2024. 1. 2. 07:58

 

기존 반도체는 인공지능을 위한 학습에서 가장 주목받고 있는 분야는 바로 강화학습이다. 인공지능을 훈련시키기 위해 방대한 데이터를 수집, 입력하고 전문가의 지식을 동원하는 데는 많은 비용과 시간이 소요되기 때문이다. 또한 인간의 잘못된 지식이나 선입견이 오히려 인공지능 학습에 한계로 작용 될 수도 있다.

AI 반도체는 데이터를 동시에 병렬적으로 연산함으로써 동시다발적인 학습과 추론이 가능해야 하므로 GPU가 효율적이다. 하지만 AI 반도체의 경우는 빠른 처리와 학습 능력을 위해 연산은 물론 기억/ 저장까지의 속도도 빨라야 한다. 그래서, 더 많은 용량의 메모리(HBM)와 메모리-연산 간의 빠른 상호작용을 위해 메모리/시스템 반도체를 통합한 개념으로 AI 데이터만을 전문적으로 연산하는 인공지능 반도체의 필요성이 대두되고 있다.

기존 AI 반도체는 CPU, GPU, FPGA

1957년 인공 신경 세포를 모사하여 1단계 연결 가능하도록 개발된 인공 신경망 Perceptron의 시작으로, 1986년 인공 신경 세포를 2단계 연결 가능하도록 한 Multi-layered Perceptron이 개발되었다. 2008년에 이르러서 Deep Neural Network라는 신경 세포 다단계 연결을 이용하는 알고리즘이 개발되었고, 최근에 이르러서 반도체, 특히 GPU의 발전이 여러 단계의 인공 신경망 연결을 가능하게 하고 알파고와 같은 deep learning을 가능하게 하였다.

현재는 CPU, GPU, FPGA 등을 활용하여 AI 연산을 처리하고 있으며, 주로 GPU를 사용한다. 그 이유에 대해 구체적으로 알아보도록 하겠다. CPU는 컴퓨터에서 가장 기본적인 기억, 해석, 연산, 제어라는 4가지 주요 기능을 관할하는 가장 기본적인 장치로 폰노이만 구조를 기반으로 한다. 그렇기 때문에 폰노이만 병목 현상이 나타나게 된다.

실제, CPU는 순차적인 연산에 효율적이기 때문에, CPU 코어는 복잡한 연산을 빠르게 처리하는 쪽으로 발전하였다. 반면, GPU는 데이터 처리량을 높이는 쪽으로 발전하였기 때문에, 순차적인 연산이 아닌 병렬적인 연산을 주로 수행하게 되었다.

GPU에 최적화된 프로그래밍, 알고리즘 최적화, GPU 최적화, 하드웨어 업그레이드 등을 통해 기존에 비해 200배 이상 속도가 향상되었으며, 이로 인해 종래 불가능 하던 작업이 현재는 가능해지게 되었다. 하지만 GPU를 사용한 알고리즘은 AI에 최적화된 구조가 아니기 때문에 연산 능력이나 전력면에서 비효율성이 존재하게 된다.

FPGA도 CPU가 감당하지 못하는 더 많은 서비스를 제공할 수 있으며 CPU와 병렬 작동하여 전체 시스템의 혼란이나 병목현상 없이 추가적인 컴퓨팅 파워로 사용할 수 있다는 점에서 많은 관심을 받아왔다. FPGA는 ASIC (예를 들어, NPU, Neural Processing Unit) 대비 flexible한 하드웨어 구현 가능성을 제공하며, 데이터센터 프로세서에 FPGA를 함께 사용하면 전력 감소에 많은 도움을 주게 된다.

2세대 AI 반도체의 NPU

기존의 AI 반도체와 다르게 2세대 AI 반도체는 특정 연산에 최적화 되었다. 그렇기 때문에 GPU 는 학습에는 효과적이지만 추론에는 비효율적인 문제가 존재한다. CPU가 연산을 통제하고, GPU는 그래픽을 처리한다고 할 때, NPU는 인간처럼 생각하는 인공 신경망 구조인 Neural Network 구조를 활용하여 빅데이터로 수집된 방대한 정보를 처리하는 목적을 가진다.

구글에서 개발한 NPU의 일종인 TPU(Tensor Processing Unit)는 AI 전용 가속기이다. AI 연산에 최적화 되어있기 때문에 GPU 대비 Deep Neural Network 알고리즘을 수행하는데 15배정도 속도가 향상되었고 에너지 효율이 약 70배 향상되었다.

자율주행용 AI 반도체도 많은 개발이 이루어지고 있다. NVIDIA의 Xavier SoC는 ARM CPU, NVIDIA 의 GPU, NVIDIA DLA(Deep Learning Accelerators), PVA(Programmable Vision Accelerators), ISP(Image Signal Processor)를 융합하여 드론, 로봇 공학 및 자율주행을 위해 실시간으로 다양하고 복잡한 AI 처리를 지원하도록 설계되었다.

Tesla의 차량용 프로세서 FSD(Full Self-Driving)은 CPU, GPU, Dual core NPU를 융합하여 50 TOPS(Tera Operations/Sec)의 계산 속도를 가지고 40W/Chip의 저전력을 소모하는 자율주행용 NPU이다.

대기업 외에도 호라이즌 로보틱스, 헤일로, 크네론, 그린웨이브, 에타 컴퓨트, 사피온, 퓨리오사, 오픈엣지테크놀로지, 리벨리온, 딥엑스, 모빌린트 등 다양한 스타트업이 AI 반도체 개발 경쟁에 참여하고 있다.

반도체와 AI 반도체의 차이점 < 4차산업 < 기사본문 - 디지털비즈온 (digitalbizon.com)

 

반도체와 AI 반도체의 차이점 - 디지털비즈온

[디지털비즈온 김맹근 기자] 기존 반도체는 인공지능을 위한 학습에서 가장 주목받고 있는 분야는 바로 강화학습이다. 인공지능을 훈련시키기 위해 방대한 데이터를 수집, 입력하고 전문가의

www.digitalbizon.com