ACROFAN

[COMPUTEX 2017] 컴퓨텍스 타이베이 CPX 컨퍼런스 – 인텔 : 인공지능(Artificial Intelligence, AI)

기사입력 : 2017년 05월 31일 18시 18분
ACROFAN=권용만 | yongman.kwon@acrofan.com SNS
컴퓨텍스 타이베이(COMPUTEX TAIPEI, 이하 컴퓨텍스)가 '세계시장을 선도하는 B2B ICT/IoT 박람회'라는 표어 아래 스타트업 플랫폼을 표방하며 오는 5월 29일부터 6월 3일까지 닷새 동안 대만 타이베이 일원에서 개최된다. 인텔(Intel)은 5월 31일, 대만 타이베이의 TICC(Taipei International Convention Center)에서 열린 컴퓨텍스 CPX 컨퍼런스의 AI 영역 세션 기조연설을 통해, AI 관련에서 인텔의 전략에 대해 소개했다.

클라우드 시대의 다음은 AI(Artificial Intelligence) 시대가 될 것으로 예측되는 가운데, 지금까지 다양한 현실적 문제로 제대로 시도되지 못했던 AI에 대한 진척이 클라우드 시대에 힘입어 본격적으로 대두되고 있다. 인텔은 이런 움직임에 대해 관련 기술을 가진 업체와 생태계 전반에 적극적인 투자와 협력 등을 진행하고 있으며, 이를 통해 AI 영역에서도 ‘엔드 투 엔드’ 포트폴리오를 갖추고 생태계 전반의 선순환 구조를 AI 영역에까지 확장해 적용하고 있다고 발표했다.

인텔 AI 제품 그룹은 하드웨어와 라이브러리 제품군과 플랫폼을 통해, 다양한 프레임워크에서 인텔 기술 기반의 인프라를 가장 효율적으로 사용할 수 있게 하고 있다고 소개했다. 또한 프로세서 등 인텔의 전통적인 하드웨어 제품 또한 AI에 있어 효율적으로 활용할 수 있도록 하고 있으며, 너바나의 기술이 들어간 ‘크레스트 제품군’이나 알테라의 FPGA 등은 AI 컴퓨팅을 가속화하며, 어플라이언스 형태의 인텔 너바나 플랫폼은 당면한 문제를 가장 빠르게 해결하기 위한 방법을 제시한다고 덧붙였다.

 
▲ 피터 파오리첸 인텔 데이터센터 세일즈 그룹 제품 및 기술 총괄

 
▲ AI에서도 인텔은 엔드 투 엔드 포트폴리오와 선순환 구조를 만들어내고 있다

피터 파오리첸(Peter Pao-Li Chen) 인텔 데이터센터 세일즈 그룹 제품 및 기술 총괄은, 이전에는 다양한 현실적인 문제로 제대로 다루지 못했던 AI가, 이제는 컴퓨팅 역량의 향상과 데이터 등에서의 혁신에 힘입어, 이제는 가능하게 되었다고 강조했다. 또한 AI 컴퓨트에 대한 수요는 2020년까지 12배 성장할 것으로 예측했으며, 인텔은 이런 변화에 대응하기 위해 다양한 산업군의 고객들과 협업하고, 시스템에 대한 연구와 실증, 사용자 경험의 디자인과 개발 등을 진행하고 있고, 이와 관련되어 기업 인수나 투자 활동도 진행하고 있다고 덧붙였다.

인텔은 AI 영역에서도 ‘엔드 투 엔드’ 솔루션 포트폴리오와, 이를 기반으로 한 선순환 구조를 갖추고 있다고 강조했다. 클라우드와 엣지 디바이스, 이들을 연결하는 네트워크와 중간에서 혁신을 가속하는 기술들로 이루어지는 이 선순환 구조는 AI에도 확장되어 적용될 수 있다. 인텔은 머신러닝과 딥러닝을 위한 프로세서와 FPGA 하드웨어, 컴퓨터 비전을 위한 기술, 메모리와 스토리지, 네트워크와 커뮤니케이션을 위한 기술, 그리고 툴과 표준에 이르기까지 전반적인 포트폴리오를 확보하고 있다고 소개했다.

이 엔드 투 엔드 포트폴리오는 고객의 사용 사례에 따라, 보기 쉽게 재구성되기도 한다. 최근 많은 관심을 받는 자율주행차에서, 인텔은 센서 네트워크와 머신 비전, 실시간 모델링과 분석 등 자동차 내외부의 정보를 받고 처리하고 통신하는 일련의 시스템, 자동차에서의 데이터를 받아 분석하고 이를 차량 쪽에 반영해 최적의 활용을 가능하게 하는 인프라 플랫폼, 그리고 이 양쪽을 연결하는 5G 등의 네트워크까지 모든 주요 기반 기술을 갖추고 있다고 소개했다.

 
▲ 인텔의 포트폴리오는, 다양한 오픈 프레임워크를 최적으로 지원할 수 있도록 구성되었다

 
▲ 인텔은 5월 중순, ‘파트너십 온 AI’ 합류를 발표한 바 있다

인텔의 AI 제품 그룹은 인텔의 너바나 인수를 계기로 구성되어, 그 중요성이 강조되고 있는 조직이기도 하다. 이 그룹의 미션은 디자인을 통한 AI의 가속, 연구 등에서의 AI 기술 접목 등으로 새로운 발견에 대한 지원, 그리고 모바일 등에서 사용자 경험 혁신에 대한 지원 등이 꼽혔다. 한편 ‘인텔 너바나’의 포트폴리오는 프로세서와 스토리지, 네트워킹 등의 하드웨어, 하드웨어에 최적화된 라이브러리, 그리고 이를 기반으로 하는 플랫폼으로 구성되어, 다양한 프레임워크에서 가장 최적화된 형태로 인텔의 기술을 사용할 수 있도록 하고 있다고 덧붙였다.

또한 인텔은 최근 ‘파트너십 온 AI(Partnership on AI)’에 칩 메이커로는 처음으로 합류를 발표한 바 있으며, 이를 통해 AI 기술이 인류의 삶과 사회에 도움을 줄 수 있는 방향으로 발전하도록 기여하고자 한다고 밝혔다. 이 외에도 중국의 알리바바 그룹과 함께 의료 부분의 AI 도입에 있어 필요한 시스템의 ‘학습’을 지원하는 프로젝트를 진행하고 있으며, 다양한 의학적 이미지 자료 등을 시스템이 학습하고, 이를 기반으로 의사들이 환자의 진단에 AI 시스템을 활용함에 있어 더 높은 정확성을 제공할 수 있다고 밝혔다.

인텔은 AI와 관련된 하드웨어 플랫폼으로 크게 네 가지 구성을 제공한다. 가장 기본적으로는, 전 세계에서 거의 대부분의 머신 러닝 플랫폼에 활용되고 있는 제온 프로세서 기반으로 시작해, 고성능의 범용 머신러닝을 위한 제온 파이 프로세서가 준비되어 있다. 그리고 딥러닝에 특화된 제품군으로는 너바나의 기술을 기반으로 하는 ‘크레스트 제품군’이 있으며, 고성능 고효율의 추론 환경 가속을 위한 구성으로는 제온 프로세서와 FPGA 기반 가속기 조합을 제시했다.

 
▲ 제온 스케일러블 패밀리의 범용성은 AI에서도 여전히 유효하다

 
▲ 딥러닝을 위한 ‘크레스트 제품군’은 기존 GPU의 태생적 한계를 극복하기 위한 시도가 보인다

2017년 중반 선보일 제온 프로세서 스케일러블 패밀리는 AI에 있어서도, 가장 유연한 AI 플랫폼의 기반을 제공하는 범용 플랫폼으로의 위치에 있다. AI 뿐 아니라 다양한 워크로드에서 높은 효율을 보이는 범용성 뿐 아니라, AI 에서의 활용이 기대되는 부분으로는 AVX-512, INT8 지원, 인텔의 FPGA 애드인 카드 지원과 고속 I/O 지원 등이 꼽히고 있다. 또한 차세대 제온 파이 ‘나이트 밀(Knights Mill)’은 딥러닝 워크로드와 스케일아웃 구성에 최적화되고, 더 많은 메모리를 지원한다고 덧붙였다.

딥러닝에 최적화된 하드웨어인 인텔 너바나 ‘크레스트 제품군(Crest Family)’는 딥러닝 워크로드를 위한 전용 가속기다. 이 제품은 기존 애드온 GPU 기반 구성이 가지던 메모리, PCIe 버스에서 오는 대역폭 부족에 대한 약점을 극복하기 위해, 메모리에서는 8Tb/s 대역폭의 32GB의 HBM2 메모리를 패키지에 내장하고, 외부와는 더욱 고속의 인터커넥트를 사용하는 것이 특징으로 꼽혔다.

한편 인텔 너바나 플랫폼은 AI를 활용한 다양한 문제 해결에 있어, 가장 빨리 활용에 나설 수 있도록 클라우드 서비스나 데이터센터의 어플라이언스 등으로 제공되는 ‘풀 스택 솔루션’이다. AI를 활용해 문제를 해결하고자 하는 경우, 이 플랫폼은 풀 스택 구성의 환경을 가장 빠른 시간 내에 구축함으로써 바로 문제 해결에 나설 수 있도록 하며, 손쉬운 확장과 관리성을 지원한다고 덧붙였다.

Copyright ⓒ Acrofan All Right Reserved.

디지털 마케팅의 새로운 장을 만들다! 신개념 퍼포먼스마케팅 플랫폼 '텐핑'

[명칭] 아크로팬   [제호] 아크로팬(ACROFAN)    [발행인] 유재용    [편집인] 유재용    [청소년보호책임자] 유재용
Copyright © ACROFAN All Right Reserved