최근 AI 도입이 가속화되면서 인프라 구조는 더욱 복잡해지고 다양한 장치가 혼합된 이기종 환경으로 변하고 있다. 이에 따라 오케스트레이션과 데이터 처리, 시스템급 성능 구현을 위해 CPU에 대한 의존도는 더욱 높아지는 추세다. 인텔과 구글은 인텔 제온 프로세서의 여러 세대에 걸쳐 협력하며, 구글의 글로벌 인프라 전반에서 성능과 에너지 효율성, 총 소유 비용(TCO)을 대폭 개선할 예정이다.
◇가속기 넘어 시스템으로…CPU 역할 강화한 AI 설계
특히 양사는 AI가 단순히 가속기 단독으로 구동되는 것이 아니라 시스템 전체에서 작동하며, CPU가 그 시스템의 핵심이라는 점을 분명히 했다. 구글 클라우드는 이미 최신 인텔 제온 6 프로세서를 탑재한 C4 및 N4 인스턴스를 포함해 워크로드에 최적화된 인스턴스 전반에 인텔 제온 프로세서를 도입해 왔다. 이러한 플랫폼은 대규모 AI 학습 조정부터 지연 시간에 민감한 추론, 범용 컴퓨팅에 이르기까지 광범위한 영역을 지원한다.
이와 함께 인텔과 구글은 주문형 반도체(ASIC) 기반 IPU 공동 개발을 확대한다. 프로그래밍 가능한 가속기인 IPU는 호스트 CPU가 담당하던 네트워킹, 스토리지, 보안 기능을 분담해 처리한다. 이를 통해 CPU 활용도를 높이고 효율성을 향상시켜 하이퍼스케일 AI 환경에서 더욱 예측 가능한 성능을 구현할 수 있다.
◇IPU 협력 확대, 하이퍼스케일 클라우드 효율 극대화
IPU는 최신 데이터 센터 아키텍처의 핵심 구성 요소로 자리 잡고 있으며, 클라우드 제공업체는 시스템 복잡성을 높이지 않고도 효율적으로 인프라를 확장할 수 있다. 제온 CPU와 IPU는 긴밀하게 통합된 플랫폼을 구성해 범용 컴퓨팅과 특정 목적에 특화된 가속 기능을 균형 있게 제공하며, 결과적으로 유연하고 확장 가능한 AI 시스템을 완성한다.
립-부 탄(Lip-Bu Tan) 인텔 CEO는 “AI는 인프라 구축 및 확장 방식을 재편하고 있다”며, “AI 확장을 위해서는 가속기 이상의 것이 필요하며, 균형 잡힌 시스템이 필수적이다. CPU와 IPU는 최신 AI 워크로드가 요구하는 성능, 효율성 및 유연성을 제공하는 데 핵심적인 역할을 한다”고 말했다.
아민 바흐다트(Amin Vahdat) 구글 AI 인프라 부문 수석 부사장 겸 최고 기술 책임자는 “CPU와 인프라 가속은 학습 오케스트레이션부터 추론 및 배포에 이르기까지 AI 시스템의 핵심 요소로 남아 있다”라며, “인텔은 거의 20년 동안 신뢰할 수 있는 파트너였으며, 인텔의 제온 로드맵을 통해 구글은 워크로드의 증가하는 성능 및 효율성 요구 사항을 지속적으로 충족할 수 있을 것이라는 확신을 갖게 되었다”고 밝혔다.
이번 협력 확대는 AI 시대에 필요한 개방적이고 확장 가능한 인프라를 발전시키려는 양사의 공동 노력을 담고 있다. 양사는 범용 컴퓨팅과 특화된 가속 기능을 결합한 균형 잡힌 설계 방식을 통해 활용도를 높이고 복잡성을 줄이는 차세대 클라우드 서비스 기반을 강화할 계획이다.









