arrow_back

Article

AI 칩 경쟁의 새로운 국면: 메타, 아마존 CPU로 '에이전트 AI'에 불을 붙이다

Published Apr 24, 2026

최근 인공지능 분야는 숨 가쁘게 발전하고 있습니다. 특히 대규모 언어 모델(LLM)의 등장 이후, AI가 단순한 정보 처리 수준을 넘어 실제 복합적인 작업을 수행하는 ‘AI 에이전트’ 시대로 빠르게 진입하고 있죠. 이러한 변화는 당연히 AI를 구동하는 하드웨어, 즉 AI 칩 시장에도 지각변동을 가져오고 있습니다. 엔비디아의 GPU가 압도적인 점유율로 시장을 선도해왔지만, 에이전트 AI의 부상과 함께 이 판도가 흔들리고 있다는 흥미로운 소식이 들려옵니다. 바로 메타(Meta)가 아마존(Amazon)의 자체 개발 CPU, **AWS 그래비톤(Graviton)**을 대규모로 도입하기로 했다는 소식입니다.

솔직히 말해서, 이 뉴스는 저에게도 신선한 충격이었습니다. 대부분의 AI 관련 기사가 GPU, 그 중에서도 엔비디아의 아성을 다루기 바빴으니까요. 하지만 이번 메타와 아마존의 계약은 AI 칩 시장의 새로운 국면을 명확히 보여주는 하나의 중요한 신호탄이라고 할 수 있습니다. GPU와 CPU, 각자의 역할과 필요성이 어떻게 진화하고 있는지 함께 들여다볼까요?

GPU는 모델 학습, CPU는 에이전트 구동: 역할의 분화

지금까지 우리는 AI 칩 하면 **GPU(그래픽 처리 장치)**를 떠올리는 것이 자연스러웠습니다. 방대한 데이터를 기반으로 거대한 AI 모델을 ‘학습’시키는 데는 GPU의 병렬 처리 능력이 필수적이었으니까요. 엔비디아가 이 시장을 사실상 독점하다시피 한 것도 이런 이유에서입니다. 하지만 AI 기술이 발전하면서, 학습된 모델을 실제 서비스에 적용하고 활용하는 ‘추론(Inference)’ 단계의 중요성이 커지고 있습니다. 특히 최근 주목받는 AI 에이전트는 단순 추론을 넘어섭니다. 실시간 추론, 코드 작성, 복합적인 검색, 다단계 작업 조정 등 GPU가 아닌 다른 종류의 컴퓨팅 파워를 요구하는 작업들이 늘어나고 있는 것이죠.

메타가 AWS 그래비톤을 선택한 이유가 바로 여기에 있습니다. 그래비톤은 GPU가 아닌 **ARM 기반의 CPU(중앙 처리 장치)**입니다. 전통적으로 일반적인 컴퓨팅 작업을 처리하는 칩이지만, AWS의 최신 그래비톤은 AI 관련 컴퓨팅 요구 사항을 처리하도록 특별히 설계되었습니다. 다시 말해, 거대 모델 학습에는 여전히 GPU가 최적이지만, 일단 학습된 모델 위에 구축되는 AI 에이전트의 복잡하고 계산 집약적인 워크로드에는 GPU보다 효율적이거나, 최소한 GPU에 필적하는 가격 대비 성능을 제공할 수 있다는 의미입니다. 이 부분에서 주목할 점은, AI 스택 전체가 아닌 특정 워크로드에 최적화된 칩의 필요성이 부각되고 있다는 점입니다. 이는 단순히 칩의 성능 경쟁을 넘어, AI 서비스의 종류와 단계에 따라 최적의 하드웨어 조합을 찾아가는 전략적 접근이 필요하다는 것을 시사합니다.

메타의 이번 결정은 엔비디아의 새로운 베라(Vera) CPU와도 경쟁 구도를 형성합니다. 베라 역시 ARM 기반이며 AI 에이전트 워크로드를 처리하도록 설계되었죠. 다만 엔비디아가 자사 칩과 시스템을 기업 및 클라우드 제공업체에 직접 판매하는 반면, AWS는 클라우드 서비스를 통해 자사 칩에 대한 ‘접근’만을 제공한다는 차이점이 있습니다. 이는 곧 하드웨어의 소유권을 넘어, 하드웨어가 제공하는 서비스의 가치로 경쟁의 초점이 이동하고 있음을 보여주는 대목입니다.

In another wild turn for AI chips, Meta signs deal for millions of Amazon AI CPUs

클라우드 전쟁의 새로운 전장, 그리고 아마존의 승부수

이번 계약은 단순히 칩 도입을 넘어, 거대 클라우드 제공업체들 간의 치열한 경쟁 구도를 다시 한번 확인시켜 줍니다. 메타는 과거 AWS의 주요 고객이었으나, 작년 8월 구글 클라우드와 6년간 100억 달러 규모의 계약을 체결하며 클라우드 전략을 다변화하는 모습을 보였습니다. 마이크로소프트 애저(Azure)도 함께 사용하고 있었고요. 그런 메타의 ‘거액’이 다시 AWS로 돌아오게 된 것은 아마존 입장에서는 엄청난 승리라고 할 수 있습니다.

특히 AWS가 이 계약 발표를 구글 클라우드 넥스트(Google Cloud Next) 컨퍼런스가 막 끝난 시점에 맞춰 공개했다는 점은 주목할 만합니다. 마치 클라우드 라이벌에게 보내는 ‘사이버 조롱(virtual smirk)‘처럼 느껴질 정도라고 원문 기사는 표현하고 있는데, 실제로 업계의 긴장감이 얼마나 높은지 엿볼 수 있는 대목입니다. 구글 역시 자체 AI 칩을 개발하고 있으며, 컨퍼런스에서 새로운 버전을 발표했으니 아마존의 이러한 발표는 경쟁사들에게 확실한 메시지를 던진 셈이죠.

아마존은 그래비톤 외에도 **트레이니움(Trainium)**이라는 자체 AI GPU를 만들고 있습니다. 이름과는 달리 학습과 추론 모두에 사용되죠. 하지만 이미 앤트로픽(Anthropic)이 트레이니움 칩을 향후 수년간 선점하는 대규모 계약을 체결했습니다. 앤트로픽은 10년간 1000억 달러를 AWS 워크로드에 지출하기로 했고, 아마존은 앤트로픽에 50억 달러를 추가 투자(총 130억 달러)했습니다. 이처럼 트레이니움이 이미 ‘예약 완료’ 상태였기 때문에, 메타 입장에서는 GPU가 아닌 그래비톤 CPU에서 AI 에이전트 워크로드의 대안을 찾았을 가능성이 높다고 개인적으로는 생각합니다. 이는 아마존이 다양한 종류의 AI 워크로드를 위한 맞춤형 칩 포트폴리오를 구축하고 있음을 보여주는 강력한 증거이기도 합니다.

가격 대비 성능, 그리고 자체 칩의 미래

아마존 CEO 앤디 재시(Andy Jassy)는 연례 주주 서한에서 엔비디아와 인텔을 겨냥하며, 기업들이 AI에 대해 더 나은 가격 대비 성능 비율을 원한다고 언급했습니다. 그리고 아마존이 바로 그러한 토대 위에서 계약을 성사시킬 것이라는 강력한 의지를 피력했습니다. 이번 메타와의 그래비톤 계약은 재시 CEO의 이러한 비전을 현실화하는 중요한 사례로 제시될 것입니다. 자체 개발 칩을 통해 AWS 고객들에게 최적의 성능과 비용 효율성을 제공하겠다는 아마존의 전략이 제대로 먹혀들고 있는 셈입니다.

사실 이건 클라우드 업계 전체의 흐름을 보여주는 것이기도 합니다. 구글의 TPU, 마이크로소프트의 아르고스(Argos)와 마이아(Maia) 등 주요 클라우드 기업들이 자체 AI 칩 개발에 막대한 투자를 하는 이유는 명확합니다. 첫째, 특정 워크로드에 최적화된 성능을 제공하여 고객 만족도를 높이고, 둘째, 엔비디아 등 외부 칩 공급업체에 대한 의존도를 낮춰 비용 효율성을 확보하며, 셋째, 이를 통해 경쟁사 대비 차별화된 클라우드 서비스를 제공하려는 것입니다. 아마존의 경우, 지난달 언론에 공개된 자체 칩 개발팀의 랩 투어는 이러한 내부 역량에 대한 자신감의 표현이었을 것입니다.

결론적으로, 이번 메타와 아마존의 그래비톤 계약은 AI 칩 시장이 다각화되고 전문화되는 방향으로 나아가고 있음을 분명히 보여줍니다. GPU가 여전히 핵심적인 역할을 하겠지만, AI 에이전트와 같은 새로운 워크로드의 등장은 CPU, 그리고 특정 목적에 맞춰 설계된 **ASIC(주문형 반도체)**의 중요성을 증대시키고 있습니다. 클라우드 제공업체들은 단순한 인프라 제공자를 넘어, AI 시대의 핵심적인 하드웨어 혁신 주체로 자리매김하고 있습니다. 앞으로 어떤 새로운 칩과 어떤 흥미로운 파트너십이 AI 시장의 판도를 뒤흔들지, 업계의 동향을 더욱 예의주시해야 할 때입니다.


출처

  • 원문 제목: In another wild turn for AI chips, Meta signs deal for millions of Amazon AI CPUs
  • 출처: AI News & Artificial Intelligence | TechCrunch
  • 원문 기사 보러가기
Share this story

Related News