당신이 운영하는 가게 문이 열리기 전, 커피 한 잔 내려놓고 휴대폰을 스크롤하다가 이 문장에 눈이 멈춘다. “화웨이가 자체 HBM을 넣은 차세대 AI 칩과 초대형 클러스터를 공개했다.” 미국발 제재로 목이 졸리던 회사가 메모리까지 ‘자급’하겠다고. 숫자만 보면 대륙식 허풍 같기도 하고, 또 한편으로는 판이 뒤집힐 예감이 스친다. 당신은 당장 “이게 내 매출과 무슨 상관?”이라고 묻고 싶을 것이다. 하지만 지난 2년, 우리 사장님들의 광고·검색·재고·사진 편집·번역까지, 화면 뒤에서 돌아가는 모델과 칩이 비용과 속도를 정했다. 부품의 줄이 바뀌면 전선 끝의 작은 가게도 미세하게 흔들린다. 이번 발표의 핵심은 두 가지다. 하나, 화웨이는 내년부터 ‘어센드 950’ 계열을 시작으로 매년 새 칩을 내고, 나올 때마다 연산을 두 배로 늘리겠다고 못 박았다. 둘, 그 1세대인 950PR에는 화웨이가 직접 개발했다는 HBM(고대역폭 메모리)이 들어간다.

지금까지 HBM은 SK하이닉스·삼성·마이크론의 리그였다. 이 말이 사실이면 병목의 목줄 하나를 스스로 푼 셈이다. 발표 무대에 선 화웨이의 쉬즈쥔은 “연 1회 출시, 매번 두 배”라는 리듬까지 제시했다. 로드맵은 2027년 960, 2028년 970까지 이어진다. 일정과 “자체 HBM” 언급은 로이터 현장 보도에도 그대로 적혔다. ([Reuters][1]) 두 번째 축은 ‘한 장 한 장 센 칩’이 아니라 ‘많이 묶어 더 센 컴퓨팅’이다. 화웨이가 공개한 아틀라스 950·960 슈퍼팟은 칩을 잇는 초고속 상호연결로 각각 8,192개, 15,488개의 어센드 칩을 한 덩어리로 묶는다. 회사 설명은 더 노골적이다. “한 대처럼 학습하고 사고하고 추론하는 논리적 머신.” 대규모 AI 학습에서 단일 칩의 피지컬 스펙이 밀리면, 숫자로 누르는 법을 택한 것이다.

이 구성과 스펙은 화웨이 공식 발표 자료와 로이터 통신 보도를 통해 확인된다. ([huawei][2]) 타이밍이 묘하다. 발표 전날, 중국 인터넷정보판공실(CAC)이 바이트댄스·알리바바 같은 자국 빅테크에 “엔비디아의 중국 전용 신형 칩(‘RTX 6000D’로 불리는 제품)의 테스트와 주문을 멈추라”고 통보했다는 보도가 Financial Times와 로이터를 통해 나왔다. 미국의 수출 통제로 ‘절삭’된 칩이라도 이제는 사지 말라는, 사실상 ‘국산으로 갈아타라’ 신호등이다. ([Financial Times][3]) 여기에 중국 국가시장감독관리총국(SAMR)은 2020년 조건부 승인했던 엔비디아의 멜라녹스 인수 건을 다시 들여다보겠다고 밝혔다. 네트워킹—그러니까 칩을 칩답게 묶어주는 통신과 스위칭의 ‘혈관’—을 쥔 회사의 과거 합병을 지금 재조사하는 건, 앞으로의 클러스터 전쟁이 어디서 갈릴지 중국 당국도 정확히 보고 있다는 말이다. ([JURIST][4]) 그렇다면 우리에겐 무엇이 바뀔까. 첫째, ‘칩 줄서기’가 재편될 가능성이다. 중국 내 빅테크들이 엔비디아 구매를 접고 국산으로 돌아서면, 글로벌 엔비디아 수요의 압력이 아주 조금은 풀릴 수 있다.

실제로 해당 보도 직후 엔비디아 주가가 흔들렸다는 단기 뉴스도 나왔다. 물론 이것이 곧바로 한국 스타트업의 GPU 임대 단가 하락으로 직결된다는 보장은 없다. 대형 클라우드가 이미 장기계약으로 물량을 틀어쥐고 있고, 미국·중동의 AI 팩토리 건설 속도가 더 빠르기 때문이다. 그래도 ‘무조건 품절’의 공포가 살짝 옅어질 수 있다는 점은 기억해둘 만하다. ([Reuters][5]) 둘째, 메모리 지형의 미세한 균열이다. HBM은 지금까지 한국과 미국 업체의 독무대였다. 화웨이가 진짜로 자체 HBM을 양산해 차세대 칩에 얹기 시작하면, 중국 내수에서라도 ‘메모리 내재화’가 진행될 수 있다. 이것이 당장 SK하이닉스·삼성전자의 HBM 주문에 칼이 되는가. 단정하기 이르다.

공정, 패키징, 수율, 생태계까지 넘어야 할 산이 많고, 외부 소스들은 화웨이의 HBM 세부 제조 정보를 아직 밝히지 못하고 있다. 다만 “자체 HBM”이라는 깃발은 확실히 꽂혔다. 우리 입장에선 2026\~2027년 중국향 HBM 수요의 질이 바뀔 수 있다는 시나리오를 열어두면 된다. ([Reuters][1]) 셋째, 소프트웨어의 벽이다. 칩을 많이 묶는다고 끝이 아니다. 그 묶음을 사람처럼 움직이는 건 툴체인과 프레임워크다. CUDA—엔비디아의 언어이자 생태계—가 괜히 해자라는 말이 아니다. 화웨이는 ‘클러스터로 때운다’ 전략을 말해왔고, 실제로 초대형 슈퍼팟·슈퍼클러스터를 내놓으며 자신감을 보인다. 하지만 서드파티 최적화, 드라이버, 커뮤니티, 모델 포팅까지 포함한 엔드투엔드 스택의 완성도는 시간을 먹는다.

기술 매체들의 분석도 같은 걱정을 남긴다. “하드웨어만으로는 부족할 수 있다.” 그러니 올가을에 곧장 ‘화웨이로 갈아타자’는 결론이 나오진 않는다. 우리는 현실적인 조달과 리스크를 놓고 저울질해야 한다. ([Tom's Hardware][6]) 이제 사장님의 자리로 돌아오자. 작은 가게, 작은 팀에게 필요한 건 ‘지금 무엇을 바꿔야 하나’다. 첫째, AI 비용표를 다시 들여다보라. 월 단위 구독·토큰 과금이든, GPU 인스턴스든, 당신의 모델이 정말로 ‘큰 모델이어야만’ 하는지 점검하자. 짧은 문장 번역, 단순 요약, 이미지 리사이즈 같은 건 경량 모델과 지능형 캐싱으로 꽤 깎인다. 최근의 발표가 보여준 건 ‘빅 모델 시대’의 다음 왕좌가 누가 되느냐가 아니라, 원하는 속도·정확도를 만드는 선택지가 늘어난다는 사실이다.

둘째, 하드웨어는 ‘사지 말고 빌리기’가 원칙이다. 장비를 사서 3년을 버티겠다는 계획은, 칩 로드맵이 ‘매년 두 배’로 흘러가는 지금 가장 위험한 베팅이다. 서비스형 클러스터, 스팟 인스턴스, 프리엠프터블 VM 같은 옵션을 익히고, 피크에만 터보를 켜라. 그래야 올겨울 혹은 내년 봄 가격변동이 왔을 때, 당신은 줄바꿈만으로 이득을 본다. 화웨이의 로드맵이 진짜 속도로 실행되든, 엔비디아가 ‘루빈’ 세대를 더 깔아놓든, 당신의 비용구조는 유연하게 반응하도록. 셋째, 데이터·파이프라인을 표준화하라. 칩의 국적이 바뀌어도 돌아가는 일을 만들려면, 입력과 출력은 변함이 없어야 한다. 포맷, 스키마, 피처 엔지니어링, 프롬프트 템플릿을 사내 규칙으로 굳혀두면, 나중에 “이 클러스터로 포팅합시다”라고 말하기가 쉬워진다. 심지어 클라우드 공급자가 일시적으로 특정 가속기 재고가 없다 해도, 다른 리전·다른 벤더로 튕겨갈 수 있다.

하드웨어를 사랑하지 말고, 결과를 사랑하자. 넷째, 모델 선택의 ‘세 갈래 길’을 그려두자. 훈련이 필요한 경우는 A, 파인튜닝으로 충분한 경우는 B, 추론만 쓰면 되는 경우는 C. 각 시나리오마다 비용과 지연, 품질 타협점을 미리 정해두면, 공급망 뉴스가 나와도 당황하지 않는다. 예컨대 “광고 문안 생성은 로컬 소형·지연 민감, 계절성 수요 예측은 클라우드 대형·주간 batch, 고객 상담 요약은 중형·저가형 GPU 우선” 식으로 라벨링하라. 그러면 담당 대리점이 어떤 칩 이름을 들이밀든, 당신은 같은 잣대로 비교할 수 있다. 다섯째, 컴플라이언스를 챙겨라. 대중 뉴스엔 잘 안 보이지만, 특정 벤더의 장비를 도입했을 때 생길 수 있는 보안·수출입·업데이트 리스크는 결국 당신의 다운타임으로 돌아온다. 중국 칩은 한국에서 당장 판매·지원 생태계가 성숙해 있지 않다.

반대로 미국 칩은 공급이 딸리면 가격이 오르고 대기열이 길어진다. 정답은 한쪽 ‘올인’이 아니라, 공급선 다변화와 계약의 유연성이다. 카드를 두 장쯤은 주머니에 넣어라. 조금 더 먼 시야에서 보자. 중국은 ‘사오지 말라’는 신호를 내렸고, 화웨이는 “우리도 할 수 있다”고 응수했다. 이 말다툼에서 우리에게 가장 현실적인 변화는 공급망의 비대칭이 조금 덜해질 가능성, 그리고 클러스터 전쟁이 본격화되며 소프트웨어·전력·냉각 같은 비(非)칩 영역의 혁신이 빨라질 거란 점이다. 화웨이는 슈퍼팟 한 덩어리에서 FP8 수 엑사플롭, FP4 두 자릿수 엑사플롭 같은 숫자를 흘리며 ‘규모의 힘’을 강조한다. 숫자의 진위와 효율성은 더 검증될 것이다. 하지만 “묶음의 시대”가 온다는 직감은 부인하기 어렵다.
([huawei][7]) 끝으로, 한국 소상공인에게 남는 교훈은 단순하다. 거대한 칩의 싸움은 당신의 영수증에서 ‘한 줄’로 나타난다. 모델 호출 단가, 이미지 생성 대기시간, 주말 밤 재고 예측 배치의 성공률. 그래서 오늘 할 일은 기술 기사에 달린 댓글로 싸우는 게 아니라, 우리 비즈니스가 필요로 하는 ‘속도와 정확도’를 정의하는 것이다.
그 정의가 또렷하면, 칩이 누구 것이든, 슈퍼팟이 몇 장이든, 우리는 가장 싸고 믿을 만한 길을 고를 수 있다. 장인에게 칼은 중요하지만, 더 중요한 건 칼질의 리듬이다.
화웨이의 리듬이든 엔비디아의 리듬이든, 당신의 장사 리듬을 흔들지만 않는다면, 우리는 변화에서 기회를 건져낼 수 있다.
[1]: https://www.reuters.com/business/media-telecom/huawei-unveils-two-new-supercomputing-ai-nodes-local-media-reports-2025-09-18/?utm_source=chatgpt.com "Huawei unveils chipmaking, computing power plans for the ..." [2]: https://www.huawei.com/en/news/2025/9/hc-lingqu-ai-superpod?utm_source=chatgpt.com "Huawei Unveils World's Most Powerful SuperPoDs and ..." [3]: https://www.ft.com/content/12adf92d-3e34-428a-8d61-c9169511915c?utm_source=chatgpt.com "China bans tech companies from buying Nvidia's AI chips" [4]: https://www.jurist.org/news/2025/09/china-finds-nvidia-violated-antimonopoly-law-in-preliminary-probe/?utm_source=chatgpt.com "China finds Nvidia violated antimonopoly law in ..." [5]: https://www.reuters.com/markets/emerging/china-tells-tech-firms-stop-buying-nvidias-ai-chips-ft-reports-2025-09-17/?utm_source=chatgpt.com "China tells tech firms to stop buying Nvidia's AI chips, FT reports" [6]: https://www.tomshardware.com/tech-industry/semiconductors/huawei-unveils-ascend-roadmap-backed-by-in-house-hbm?utm_source=chatgpt.com "Huawei reveals long-range Ascend chip roadmap - three-year plan includes ambitious provision for in-house HBM with up to 1.6 TB/s bandwidth" [7]: https://www.huawei.com/en/news/2025/9/hc-xu-keynote-speech?utm_source=chatgpt.com "Groundbreaking SuperPoD Interconnect: Leading a New ...".