검색
-
-
네이버, 2분기 매출 2조9천억⋯AI·커머스 성장세 이어가
- 네이버가 2분기 인공지능(AI) 서비스 확대와 커머스 플랫폼 성장에 힘입어 견조한 실적을 기록했다. 네이버는 8일 잠정 실적 공시를 통해 2분기 매출 2조9151억 원, 영업이익 5216억 원을 각각 기록했다고 밝혔다. 매출과 영업이익은 전년 동기 대비 각각 11.7%, 10.3% 증가했다. 당기순이익은 4974억 원으로 집계됐다. 주요 부문별로는 서치플랫폼이 1조365억 원, 커머스 8611억 원, 핀테크 4117억 원, 콘텐츠 4740억 원, 엔터프라이즈 1317억 원을 기록했다. AI 브리핑, AI 탭, 새벽배송 도입 등 하반기 전략도 구체화했다. [미니해설] AI 탑재한 네이버, 2분기 매출 2조9,151억…커머스·핀테크 동반 성장 네이버가 AI 신기능 도입과 커머스 플랫폼 강화에 힘입어 2분기에도 안정적인 실적 성장세를 이어갔다. 네이버는 8일 잠정 실적 공시를 통해 2025년 2분기 연결 기준 매출 2조9151억 원, 영업이익 5216억 원을 기록했다고 밝혔다. 전년 동기 대비 매출은 11.7%, 영업이익은 10.3% 각각 증가했다. 당기순이익은 4974억 원으로 집계됐다. 커머스·핀테크 두 자릿수 성장…AI 전략 효과 가시화 사업 부문별로 보면 전통적인 검색광고 기반의 서치플랫폼이 여전히 안정적인 비중을 차지했다. 해당 부문은 AI 기반 피드 강화와 체류시간 증가, 광고 고도화에 따라 전년 대비 5.9% 증가한 1조365억 원을 기록했다. 특히 커머스 부문은 네이버플러스 스토어앱 안정화와 스마트스토어 거래액 증가에 힘입어 전년 대비 19.8%, 전분기 대비 9.3% 증가한 8,611억 원의 매출을 달성했다. 핀테크 부문도 네이버페이 외부 결제 생태계 확장으로 전년 동기 대비 11.7% 성장해 4117억 원의 매출을 기록했다. 2분기 네이버페이 결제액은 20조8000억 원으로, 스마트스토어 성장과 더불어 외부 가맹점 확대의 효과가 반영됐다. 네이버는 연내 페이스사인 등 다양한 결제 방식을 통합한 단말기를 출시하고, 온·오프라인 금융 연계 플랫폼으로 사업을 확장할 계획이다. 콘텐츠와 엔터프라이즈도 안정 성장 콘텐츠 부문은 웹툰 실적 반등과 카메라앱 유료 구독자 증가에 따라 4740억 원의 매출을 기록하며 전년 대비 12.8% 증가했다. 엔터프라이즈 부문은 기업용 AI 솔루션 확산에 힘입어 1317억 원을 기록해 전년 대비 9.1% 성장했다. AI 브리핑·AI 탭 확대…플랫폼 고도화 본격화 이날 실적발표 콘퍼런스콜에서 최수연 네이버 대표는 AI 전략의 방향성을 구체적으로 밝혔다. 그는 "올해 말까지 AI 브리핑 커버리지를 전체 검색의 20% 수준까지 확대하고, 내년에는 통합검색에 대화형 AI 탭을 도입할 계획"이라고 말했다. AI 브리핑은 생성형 AI를 활용해 검색 결과를 요약하고 사용자 맞춤 콘텐츠를 제시하는 네이버 고유의 기능이다. 대화형 AI 탭은 통합검색에 적용될 예정이며, 향후 사용자 경험을 AI 기반으로 재정의할 핵심 전략으로 꼽힌다. 새벽배송·콜드체인 도입…커머스 물류 강화 커머스 사업과 관련해 네이버는 오는 3분기 컬리, CJ대한통운과 협력해 새벽배송을 도입하고, 저온 유통망(콜드체인) 확대를 통해 상품 신선도를 강화하겠다는 계획도 공개했다. 최 대표는 "내년 초 직계약을 위한 플랫폼 개발을 마무리해 N배송 도입률을 높이고, 연내 구매자 전용 AI 에이전트를 도입할 것"이라고 밝혔다. 글로벌 소버린 AI 사업 본격화…중동·동남아 협력 강화 네이버는 글로벌 AI 전략에서도 적극적인 행보를 보이고 있다. 이날 최 대표는 "데이터센터와 자체 대형언어모델(LLM), GPU 인프라 운용 경험을 토대로 소버린 AI 사업을 본격화하고 있다"고 말했다. 실제로 네이버는 사우디아라비아 디지털트윈 구축, 태국 LLM 개발, 모로코 AI 데이터센터 및 GPU 엣지 인프라 구축, MIT와의 휴머노이드 연구 협력, 일본 이즈모시 AI 안부전화 서비스 등 글로벌 다각화 전략을 전개하고 있다. 중장기 성장 동력 확보…"AI 기반 플랫폼 확장 지속" 최 대표는 "AI 기반 플랫폼 경쟁력과 사업 역량 강화를 통해 네이버의 중장기 성장 토대를 마련할 것"이라며 "글로벌 파트너십을 확대해 신뢰 기반의 AI 생태계를 구축해 나가겠다"고 밝혔다. 이러한 행보는 네이버가 단순 플랫폼 기업을 넘어 AI 기술을 기반으로 한 글로벌 기술기업으로의 도약을 시도하고 있음을 보여준다.
-
- IT/바이오
-
네이버, 2분기 매출 2조9천억⋯AI·커머스 성장세 이어가
-
-
엔비디아 AI칩 중국 유출한 중국인들 적발돼
- 미국에 명목상 IT 업체를 세우고 제3국을 경유하는 방식으로 수천만 달러 규모의 엔비디아 인공지능(AI) 칩을 중국으로 유출한 혐의로 중국인 2명이 기소됐다. 5일(현지시간) 로이터 통신 등에 따르면 미 법무부는 중국 국적 촨 겅(28)과 스웨이 양(28)을 2022년 10월부터 지난달까지 미 상무부의 허가 없이 고성능 그래픽처리장치(GPU) H100을 비롯한 엔비디아 칩과 기타 기술을 중국에 유출한 혐의로 기소했다고 이날 밝혔다. 이들 중국인들은 2022년 미국이 대중국 기술 수출 통제를 강화하고 반도체 수출에 허가를 요구하기 시작한 직후 캘리포니아 LA 엘몬테에 ALX 설루션즈(이하 ALX)라는 회사를 설립했다. 이 회사는 2023년 8월부터 2024년 7월까지 미국 서버 제조업체 슈퍼마이크로 컴퓨터로부터 200개 이상의 엔비디아 H100 칩을 구매했으며, 고객이 싱가포르와 일본에 있다고 신고했다. 2023년 작성한 한 송장에도 구매자가 싱가포르에 있다고 적었는데, 싱가포르 현지 미 수출통제관은 해당 칩이 실제로 도착한 사실을 확인할 수 없었고 명시된 주소에는 회사가 존재하지 않았다. 회사 측은 제3국을 경유해 중국으로 수출하면서 규제를 피하려 했던 것으로 미 당국은 보고 있다. ALX가 발송한 선적 20건 이상은 싱가포르와 말레이시아의 운송 대행업체로 향했다. 대신 작년 1월 한 중국 회사로부터 100만달러를 수령했으며, 홍콩과 중국 소재 다른 기업들로부터도 추가 입금을 받았다. 수사 당국은 이 업체들을 운송 대행업체가 아닌 실제 구매처로 파악했다. 피고인들은 엔비디아 H100 외에도 중국 수출에 별도 허가가 필요한 PNY 지포스 RTX 4090 그래픽카드를 중국에 불법 수출한 혐의도 받는다. 이 그래픽카드에는 엔비디아 칩이 탑재됐다.
-
- IT/바이오
-
엔비디아 AI칩 중국 유출한 중국인들 적발돼
-
-
화웨이, AI GPU 생태계 개방⋯CANN 오픈소스 전환
- 화웨이가 자사의 인공지능(AI) 연산용 GPU 소프트웨어 툴킷인 'CANN(Compute Architecture for Neural Networks, 신경망 컴퓨팅 아키텍처)'을 오픈소스로 전환한다고 밝혔다고 미국 IT전문매체 톰스가이드가 5일(현지시간) 보도했다. 이 같은 조치는 엔비디아(Nvidia)의 폐쇄형 CUDA 생태계에 대응하고, 자사 Ascend AI GPU의 소프트웨어 채택률을 높이기 위한 전략으로 풀이된다. CANN은 화웨이의 어센드(Ascend) 시리즈 AI GPU에 최적화된 이기종 컴퓨팅 아키텍처로, 다층 프로그래밍 인터페이스를 제공해 AI 응용 프로그램의 구축을 지원한다. 구조상 엔비디아의 CUDA와 유사한 방식으로 작동하지만, 오픈소스 전환을 통해 더 많은 개발자 접근성과 생태계 확장이 가능할 것으로 기대된다. 중국 현지 매체 사우스차이나모닝포스트(SCMP)에 따르면, 화웨이는 이번 결정을 앞두고 주요 AI 기업, 산업 파트너, 대학, 연구기관 등과 Ascend 생태계 구축을 위한 협의를 진행해왔다. CANN의 오픈소스화는 개발자 혁신을 가속화하는 동시에, 중국 내 반도체 독립을 위한 기술 자립의 일환으로도 해석된다. Ascend GPU의 성능은 일부 환경에서 엔비디아의 최신 AI 칩 블랙웰 B(Blackwell B) 시리즈에 근접하고 있는 것으로 전해진다. 반면, CUDA는 엔비디아 하드웨어에만 최적화된 폐쇄적 구조로, 개발자들 사이에서 오랜 기간 제약 요인으로 지적돼 왔다. 특히 2024년부터는 CUDA 11.6 버전부터 타사 GPU에 기능을 이식하려는 변환 계층(translation layer) 사용까지 금지됐다. 화웨이는 이번 오픈소스화를 통해 CANN의 채택률을 높이고 개발자 커뮤니티와의 접점을 강화하겠다는 입장이다. 다만 엔비디아의 CUDA가 20년 이상 축적된 기술과 생태계를 바탕으로 한 만큼, CANN이 유사한 수준의 성숙도를 갖추기까지는 시간이 필요할 것으로 전망된다.
-
- IT/바이오
-
화웨이, AI GPU 생태계 개방⋯CANN 오픈소스 전환
-
-
메타, 저커버그의 'AI 초지능' 도박⋯수천억 달러 투자·초일류 인재 영입
- 마크 저커버그 메타플랫폼 최고경영자(CEO)가 인공지능(AI) 패권 경쟁에서 승기를 쥐기 위해 막대한 자금과 초일류 인재를 동원한 초지능 전략을 본격화하고 있다. 최근 스레드(Threads) 플랫폼을 통해 공개한 이번 구상은, 메타의 AI 모델 '라마 4'의 시장 실패 이후 오히려 더 큰 승부수를 던진 것으로 해석된다. 16일(이하 현지시간) 미 경제매체 배런스에 따르면 저커버그는 지난 14일 스레드를 통해 "업계 최고의 인재를 확보하는 데 집중하고 있다"며, "초지능(superintelligence)을 구축하기 위해 수천억 달러를 컴퓨팅 자원에 투자할 계획"이라고 밝혔다. 그는 메타가 현재 수기가와트(GW)급 데이터센터 클러스터를 다수 건설 중이며, 이 중 첫 번째 클러스터인 '프로메테우스(Prometheus)'는 내년 가동에 들어가고, '하이페리온(Hyperion)'은 수년 내 5기가와트 규모로 확장될 것이라고 설명했다. 참고로 1기가와트는 약 80만 가구에 전력을 공급할 수 있는 수준이다. 고성능 AI 인프라의 전력 소비 규모도 급변하고 있다. 과거 클라우드 컴퓨팅용 데이터센터가 50메가와트(MW) 수준의 전력을 사용했다면, 오늘날 10만 개의 GPU를 탑재한 AI 데이터센터는 최대 150메가와트를 소비한다. 월스트리트저널(WSJ)과 배런스 등은 메타가 건설 중인 수기가와트급 설비들이 AI 인프라의 '기하급수적 확장'을 예고한다고 분석했다. 이러한 전략은 메타의 라마 4 모델이 시장에서 이렇다 할 성과를 거두지 못한 것으로 평가받은 2024년 중·하반기와 2025년 초 이후의 전환점이기도 하다. 한 AI 연구자는 해당 모델이 "사라졌다"고 혹평하기도 했다. 그러나 저커버그는 '더 인포메이션(The Information)'과의 인터뷰에서 "우리는 모두 이 일에 뛰어들었다"며, "AI 경쟁에서 승리하기 위해 필요한 모든 것을 할 것"이라고 단언했다. 한국인 AI 인재도 포함…메타, 초지능 연구소에 오픈AI 인력 대거 영입 저커버그 CEO는 최근 인간의 지능을 뛰어넘는 '초지능(Superintelligence)' 개발을 위한 전담 연구소 설립을 공식화하며, 글로벌 AI 패권 경쟁에 본격적으로 뛰어들었다. 저커버그는 지난 2025년 6월 30일 사내 메모를 통해 '메타 초지능 연구소(Meta Superintelligence Lab, MSL)' 출범을 발표하고, AI 분야 최고 인재들을 대거 영입했다고 밝혔다. 그는 "AI의 발전 속도가 가속화되며 초지능 개발이 현실로 다가오고 있다"며 "메타가 그 길을 선도하기 위해 모든 것을 쏟아붓겠다"고 강조했다. 저커버그의 AI 초지능 전략의 또 다른 축은 세계 최고의 인재를 확보하는 것이다. 최근 메타는 오픈AI와 구글 등 주요 AI 기업에서 연구진을 연이어 영입하고 있으며, 이 과정에서 오픈AI의 추론 모델 개발에 참여한 한국인 연구원 정형원 씨도 메타에 합류한 것으로 확인됐다. 앞서 저커버그 CEO는 스케일AI 창업자 알렉산더 왕을 메타 초지능 연구소(MSL) 최고 AI 책임자로 영입했으며, 냇 프리드먼 전 깃허브(GitHub) CEO도 공동 이사진으로 합류하는 등 오픈AI, 구글 딥마인드, 앤스로픽 출신 연구원 11명을 채용했다고 밝힌 바 있다. IT 전문매체 와이어드(Wired)는 16일 "메타의 '초지능 연구소(Superintelligence Labs)'에 오픈AI 소속 연구원 2명이 추가 합류했으며, 이 중 한 명은 정형원 씨"라고 보도했다. 정 씨는 오픈AI가 개발한 추론 모델 'o1'의 핵심 연구진으로, 지난해 9월 모델 공개 당시 공식 영상에서 이를 직접 설명하며 얼굴을 알렸다. 영상에서 그는 "문법이 파괴된 한국어 문장도 o1 모델은 정확히 해석해 영어로 번역한다"고 설명했다. 정 씨는 추론(inference)과 에이전트(agent) 기술이 주된 연구 분야로, 구글 재직 시절부터 함께한 동료 제이슨 웨이와 함께 메타에 합류한 것으로 전해졌다. 메타는 이번 영입에서도 기존에 팀으로 협업한 경험이 있는 인재들을 '패키지 채용'하는 전략을 구사한 것으로 보인다. 앞서 메타는 오픈AI의 스위스 연구소 소속 인력 3명을 팀 단위로 데려온 바 있다. 월스트리트저널에 따르면, 메타는 오픈AI 소속 루카스 바이어(Lucas Beyer), 알렉산더 콜레스니코프(Alexander Kolesnikov), 샤오화 자이(Xiaohua Zhai) 등도 초지능 연구소에 영입했다. 이 과정에서 최고 1억 달러(약 1390억 원)에 달하는 보상 패키지가 제시됐으며, 애플의 AI 모델 개발 책임자를 데려오는 데는 2억 달러가 투입된 것으로 알려졌다. AI 시장의 격변 속에서 메타는 '초지능'이라는 새로운 패러다임을 선점하기 위한 정면 돌파를 택했다. 자본과 인재를 무기로 내세운 저커버그의 승부수가 어떤 결과를 낳을지 전 세계 기술 업계의 이목이 집중되고 있다.
-
- IT/바이오
-
메타, 저커버그의 'AI 초지능' 도박⋯수천억 달러 투자·초일류 인재 영입
-
-
엔비디아, 美 수출 규제 완화에 AI칩 H20 중국 판매 재개⋯젠슨 황 "매우 기쁜 소식"
- 미국 반도체 기업 엔비디아가 대(對)중국 수출 규제로 중단됐던 인공지능(AI) 칩 'H20'의 중국 판매를 재개한다. 미국 정부가 해당 칩에 대한 수출 라이선스 부여를 승인하면서, 엔비디아는 이르면 조만간 중국 시장에 H20 공급을 시작할 전망이다. 15일(현지시간) 젠슨 황 엔비디아 최고경영자(CEO)는 중국 국영 방송 CCTV와의 인터뷰에서 "미국 정부가 우리의 수출을 승인해 H20을 출하할 수 있게 됐다"며 "이제 중국 시장에 H20을 판매하기 시작할 것"이라고 밝혔다. 그는 "매우, 매우 기쁜 소식"이라며 "빠른 시일 내에 제품이 배송되기를 기대한다"고 말했다. H20은 원래 미국 정부의 대중국 반도체 수출 통제에 대응해 엔비디아가 설계한 '저사양 AI 칩'이다. 이 칩은 고성능 GPU 제품군 대비 처리 능력을 낮춰 군사 전용 사용 우려를 피하면서도, 산업용 AI 활용 수요를 충족시키는 제품으로 개발됐다. 그러나 지난 4월 트럼프 행정부가 수출 요건을 추가로 강화하면서 H20조차 중국 수출에 제동이 걸렸고, 엔비디아는 이에 강하게 반발해 왔다. 엔비디아는 이날 자사 블로그를 통해 "미국 정부에 H20 판매 재개를 위한 신청서를 제출했으며, 이에 따라 제품 공급을 곧 시작할 수 있을 것으로 기대한다"고 공식 발표했다. 또한 황 CEO는 새로운 중국 전용 그래픽카드 'RTX 프로' 출시 계획도 함께 공개하며, "해당 제품은 컴퓨터 그래픽과 디지털 트윈, AI를 위한 전용 설계로 중국 내 기술 수요를 충족시킬 것"이라고 강조했다. 이번 발표는 황 CEO의 올해 세 번째 중국 방문과 맞물려 이뤄졌다. 그는 오는 16일 개막하는 제3회 중국국제공급망박람회 개막식에 참석해 엔비디아의 중국 전략과 공급망 협력 방안을 직접 설명할 예정이다. CCTV는 "황 CEO가 런훙빈 중국국제무역촉진위원회 회장과 회동했으며, 전날에는 샤오미의 레이쥔 CEO와도 만남을 가졌다"고 전했다. 한편, H20 칩이 포함된 이번 미국 정부의 수출 허가 조치는 미·중 기술 경쟁 속에서도 민간 기술 협력을 일정 부분 용인하려는 기조 변화로도 읽힌다. 최근 중국 내 AI 수요가 급증하는 가운데, 엔비디아는 대체 공급이 쉽지 않은 고성능 칩 시장에서 여전히 독보적인 입지를 유지하고 있다. 엔비디아의 대중 수출 재개가 향후 미국의 반도체 통제 정책에 어떤 변화를 촉발할지, 그리고 중국의 자립형 반도체 전략에 어떠한 영향을 미칠지 주목된다.
-
- IT/바이오
-
엔비디아, 美 수출 규제 완화에 AI칩 H20 중국 판매 재개⋯젠슨 황 "매우 기쁜 소식"
-
-
LG, 국내 첫 하이브리드 AI '엑사원 4.0' 공개⋯전문성·추론력 모두 세계 최고 수준
- LG AI연구원이 15일 국내 첫 하이브리드 인공지능(AI) 모델 '엑사원(EXAONE) 4.0'을 공개했다. 이 모델은 대형언어모델(LLM)과 추론 AI를 결합해 지식 응답과 문제 해결을 동시에 수행한다. 벤치마크 성능 평가에서 미국·중국·프랑스의 대표 오픈 모델을 제치고 세계 최고 수준의 성능을 입증했다. 특히 32B 전문가 모델은 6개 국가 자격증 필기시험을 통과했고, 온디바이스용 1.2B 모델은 GPT-4o 미니보다 높은 성능을 보였다. LG는 이번 모델을 글로벌 오픈소스 플랫폼 '허깅 페이스'에 공개하며 생태계 확장에 나섰다. [미니해설] LG, 국내 첫 하이브리드 AI '엑사원 4.0' 공개…전문성·실용성 모두 잡았다 LG AI연구원이 국내 AI 산업의 새로운 이정표를 세웠다. 15일 공개된 '엑사원(EXAONE) 4.0'은 국내 최초의 하이브리드 인공지능(AI) 모델로, 지식 기반의 대형언어모델(LLM)과 복잡한 문제 해결을 위한 추론 AI를 하나로 결합한 것이 특징이다. 하이브리드 AI란 단순한 텍스트 생성 능력뿐 아니라 논리적 사고와 판단을 동시에 수행할 수 있는 차세대 모델을 의미한다. 이번 엑사원 4.0은 이러한 하이브리드 구조를 바탕으로 다방면의 AI 활용도를 높이며 글로벌 AI 기술 흐름과 보조를 맞췄다. 이번에 공개된 모델은 매개변수 320억 개 규모의 전문가형 '32B 모델'과 모바일 및 온디바이스 적용을 위한 12억 개 매개변수의 '1.2B 모델'로 구성된다. 특히 32B 모델은 의사·치과의사·한약사·관세사·감정평가사·손해사정사 등 6종의 국가공인 자격증 필기시험을 실제로 통과하며, 학술·법률·보건·행정 등 고차원의 전문적 질문에도 정확한 해석과 답변을 제공하는 능력을 증명했다. 또한 온디바이스형 1.2B 모델은 이전 버전인 '엑사원 3.5'의 2.4B 모델 대비 크기는 절반 수준이지만, 수학·코딩·과학 등 고난도 기술 분야에서 미국 오픈AI의 'GPT-4o 미니'보다 높은 성능을 기록하며 압도적인 효율성을 보였다. LG AI연구원은 지난 3월 '엑사원 딥(Deep)'이라는 국내 첫 추론 특화 AI를 공개한 데 이어, 불과 4개월 만에 하이브리드 AI까지 선보이며 기술 진보의 속도와 수준 모두에서 의미 있는 진전을 보였다. 현재까지 하이브리드 AI를 공식적으로 공개한 기업은 미국의 앤스로픽(Anthropic), 중국의 알리바바 정도로, 오픈AI 역시 GPT-5를 하이브리드 구조로 개발 중이라고 밝힌 상태다. 이 가운데 LG가 선제적으로 완성형 하이브리드 모델을 공개한 것은 국내 기업 최초이자 세계적으로도 손에 꼽히는 성과로 평가된다. 특히 주목할 점은 LG가 엑사원 4.0의 오픈 웨이트(Open Weight) 모델을 글로벌 AI 플랫폼인 '허깅 페이스(Hugging Face)'에 공개했다는 사실이다. 오픈 웨이트는 AI 모델의 학습 매커니즘인 가중치를 공개해, 타 개발자나 기업들이 이를 기반으로 수정·활용할 수 있도록 허용하는 방식이다. 이는 AI 생태계 확산과 협업을 유도하는 핵심 요소다. LG는 허깅 페이스의 공식 배포 파트너인 '프렌들리AI'를 통해 API 서비스도 함께 제공하고 있다. 이로써 고성능 GPU를 갖추지 않은 사용자도 엑사원의 기능을 클라우드를 통해 쉽게 활용할 수 있게 됐다. 실제 API 접근을 통해 연구자, 학생, 개발자 누구나 엑사원의 질의응답, 요약, 번역, 코딩 보조 기능 등을 체험할 수 있다. LG AI연구원은 같은 날 서울 강서구 마곡 LG사이언스파크에서 '엑사원 파트너스 데이'를 열고, 국내 주요 파트너사 22곳과 함께 엑사원 생태계 확장 전략을 논의했다. 오는 22일에는 같은 장소에서 ‘LG AI 토크 콘서트 2025’를 열고, 엑사원 4.0을 포함한 연구 성과와 향후 기술 개발 계획을 대중과 공유할 예정이다. 구광모 ㈜LG 대표는 올해 초 신년사에서 "AI와 같은 첨단 기술을 통해 일상의 편의를 높이고, 삶의 질을 향상시키는 새로운 라이프스타일을 제시하겠다"고 밝힌 바 있다. 이번 엑사원 4.0의 공개는 그 선언의 실천적 결과물이라 할 수 있다. 이진식 LG AI연구원 엑사원랩장은 "엑사원이 한국을 대표하는 프론티어 모델로 자리매김할 수 있도록 지속적인 연구개발을 이어가고, 글로벌 시장에서도 기술 경쟁력을 입증해 나가겠다"고 밝혔다. LG는 이제 단순한 전자·화학 기업의 틀을 넘어, 인공지능 기술력을 바탕으로 글로벌 기술 경쟁에 본격적으로 뛰어들고 있다. 엑사원 4.0은 그 첨단 전환의 선봉장이 될 전망이다.
-
- IT/바이오
-
LG, 국내 첫 하이브리드 AI '엑사원 4.0' 공개⋯전문성·추론력 모두 세계 최고 수준
-
-
머스크 xAI, 100억 달러 자금 조달⋯오픈AI와 본격 경쟁 포석마련
- 일론 머스크 테슬라 최고경영자(CEO)가 이끄는 인공지능(AI) 스타트업 xAI가 100억달러(약 13조원)의 자금을 조달했다. 1일(현지시간) 뉴욕포스트 등 주요 외신에 따르면 투자은행 모건스탠리는 xAI가 조달자금 절반은 담보 채권과 조건부 대출을 통해 조달했고 나머지 50억달러는 전략적 지분 투자로 확보했다고 밝혔다. 모건스탠리는 이날 소셜미디어(SNS) 플랫폼 엑스(X·옛 트위터)에 올린 게시글에서 "xAI는 이렇게 조달한 자금을 세계 최대 규모의 데이터 센터를 세우고 인공지능(AI) 챗봇 그록(Grok)을 포함한 첨단 AI 기술 개발에 사용할 계획"이라고 전했다. xAI는 테네시주 멤피스에 211만㎡에 달하는 부지에 세계 최대 데이터 센터 '콜로서스(Colossus)'를 구축하고 있다. 머스크는 지난 5월 콜로서스에 이미 20만개의 그래픽처리장치(GPU)를 탑재했다고 지난 5월 밝혔다. 목표는 콜로서스를 GPU 100만대를 갖춘 시설로 확장하는 것이다. xAI는 지난해 블랙록, 피델리티 등 유수 투자자들로부터 약 60억달러의 투자를 유치했다. 기업가치는 500억달러로 평가받았다. 이번 지분 투자까지 포함하면 xAI의 총 자금 조달 규모는 약 170억달러(약 22조 원)에 달한다. 미국 빅테크들의 AI 시장 선점 경쟁은 갈수록 치열해지고 있다. 챗GPT 개발사 오픈AI는 올해 3월 소프트뱅크 주도로 400억달러의 자금을 추가 유치하면서 기업 가치를 3000억달러로 끌어올렸다. 또 다른 경쟁사인 앤스로픽도 최근 신규 투자를 유치한 뒤 기업 가치가 600억달러를 넘어섰다. CNBC는 "이번 자금 조달로 xAI는 오픈AI와 아마존이 투자한 앤트로픽 등 경쟁사와 본격적으로 경쟁하기 위한 포석을 마련했다"고 전했다.
-
- IT/바이오
-
머스크 xAI, 100억 달러 자금 조달⋯오픈AI와 본격 경쟁 포석마련
-
-
중국 딥시크, 미국 AI 칩 수출 제한에 발목 잡혀⋯차세대 AI 모델 R2 개발 지연
- 중국의 인공지능(AI) 유망주로 주목받았던 딥시크(DeepSeek)가 차세대 대규모 언어모델(LLM)인 'R2' 개발을 놓고 중대한 난관에 직면했다고 미국 과학 기술 전문매체 톰스하드웨어가 27일(현지시간) 보도했다. 핵심 원인은 미국의 대중국 GPU 수출 규제로, 특히 엔비디아(NVIDIA)의 H20 프로세서 공급 부족이 개발 차질의 핵심 원인으로 지목된다. 미 테크 전문 매체 디인포메이션(The Information)은 26일(현지시간) 복수의 관계자를 인용해, 딥시크가 R2 모델의 사전훈련을 진행하고 있으나 최고경영자(CEO) 량원펑(Liang Wenfeng)이 성능에 만족하지 못해 출시 승인을 미루고 있다고 전했다. 딥시크 측은 R2 모델의 공개 시점에 대해 공식 언급을 삼가고 있다. 딥시크는 올해 초 공개한 R1 모델을 통해 업계의 이목을 집중시켰다. R1은 5만 개에 달하는 GPU 클러스터에서 훈련됐으며, 이 중 약 3만 개가 엔비디아의 H20 칩이었다. 해당 GPU들은 투자사 하이플라이어 캐피털 매니지먼트(High-Flyer Capital Management)를 통해 확보된 것으로 알려졌다. 그러나 미국 정부가 지난 4월 중순, H20을 포함한 AI 훈련용 GPU의 중국 수출을 전면 제한하면서 사태는 반전됐다. H20은 미국에서 규제된 H100의 축소 버전임에도 불구하고, CUDA 소프트웨어 스택에 최적화된 엔비디아 하드웨어 의존도가 높은 중국 기업들 사이에서는 가장 보편적으로 사용돼왔다. 딥시크는 R1 모델을 스타트업과 대형 기업, 정부 산하 기관에까지 폭넓게 공급하며 빠르게 시장 점유율을 확보했으나, 대부분의 사용처가 H20 기반이었던 만큼 이번 수출 제한은 기존 모델 운용에도 직접적인 영향을 미치고 있다. 딥시크는 자사 모델이 미국 경쟁사보다 적은 자원으로 개발됐다고 주장해왔지만, 이번 상황은 중국 AI 업계의 근본적 취약점을 다시금 부각시켰다. 중국의 대표적 AI 기업들조차 미국산 GPU와 소프트웨어 생태계에 깊이 의존하고 있으며, 이는 기술 독립성 측면에서 중장기적인 리스크로 지적된다. 한편, 미국의 오픈AI(OpenAI)는 딥시크가 R1 개발 과정에서 자사의 비공개 모델을 무단 활용했을 가능성을 제기했으나, 딥시크는 이와 관련한 공식 입장을 내지 않고 있다. 딥시크의 R2 모델이 향후 공개되어 현존하는 오픈소스 대안들을 능가할 경우, 중국 내 클라우드 인프라 수용능력을 초과하는 수요가 몰릴 것이라는 전망도 나오고 있다. 그러나 현재 GPU 부족과 성능 미비, 그리고 정책 불확실성이 겹치면서 딥시크의 R2 출시 시점은 여전히 안갯속이다.
-
- IT/바이오
-
중국 딥시크, 미국 AI 칩 수출 제한에 발목 잡혀⋯차세대 AI 모델 R2 개발 지연
-
-
[월가 레이더] 뉴욕증시, 엔비디아 관망 속 S&P 0.56% 하락⋯연준, 내달 SRF 확대
- 28일(현지시간) 뉴욕증시가 엔비디아 실적 발표와 연방준비제도(연준·Fed)의 5월 의사록 공개를 앞두고 관망세를 보이며 하락 마감했다. 이날 스탠더드 앤드 푸어스(S&P500) 지수는 0.56%, 나스닥 지수는 0.51% 내렸으며, 다우존스30 산업평균지수 역시 244포인트(0.58%) 하락했다. 이런 가운데 뉴욕 연방준비은행(연은)은 다음 달 26일부터 오전 시간대 상설 레포 운영(SRF)을 추가한다고 밝혀 시장 유동성 공급 확대 의지를 보였다. 이는 통화정책의 효과적인 운용과 시장 기능의 원활화를 지원하기 위한 조치로 풀이된다. 옥타는 양호한 실적에도 가이던스 유지로 16% 넘게 급락했고, 애버크롬비 앤 피치와 딕스 스포팅 굿즈는 호실적에 힘입어 각각 14%, 2% 가까이 상승했다. 엔비디아 주가는 실적 발표를 앞두고 소폭 하락했다. 한편, 연준 의사록에서는 경제 불확실성 속 신중한 통화정책 접근이 적절하다는 의견이 제시됐다. 30년물 국채금리가 장중 5%를 넘어서는 등 채권 수익률 상승세도 시장에 부담을 줬다. [미니해설] 엔비디아에 쏠린 눈, 연준의 'SRF 확대'…안갯속 증시 돌파구 될까? 뉴욕증시가 또다시 숨 고르기에 들어갔다. 시장의 눈과 귀는 온통 현지시간 28일 장 마감 후 발표될 엔비디아의 실적과 연방준비제도(연준)의 5월 연방공개시장위원회(FOMC) 의사록에 쏠린 채, 주요 지수는 일제히 하락 곡선을 그렸다. 다우존스30 산업평균지수는 244.95포인트(0.58%), S&P500 지수는 0.56%, 나스닥 종합지수는 0.51% 각각 내렸다. 이러한 시장의 긴장감 속에서 뉴욕 연방준비은행(연은)이 내놓은 '오전 상설 레포 운영(SRF) 추가' 카드가 어떤 변수로 작용할지 주목된다. 엔비디아에 쏠린 눈…투자의 바로미터? 시장은 엔비디아의 실적 발표를 단순한 한 기업의 성적표 이상으로 받아들이는 분위기다. 특히 인공지능(AI) 칩 시장의 절대 강자인 엔비디아의 그래픽 프로세서(GPU) 수요와 중국 시장 규제 영향은 향후 기술주 전체, 나아가 기업 투자 전반의 향방을 가늠할 중요한 지표로 여겨진다. 톰 헤인린 U.S. 뱅크 수석 투자 전략가는 이를 두고 "경제를 불황에서 벗어나게 하고 기업 이익을 긍정적으로 유지하는 큰 동력은 소비 지출과 기업 투자"라며 "엔비디아는 기업들이 투자를 가속화했는지 여부를 보여주는 핵심 지표"라고 분석했다. 엔비디아 실적 발표를 앞두고 주가가 소폭 하락 마감한 것도 이러한 관망 심리를 반영한다. 개별 기업들의 희비도 엇갈렸다. 신원 관리 소프트웨어 기업 옥타는 예상보다 나은 분기 실적에도 불구하고 거시 경제 불확실성을 이유로 기존 가이던스를 유지하자 주가가 16% 이상 폭락했다. 반면, 애버크롬비 앤 피치와 딕스 스포팅 굿즈는 양호한 실적에 힘입어 각각 14% 이상, 약 2% 상승하며 대조를 이뤘다. 연준의 신중함, 금리 인상 우려 여전 연준이 공개한 5월 FOMC 의사록에서는 경제 불확실성 속에서 신중한 통화정책 접근이 적절하다는 인식이 재확인됐다. 특히 참석자들은 인플레이션이 다시 상승할 경우 "어려운 절충안(difficult tradeoffs)"에 직면할 수 있다고 우려했다. 이는 연준이 여전히 인플레이션에 대한 경계감을 늦추지 않고 있으며, 추가 금리 인상 가능성도 완전히 배제하지 않고 있음을 시사한다. 실제로 이날 30년 만기 국채 수익률이 장중 한때 5% 수준에 도달하는 등 채권 수익률 상승세는 이러한 우려를 더욱 키우는 요인으로 작용했다. UBS는 최근 보고서에서 "미국 대통령이 무역 협상에서 강경한 발언을 사용하는 경향을 고려할 때, 미국과 주요 교역 상대국, 특히 중국 및 EU 간의 협상이 계속됨에 따라 추가적인 변동성 국면이 나타날 가능성이 높다"며 "올해 추가 상승은 상대적으로 제한될 것으로 생각한다"고 전망한 바 있다. 다만, 무역 긴장이 완화된다면 2026년에는 S&P500 지수가 6,400선까지 상승할 수 있다는 희망 섞인 시나리오도 제시했다. 지난 화요일 증시가 트럼프 대통령의 대 EU 관세 연기 소식에 다우지수가 700포인트 넘게 급등했던 점을 상기하면, 시장은 여전히 무역 관련 뉴스에 민감하게 반응하고 있음을 알 수 있다. 뉴욕 연은의 SRF 확대, 유동성 공급 '안전판' 강화 이러한 불안정한 시장 상황 속에서 뉴욕 연은은 오는 6월 26일부터 오전 시간대에도 SRF를 운영한다고 발표했다. SRF는 금융기관들이 보유한 국채 등을 담보로 연준으로부터 단기 자금을 빌릴 수 있는 창구다. 뉴욕 연은은 이번 조치가 "통화 정책의 효과적인 시행과 원활한 시장 기능을 지원하는 SRF의 능력을 더욱 강화하기 위한 것"이라고 설명했다. 로베르토 페를리 뉴욕 연은 통화정책 실행 담당관은 지난주 "이는 해당 창구의 효율성을 높이는 중요한 단계가 될 것"이라며 "더 효과적인 SRF는 연준이 그렇지 않았을 경우보다 더 많은 규모로 채권 보유량을 줄일 수 있게 할 수도 있다"고 언급, 이번 조치가 연준의 대차대조표 축소(양적긴축) 과정에서 발생할 수 있는 시장 충격을 완화하는 데 기여할 수 있음을 시사했다. 그는 금융기관들을 향해 "거래 상대방들이 경제적으로 타당할 때 SRF를 사용하기를 권장한다"고 독려하기도 했다. 일일 총 SRF 운영 한도는 5000억 달러로 설정됐다. '낙인 효과' 넘어야 실효성…시장의 평가는? 그러나 SRF 확대가 즉각적인 시장 안정 효과를 가져올지에 대해서는 의견이 분분하다. 가장 큰 걸림돌은 이른바 '낙인 효과(stigma)'다. 금융기관들이 SRF를 이용하는 것 자체가 시장에 '자금 사정이 좋지 않다'는 부정적인 신호로 비칠 수 있다는 우려 때문에 실제 이용이 저조할 수 있다는 것이다. 실제로 SRF는 2021년 출범 이후 스트레스 상황에서도 사용량이 미미했다. 겐나디 골드버그 TD 증권 미국 금리 전략 책임자는 "현재 정규 오후 SRF 사용량은 0이며, 단순히 운영이 추가된다고 해서 SRF 사용량이 증가할 것으로 예상하지 않는다"고 지적했다. 다만 그는 "스트레스 시기에는 하루 두 차례 운영하는 것이 시장을 뒷받침하는 데 도움이 될 것"이라면서도 "해당 창구를 사용하는 데 여전히 어느 정도 낙인 효과가 있을 것이며, 이는 연준이 최근 몇 년간 맞서 싸워온 문제이지만, 추가 운영은 결국 도움이 될 것으로 보인다"고 덧붙였다. 연준 역시 이 문제를 인지하고 있다. 5월 FOMC 의사록에서도 "시장 의견 수렴 결과, 조기 결제가 제공될 때 딜러들이 해당 창구를 사용할 의향이 더 높은 것으로 나타났다"는 내용과 함께 일부 관리들은 SRF에 대한 '중앙 청산(central clearing)'으로의 전환이 위기 시 사용을 증진할 수 있다고 봤다. 이번 오전 운영 추가도 이러한 이용 편의성 증대 노력의 일환으로 해석된다. 한편, 뱅크 오브 아메리카의 질 캐리 홀 주식 및 퀀트 전략가에 따르면 지난주 S&P500 지수가 2.6% 하락하는 동안 "고객들은 5주 만에 처음으로 미국 주식을 순매도(-3억 달러)했다"며, 특히 기술주와 헬스케어 주식을 팔고 에너지 주식을 사들인 것으로 나타났다. 이는 시장의 위험 회피 심리가 일부 반영된 것으로 풀이된다. 뉴욕증시는 엔비디아로 대표되는 성장주에 대한 기대감, 연준의 긴축 장기화 우려, 그리고 무역 분쟁 등 지정학적 리스크라는 복잡한 변수들 사이에서 방향을 탐색하고 있다. 뉴욕 연은의 SRF 운영 확대는 시장에 유동성 안전망을 제공하려는 노력의 일환이지만, 그 실효성은 '낙인 효과'라는 심리적 장벽을 얼마나 효과적으로 낮출 수 있느냐에 달려있다고 할 수 있다.
-
- 금융/증권
-
[월가 레이더] 뉴욕증시, 엔비디아 관망 속 S&P 0.56% 하락⋯연준, 내달 SRF 확대
-
-
엔비디아, 중국 맞춤 저가형 AI칩 '블랙웰' 출시 예정
- 인공지능(AI) 칩 선두 주자 엔비디아가 미국의 수출 규제를 피해 중국용 AI 칩 블랙웰을 개발하고 있다. 로이터 통신은 24일(현지시간) 소식통들을 인용해 최근 수출규제를 받은 H20 모델보다 훨씬 낮은 가격의 AI 칩세트를 중국용으로 개발해 판매할 예정이라고 보도했다. 블랙웰은 엔비디아의 최신 AI 칩이다. 소식통은 엔비디아가 최근 수출이 제한된 AI 칩 H20 모델보다 훨씬 낮은 가격의 새로운 AI 칩세트를 중국 시장에 출시할 예정이며 이르면 오는 6월부터 대량 생산을 시작할 계획이라고 전했다. H20은 그동안 엔비디아가 중국에서 합법적으로 판매할 수 있는 유일한 AI 칩이었으나 도널드 트럼프 미 행정부는 최근 H20의 수출을 제한했다. 이 칩은 엔비디아의 최신 칩인 블랙웰 아키텍처 기반 AI 프로세서 제품군에 속하며 개당 6500∼8000 달러선에 이를 것으로 예상된다고 소식통은 설명했다. 이는 1만1200달러인 H20 모델보다 크게 낮은 수준이다. 가격이 낮은 것은 칩 사양이 떨어지고 제조 요구사항이 단순하기 때문이라고 소식통은 설명했다. 이 칩은 서버급 그래픽처리장치(GPU)인 RTX 프로 6000D를 기반으로 하며 더 발전된 고대역폭 메모리 대신 일반적인 GDDR7 메모리를 사용할 예정이다. 중국 시장은 지난 회계연도 기준 엔비디아 매출의 13%를 차지하고 있다. 미국 정부가 국가 안보를 이유로 중국에 대한 AI 칩 수출을 제한한 이후 이번 칩은 엔비디아가 중국을 위해 맞춤 설계한 세 번째 칩이다. 미국이 지난달 H20 칩 수출을 사실상 금지한 이후 엔비디아는 중국용으로 H20의 하향 조정 버전을 개발하려 했으나 그 계획은 성사되지 않았다고 로이터는 전했다. 젠슨 황 엔비디아 최고경영자(CEO)는 지난주 한 인터뷰에서 H20에 사용된 구형 호퍼(Hopper) 아키텍처는 현재의 미국 수출 제한 하에서는 더 이상 수정이 불가능하다고 밝혔다.
-
- IT/바이오
-
엔비디아, 중국 맞춤 저가형 AI칩 '블랙웰' 출시 예정
-
-
엔비디아 젠슨 황, 대만에 AI 슈퍼컴퓨터 구축 선언⋯"AI 주권, 동아시아로"
- 젠슨 황 엔비디아 최고경영자(CEO)가 19일 대만 타이베이에서 자사의 첫 대만 슈퍼컴퓨터 구축 계획을 공식 발표하며, 대만을 인공지능(AI) 산업의 핵심 기지로 삼겠다는 비전을 제시했다. 이는 미국 중심의 AI 팩토리 모델을 아시아로 확장하는 동시에, 대만에 ‘AI 주권’을 심겠다는 전략적 포석으로 풀이된다. 황 CEO는 이날 오전 타이베이 뮤직센터에서 열린 기조연설에서 "폭스콘, TSMC, 대만 정부와 협력해 대만 최초의 대형 AI 슈퍼컴퓨터를 건설할 것"이라며 "이는 대만의 AI 인프라와 생태계 강화를 위한 핵심 프로젝트"라고 강조했다. 그는 "그동안 대만은 전 세계를 위한 슈퍼컴퓨터를 만들어왔다면, 이제는 대만 자체를 위한 AI를 개발할 시점"이라며, 생산기지에서 기술 주도국으로의 전환을 천명했다. AI·반도체 공급자에서 본격적인 AI 사용자이자 기술 자립국으로 나아가겠다는 선언으로 해석된다. 국가적 AI 역량 구축…TSMC·폭스콘 등 전방위 협업 이번 AI 슈퍼컴퓨터 프로젝트에는 대만 국가과학기술위원회(NSTC), 반도체 위탁생산기업 TSMC, 전자조립 전문기업 폭스콘 등 대만의 주요 공공·민간 기관이 총망라된다. 엔비디아는 자사의 최신 GPU '그레이스 블랙웰'과 고속 인터커넥트 기술 'NV링크' 및 'MV링크' 등 핵심 아키텍처와 소프트웨어를 공급한다. TSMC는 해당 슈퍼컴퓨터에 탑재될 칩을 생산하며, 폭스콘은 서버 하드웨어 조립을 담당한다. NSTC는 이 슈퍼컴퓨터 자원을 대학·연구기관·스타트업 등 민간 부문에 개방해, 국가 차원의 연구 및 산업적 활용을 지원할 계획이다. 칩 설계부터 패키징, 서버 통합까지 전 과정을 대만 내에서 현지화한다는 점에서 사실상 ‘AI 산업 국산화 모델’로 평가된다. 황 CEO는 "TSMC는 이미 대규모 AI 및 과학 연구를 수행 중이며, 폭스콘은 로보틱스 분야에서 선도적 연구를 진행하고 있다"며 "세계적 수준의 AI 인프라를 대만 내에 구축하는 것은 교육·과학·기술 발전에 결정적인 전환점이 될 것"이라고 말했다. "AI 생태계 중심으로서의 대만"…페가트론·에이수스 등도 참여 황 CEO는 이날 연설에서 NV링크 기술의 최신 아키텍처와 함께 '블랙웰' 기반 슈퍼컴퓨터 시스템을 함께 공개했다. NV링크는 중앙처리장치(CPU) 없이도 GPU 간 직접 고속 통신을 가능하게 해, 고성능 컴퓨팅에 최적화된 차세대 인터커넥트 기술로 주목받고 있다. 그는 "이번 시스템은 페가트론, QCT, 폭스콘, 기가바이트, 에이수스 등 대만 주요 기업들과의 협업으로 구현된 것"이라며 "이들이 함께 구축한 블랙웰 기반 시스템은 대만 AI 생태계의 실질적 토대를 형성할 것"이라고 밝혔다. 이번 프로젝트는 단순한 컴퓨팅 인프라 구축을 넘어, 대만이 기술 종속에서 벗어나 독자적 AI 생태계를 주도할 수 있는 역량을 갖추는 계기가 될 것으로 평가된다. 슈퍼컴퓨터는 고성능 연산뿐 아니라 과학기술 발전, 산업 고도화, 국가 안보 강화까지 영향을 미치는 전략적 자산으로, 향후 미국·중국 등과의 AI 경쟁 구도 속 대만의 존재감을 한층 끌어올릴 전망이다. 엔비디아는 이번 발표를 통해 AI 하드웨어 중심의 글로벌 공급망을 재편하며, 동시에 전략적 파트너십을 통한 지역별 AI 주권 확립이라는 새로운 프레임을 제시한 것으로 보인다.
-
- IT/바이오
-
엔비디아 젠슨 황, 대만에 AI 슈퍼컴퓨터 구축 선언⋯"AI 주권, 동아시아로"
-
-
정부, 엔비디아 GPU 1만장 도입 추진⋯"AI 생태계 종속 우려" 목소리도
- 과학기술정보통신부가 연내 엔비디아의 최신형 그래픽처리장치(GPU) 1만장을 확보하는 계획을 공식화하면서, 국내 인공지능(AI) 산업 생태계가 특정 글로벌 기업에 종속될 수 있다는 우려가 제기되고 있다. 과기정통부는 16일 서울 중구 LW컨벤션센터에서 열린 클라우드 업계 대상 사업 설명회에서, 연내 확보 예정인 GPU 1만장을 엔비디아 H200(6400장)과 B200(3600장)으로 구성하는 방안을 우선 검토 중이라고 밝혔다. B200은 엔비디아의 차세대 AI GPU '블랙웰' 아키텍처 기반 제품으로, 국내에는 아직 도입 사례가 거의 없다. 과기정통부는 이들 GPU 도입과 관련해 유상범 장관이 미국을 방문 중 엔비디아 측과 직접 공급 협의를 진행하고 있다고 설명했다. 다만 구체적인 모델과 수량은 확정된 바 없으며, 클라우드 기업들의 수요와 기술 변화 속도 등을 고려해 탄력적으로 조정하겠다고 덧붙였다. 그러나 이날 설명회에서는 정부의 계획이 사실상 엔비디아 생태계에 종속되는 방향으로 설계된 것이 아니냐는 지적이 업계에서 제기됐다. 특히 국내 AI 기업이 자율적으로 선택할 수 있는 시스템 설계 유연성을 제한하고, 특정 기업의 폐쇄형 소프트웨어 생태계인 '쿠다(CUDA)'에 의존하게 될 수 있다는 점에서 우려가 크다. 실제로 한 참석자는 "엔비디아의 소프트웨어 모델이 국내 AI 기술과 충분히 호환되지 않을 경우, 정부의 대규모 GPU 도입이 오히려 국내 기업의 기술 자율성을 위축시킬 수 있다"고 지적했다. 엔비디아는 GPU 하드웨어뿐만 아니라 전용 프레임워크와 툴체인을 함께 공급하며, 대부분이 자사 중심 생태계(쿠다 생태계) 안에서만 활용 가능한 구조다. 과기정통부는 이 같은 우려에 대해 "유 장관이 엔비디아와의 협상에서 소프트웨어 생태계와 관련된 논의도 병행하고 있다"며, 특정 제품에 대한 의존도를 낮추기 위한 기술적·정책적 방안도 모색 중이라고 밝혔다. 또한 "AI 인프라의 시급한 확보가 절실한 상황이며, 국내 클라우드 기업들의 클러스터링 역량과 기술 기반도 평가에 반영하겠다"며 "완제품 중심이 아닌 기술 자립과 유연성 확보를 병행하는 방향"이라고 덧붙였다. 정부는 다음 주 중으로 GPU 인프라를 실질적으로 구축·운영할 민간 클라우드 기업을 공모할 예정이며, 해당 사업을 통해 국내 AI 산업의 기반을 단기적으로 확대하겠다는 계획이다. 하지만 AI 컴퓨팅 자원의 확보가 단순한 하드웨어 수입에 그칠 경우, 장기적으로는 국내 기술 생태계의 구조적 종속을 초래할 수 있다는 지적은 여전히 유효하다. 이에 따라 정부의 정책 방향이 단기적 성과를 넘어, 독자적 기술 역량과 개방형 생태계 조성을 위한 전략으로 이어질 수 있을지 주목된다.
-
- IT/바이오
-
정부, 엔비디아 GPU 1만장 도입 추진⋯"AI 생태계 종속 우려" 목소리도
-
-
SK하이닉스, 삼성·현대차 제치고 '최우수 기업' 선정
- 고대역폭메모리(HBM) 특수로 사상 최대 실적을 낸 SK하이닉스가 국내 500대 기업 경영평가에서 삼성전자와 현대차를 제치고 2024년 최우수 기업에 선정됐다. 기업데이터연구소 CEO스코어가 14일 발표한 경영평가에 따르면, SK하이닉스는 종합점수 622.9점을 기록해 800점 만점 중 최고점을 받았다. 삼성전자는 596.0점으로 2위, 삼성바이오로직스가 590.0점으로 3위를 차지했다. 지난해 1위였던 현대차는 559.5점으로 5위로 밀렸다. 이번 평가는 고속성장, 투자, 글로벌 경쟁력 등 8개 부문에서 이뤄졌으며, SK하이닉스는 고속성장과 투자, 건실경영 등에서 높은 점수를 받았다. [미니해설] 'HBM의 힘'…SK하이닉스, 2024년 최우수 기업 선정 고대역폭메모리(HBM) 호조에 힘입어 SK하이닉스가 국내 500대 기업 경영평가에서 2024년 최고의 기업으로 선정됐다. 글로벌 경쟁력을 상징하던 삼성전자와 현대차를 각각 2위와 5위로 밀어내며 6년 만에 1위 자리를 탈환했다. 기업데이터연구소 CEO스코어는 14일, 매출 상위 500대 기업 중 사업보고서를 제출한 비금융기업 268곳을 대상으로 한 ‘2024년 500대 기업 경영 평가’ 결과를 발표했다. 이 조사에서 SK하이닉스는 800점 만점에 622.9점을 받아 종합 1위에 올랐다. 이는 2019년 이후 6년 만의 성과로, SK하이닉스는 특히 △ 고속성장 △ 투자 △ 건실경영 부문에서 두드러진 평가를 받았다. 지난해 SK하이닉스는 AI 반도체 시장 확대에 따른 HBM 수요 급증으로 실적이 급등하며 사상 최대 매출을 기록했다. HBM(High Bandwidth Memory)은 고대역폭 메모리라는 뜻으로, 기존 D램(DRAM) 대비 훨씬 빠르고 전력 효율이 높은 차세대 메모리 기술이다. 주로 고성능 컴퓨팅(HPC), 인공지능(AI), 그래픽 처리장치(GPU) 등 막대한 데이터를 실시간으로 처리해야 하는 분야에서 사용된다. '대역폭'이란 데이터를 주고받는 통로의 넓이다. HBM은 여러 개의 D램 칩을 수직으로 쌓고, 실리콘 관통 전극(TSV, Through-Silicon Via) 기술로 연결해 데이터 통로를 넓힌 구조다. 따라서 GDDR6 등 기존 메모리보다 훨씬 많은 데이터를 동시에 전송할 수 있다. SK하이닉스는 전사적 차원에서 HBM 투자를 확대했고, 이는 평가 지표에서 고루 높은 점수로 이어졌다. SK하이닉스의 지난해 총투자액은 21조6170억 원에 달했다. 반면, 삼성전자는 종합점수 596.0점으로 지난해에 이어 2년 연속 2위에 그쳤다. 삼성전자는 2023년 설비투자 53조7416억 원, 연구개발(R&D) 35조215억 원을 포함해 총 88조7631억 원을 투입했다. 이는 전체 조사대상 중 최대 규모로, SK하이닉스보다 4.1배 많은 수준이다. 투자 부문에서 1위를 차지했지만, 상대적으로 고속성장성과 수익성 부문에서 점수를 잃었다. 삼성바이오로직스는 지난해보다 두 단계 상승한 3위(590.0점)에 올랐다. 이 회사는 글로벌 제약사와의 경쟁에서도 높은 영업이익률을 기록하며 글로벌 경쟁력 부문에서 호평을 받았다. 실제로 삼성바이오로직스는 중국 최대 제약사 시노팜 대비 매출은 4.1% 수준에 그쳤지만, 영업이익률은 26.2%포인트나 높았다. 기아는 572.7점으로 2년 연속 4위를 유지했다. 글로벌 자동차 시장에서 기아는 폭스바겐에 비해 매출 규모는 22.4%에 불과했지만, 영업이익률은 오히려 5.9%포인트 높아 수익성 측면에서 경쟁 우위를 보여줬다. 반면, 지난해 종합 1위였던 현대차는 559.5점으로 5위로 밀렸다. 2023년 실적이 전년 대비 고성장세를 보였던 것과 달리, 지난해에는 성장세가 둔화되면서 종합 순위가 하락했다. 부문별 우수 기업도 눈길을 끈다. 고속성장 부문에서는 매출 10조 원 이상 기업 중 SK하이닉스, HMM, 한화오션, 고려아연, 한화에어로스페이스가 선정됐고, 10조 원 미만 기업에서는 한화에너지, 삼양식품, 씨에스윈드, 크래프톤, 셀트리온이 이름을 올렸다. 투자 부문에서는 삼성전자, 삼성바이오로직스, LG화학, 현대차, SK하이닉스가 선정됐다. 특히 삼성전자의 투자금액은 단일 기업 기준으로 압도적이었다. 글로벌 경쟁력 부문에서는 삼성바이오로직스 외에도 기아, 현대차, 셀트리온, HMM 등이 포함됐다. 이 부문은 글로벌 1위 기업 대비 매출·수익 구조의 상대 경쟁력을 중심으로 평가된다. 지배구조 투명성 부문에서는 HD현대건설기계, 케이티앤지, 카카오, 삼성물산, 삼성전자, 유한양행이 우수기업으로 선정됐다. 건실경영 부문은 크래프톤, 오리온, 기아, 한국타이어앤테크놀로지, HMM이 이름을 올렸다. 또한 일자리 창출 부문에서는 현대케피코, 에쓰오일, 코스맥스, 한일시멘트, SJG세종이, 양성평등 부문에서는 한세실업, 영원무역, 삼양식품, 현대케피코, 삼성바이오로직스가 높은 점수를 받았다. 사회공헌 및 환경보호 부문에서는 HD현대건설기계, SK케미칼, 한일시멘트, HD현대케미칼, LS전선이 우수기업으로 평가됐다. 이번 평가 결과는 단순한 재무성과를 넘어서 각 기업의 지속 가능성과 사회적 책임, 글로벌 경쟁력까지 아우른 종합적인 지표로 활용될 수 있다. 특히 SK하이닉스의 1위 등극은 반도체 산업 재편 속에서 한국 기업의 기술적 경쟁력이 다시 한번 부각된 사례로 해석된다.
-
- 경제
-
SK하이닉스, 삼성·현대차 제치고 '최우수 기업' 선정
-
-
[글로벌 핫이슈] 中 빅테크, 美 규제 앞두고 엔비디아 AI칩 '싹쓸이' 비축
- 중국의 주요 인터넷 기업들이 미국 정부가 지난 4월 해당 부품의 선적을 중단하기 전 올해 수십억 달러 상당의 엔비디아 인공지능(AI) 칩 H20을 비축한 것으로 나타났다고 닛케이 아시아가 지난 23일(현지시간) 보도했다. H20 그래픽처리장치(GPU)는 미국의 수출 통제 규정을 준수하기 위해 중국 시장용으로 특별히 설계됐다. 그러나 바이트댄스, 알리바바, 텐센트는 이미 지난해부터 미국이 이들 칩의 선적마저 제한할 가능성에 대비하기 시작했다고 소식통들은 전했다. 수십억 달러 규모 긴급 주문…1년치 물량 목표 이 사안에 정통한 한 관계자는 닛케이 아시아에 세 회사가 엔비디아에 총 약 100만 개의 H20, 즉 대략 1년치 공급 물량을 가능한 한 빨리, 이상적으로는 5월 말까지 선적해 줄 것을 요청했다고 밝혔다. 그러나 도널드 트럼프 행정부가 4월 초 이들 칩의 수출에 허가가 필요하다고 발표하면서 실제 인도된 수량은 당초 목표에 미치지 못했다고 이 소식통은 덧붙였다. 또 다른 소식통에 따르면 이 긴급 주문의 총 가치는 120억 달러(약 17조 1300억 원)를 넘어섰으며, 새로운 규제가 발효되기 전에 이미 수십억 달러어치가 선적된 것으로 파악됐다. 두 소식통은 세 회사 중 바이트댄스가 가능한 한 많은 엔비디아 칩을 확보하기 위해 가장 공격적으로 움직였다고 전했다. 이러한 비축 노력은 올해 초 중국 AI 스타트업 딥시크(DeepSeek)의 부상 이후 중국 내 AI 컴퓨팅 파워 수요가 급증한 가운데 이뤄졌다. 특히 텐센트는 지난 2월 자사의 슈퍼 앱 위챗(WeChat)에 딥시크를 통합하면서 컴퓨팅 파워 수요를 크게 늘렸다. 예견된 규제에 대한 대비…해외 우회로도 모색 중국의 한 주요 기술 기업 임원은 "H20 규제는 업계 전반에 걸쳐 이미 예견된 일이었기 때문에 놀랍지 않았다"며 "모든 주요 중국 기술 기업들은 사전에 H20을 비축하고 있었다. 어쨌든 당시에는 금지된 것이 아니었고, 성능이 우수했으니 비축하지 않을 이유가 없었다"고 말했다. 소식통들은 중국 기업들이 긴급 주문 외에도 미국의 수출 통제를 받지 않는 중국 외 지역에서 엔비디아 칩을 구매하는 방안을 모색해 왔다고 밝혔다. 복수의 업계 관계자들은 AI 하드웨어 접근성을 확보하기 위한 다른 노력으로 해외 자회사나 계열사 설립 검토, 통신 사업자 등 업계 파트너와의 협력 등이 포함된다고 닛케이 아시아에 전했다. 최근 규제 이후 이들 기업과 만난 바이트댄스 및 알리바바 클라우드의 한 공급업체 임원은 "(중국) 고객들은 매우 침착하다"며 "그들은 이런 상황이 올 것을 알고 있었고 이에 대비해 왔다. 올해 더 많은 데이터 센터를 구축하려는 자신들의 공격적인 목표는 변함없다고 우리에게 말했다"고 전했다. 알리바바는 중국 본토와 홍콩 외에 미국 내 두 곳을 포함해 13개국에서 데이터 센터를 운영하고 있다. 바이트댄스는 아일랜드와 노르웨이를 포함한 동남아시아와 유럽 여러 국가에 데이터 센터를 두고 있다. 한편, 이 문제에 정통한 복수의 관계자들에 따르면 중국 데이터 센터 대기업들은 화웨이의 어센드(Ascend)와 같은 자체 개발 GPU 플랫폼 검증 절차를 서두르고 있다. 화웨이는 4월 초 자체 개발 AI 칩 384개를 연결해 엔비디아 고급 GB200 NVL72 성능에 비견되는 최신 AI 컴퓨팅 솔루션 클라우드매트릭스 384(CloudMatrix 384)를 공개했다. 성능 제한적이나 중국 내 수요 여전…AI 개발 경쟁력 우려 H20은 2022년 3분기 글로벌 시장에 처음 출시된 엔비디아 H100 칩의 두 단계 하향 버전이다. 엔비디아는 같은 해 미국의 수출 통제에 대응해 중국 시장용으로 성능을 낮춘 H800을 선보였다. 이후 미국이 AI 하드웨어의 대중국 수출을 더욱 강화하면서 엔비디아는 이를 다시 H20으로 하향 조정했다. 2024년 상반기 출시된 H20은 AI 학습 성능이 오리지널 H100의 약 10분의 1, 추론 능력은 20% 수준에 불과하다. 하지만 중국에서는 여전히 높은 인기를 누리고 있다. 추론은 학습된 모델을 기반으로 AI 애플리케이션이 예측하거나 응답을 생성하는 과정을 의미한다. 홍콩의 AI 엔지니어인 유진 리는 H20이 겉보기에는 학습용 GPU 같지만, 엔비디아 H100과 H800 칩의 고성능 학습 능력과 달리 실제로는 추론에 최적화된 구성을 갖추고 있다고 설명했다. 따라서 H20 공급이 부족해지면 중소 규모 모델의 경우 국내 대안이나 클라우드 기반 솔루션으로 부분적으로 대체가 가능하다고 봤다. 그러나 이러한 상황에서는 대규모 모델의 배포 및 지속적인 최적화가 상당히 제약될 수 있다고 지적했다. AI모델, 이전에 조달된 H100·H800 칩 의존도 높아 리 엔지니어는 많은 대규모 AI 모델이 학습을 위해 이전에 조달된 H100과 H800에 의존하고 있으며, 주요 클라우드 제공업체들도 이를 이용해 추론 서비스를 제공하고 있다고 덧붙였다. 그는 "기존 H100 및 H800 재고가 고갈되면 고급 모델 학습과 차세대 시스템 개발이 심각하게 저해돼 중국의 하이엔드 AI 개발 경쟁력에 상당한 위협이 될 수 있다"고 분석했다. 엔비디아는 H20에 대한 규제가 중국 고객들이 국내 또는 다른 곳에서 대안을 찾게 되면서 자사 경쟁업체에게 유리하게 작용할 것이라고 경고한 바 있다. 지난 4월 15일 회사는 이번 규제로 인해 분기 실적에 55억 달러(약 7조 8512억 원)의 손실이 발생할 것으로 예상된다고 밝혔다. 이 발표 이후 젠슨 황 엔비디아 최고경영자(CEO)는 예상치 못한 베이징 방문에서 관계자들에게 중국 시장에 계속 서비스하기 위해 "모든 노력을 다하겠다"고 약속했다. 엔비디아의 보고서에 따르면 지난 1월 26일 종료된 회계연도에 중국은 엔비디아 전체 매출의 약 13.1%를 차지하며 전년의 거의 17%에서 비중이 줄었다. 반면 싱가포르의 비중은 전년 11.2%에서 18%로 늘었다. 다만 이 수치는 고객 청구 위치를 기준으로 하며, 엔비디아는 많은 고객이 제품은 다른 곳으로 배송되더라도 청구서 발행을 중앙 집중화하기 위해 싱가포르를 이용한다고 설명했다. 실제 선적 기준으로는 싱가포르가 해당 기간 총매출의 2% 미만을 차지했다. 엔비디아는 이번 사안에 대해 언급을 거부했다. 바이트댄스, 알리바바, 텐센트 역시 논평 요청에 응답하지 않았다.
-
- IT/바이오
-
[글로벌 핫이슈] 中 빅테크, 美 규제 앞두고 엔비디아 AI칩 '싹쓸이' 비축
-
-
화웨이, 수입 중단된 엔비디아 칩 대신 중국 기업에 첨단 AI 칩 공급
- 중국 화웨이가 5월부터 자국 고객에게 첨단 인공지능(AI)용 반도체칩을 대량출하에 나설 예정인 것으로 알려졌다. 로이터통신은 21일(현지시간) 소식통들을 인용해 화웨이가 화상처리반도체(GPU) '910C'를 개시할 예정이며 일부 중국기업들에게는 출하를 끝냈다고 보도했다. 도널드 트럼프 미국 정부는 이달 미국 반도체대기업 엔비디아에 대해 중국시장용 AI반도체 'H20'의 수출허가를 받도록 통지했다. 중국의 AI기업들이 대체품을 조달할 필요에 몰린 상황에서 절호의 타이밍으로 자체 개발한 '910C'를 중국 기업들에 공급할 것으로 보인다. '910C'는 기존제품인 '910B'와 비교해 계산능력과 메모리용량을 2배로 높였으며 중국에서의 판매가 금지된 엔비디아 'H100'과 같은 성능을 갖추고 있다는게 화웨이측의 설명이다. 미국정부는 첨단반도체의 중국공급을 차단하려고 수출규제를 강화해왔다. 미국은 중국의 AI 분야 기술 개발을 제한하기 위해 중국에 엔비디아의 주력칩 B200을 포함한 진보된 AI 제품 수출을 금지하고 있다. H100 칩의 경우 지난 2022년 출시되기도 전에 미국 당국에 의해 대중 수출이 금지됐다. 이 결과 화웨이와 중국의 스타트업들은 지금까지 엔비디아가 억눌러왔던 첨단반도체시장에의 진출이 가능하게 된 것이다. 컨설팅 회사인 올브라이트 스톤브리지 그룹의 파트너 폴 트리올로는 미국 상무부가 엔비디아의 H20 수출도 금지함으로써 "이제 화웨이의 910C GPU가 중국내 AI 모델 개발자의 하드웨어로 선택될 것"이라고 말했다. 소식통들은 지난해말 화웨이가 '910C' 샘플을 복수의 기술기업에 제공했으며 수주를 개시했다고 전했다. 로이터통신은 '910C'의 주요한 제조기업들에 대해 확인해주지 않고 있다고 전했다. 소식통은 또한 '910C'의 일부에는 반도체위탁생산 세계최대기업 대만 TSMC가 중국 거점의 기업용으로 제조한 반도체가 사용되고 있다고 언급했다. 미국 상무부는 현재 TSMC의 반도체가 '910B'에 사용되고 있는 것으로 확인돼 조사중이다. 미국의 랜드 연구소 기술 및 보안 정책 센터에서 중국의 AI발전을 추적하는 연구원인 레나트 하임에 따르면 TSMC는 최근 몇 년간 소프고가 주문한 설계에 따른 칩을 300만개 가까이 생산했다. 그러나 화웨이는 TSMC가 소프고 용으로 생산한 칩을 사용하지 않았다고 주장해왔다. TSMC도 규제 요건을 준수하고 있으며 2020년 9월 중순 이후로 화웨이에 공급하지 않았다고 밝혔다.
-
- IT/바이오
-
화웨이, 수입 중단된 엔비디아 칩 대신 중국 기업에 첨단 AI 칩 공급
-
-
미국, 엔비디아 H20 수출 제한…국내 HBM 기업 '긴장'
- 미국 정부가 엔비디아의 중국용 AI 가속기 'H20'에 대한 수출을 제한하면서, 해당 칩에 고대역폭 메모리(HBM)를 공급하는 SK하이닉스 등 국내 반도체 기업의 영향 여부에 관심이 쏠리고 있다. H20은 미국의 수출규제 이후 중국 시장을 겨냥해 개발된 GPU로, 최근 SK하이닉스의 HBM3E 8단 제품이 탑재되기 시작했다. 단기적으로는 SK하이닉스의 공급 물량 대부분이 중국 외 시장용 최신 HBM3E 12단에 집중돼 있어 큰 영향은 없다는 분석이다. 그 러나 장기적으로는 중국의 반도체 자립이 가속화되고 글로벌 AI 수요 위축 가능성도 제기되고 있다. [미니해설] 美, H20 수출 제한…국내 HBM 공급망엔 '일단은 이상 없음' 미국이 엔비디아의 중국용 인공지능(AI) 가속기 칩 'H20'에 대해 수출 제한 조치를 내리면서, 해당 칩에 고대역폭 메모리(HBM)를 공급해온 국내 반도체 기업들의 이해관계에 이목이 집중되고 있다. 엔비디아 H20은 미국의 대중국 수출 규제 강화에 대응해 합법적으로 제공할 수 있도록 설계된 고성능 AI 칩이다. 다시 말하면 엔비디아(NVIDIA)의 H20 칩은 중국 시장을 겨냥해 개발된 AI 가속기(Accelerator)로, 미국 정부의 수출 규제 강화에 대응하기 위해 설계된 제품이다. AI 훈련 및 추론 용도인 H20은 엔비디아의 고성능 AI 칩인 A100·H100의 변형 모델로, 미국 상무부의 수출 제한 기준에 부합하도록 성능을 낮춘 버전이다. 16일 업계에 따르면, 엔비디아는 지난 9일 미국 정부로부터 H20 칩의 중국 수출 시 허가가 필요하다는 통보를 받았으며, 14일에는 이 규제가 무기한 연장될 것이라는 통지를 받은 것으로 전해졌다. H20은 최근 SK하이닉스가 공급하는 5세대 HBM3E 8단 제품을 탑재하고 있어 국내 메모리 반도체 기업들에 직간접적 영향이 우려된다. 현재 HBM3E 8단은 SK하이닉스가 주력 공급하고 있으며, 삼성전자는 아직 H20용 공급망에 진입하지 못한 상태다. 그러나 업계는 이번 조치가 SK하이닉스의 실적에 큰 영향을 미치지 않을 것으로 보고 있다. SK하이닉스는 이미 글로벌 HBM 공급망에서 독점적 지위를 확보하고 있으며, 중국 외 수출용 AI 칩에 탑재되는 HBM3E 12단 생산에 주력하고 있기 때문이다. 박재근 한국반도체디스플레이기술학회장은 "엔비디아의 수출 제재로 인해 HBM 사용량이 일부 줄어들 수는 있으나, SK하이닉스가 생산 능력을 최대한 가동해도 수요를 전부 감당하지 못하는 상황이기 때문에 실질적인 타격은 제한적일 것"이라고 설명했다. 채민숙 한국투자증권 연구원 또한 "SK하이닉스는 H20용 HBM 판매를 이미 3월에 완료했고, 이번 조치로 인한 재고 손실이나 실적 조정은 발생하지 않을 것"이라고 분석했다. SK하이닉스가 연간 계획한 HBM 판매량과 실적 전망에 변화는 없을 것이란 관측이다. 반면, H20 수출 제한은 엔비디아 자체에는 직격탄이 됐다. 엔비디아는 2~4월 회계연도 1분기에 재고 손실과 구매 약정 관련 비용 등으로 55억 달러(약 7조8000억원)의 손실을 예상하고 있다. H20 칩은 알리바바, 텐센트, 바이트댄스 등 중국 IT 대기업들이 올 1분기에만 160억 달러(약 22조8000억원) 이상 주문한 것으로 알려졌다. 장기적으로는 이번 제재가 중국의 반도체 자립을 자극할 수 있다는 점에서 국내 기업에 불리한 흐름을 형성할 수 있다는 지적도 나온다. 중국은 지난해 5월 '국가집적회로산업투자기금' 3단계를 출범시키며 3440억 위안(약 65조원)을 투입하기로 했다. 상당수는 HBM 개발에 집중될 예정이다. 중국 1위 D램 업체인 창신메모리테크놀로지(CXMT)는 이미 HBM 샘플을 개발 중이며, 2026년 HBM3, 2027년 HBM3E 상용화를 목표로 기술 확보에 박차를 가하고 있다. 만약 이들이 HBM 시장에 진입할 경우, 한국 기업들의 시장 독점 구도에도 변화가 불가피할 수 있다. 업계 관계자는 "미국의 수출 규제는 단기적으로는 중국 기업의 손발을 묶는 전략이지만, 장기적으로는 중국의 기술 독립과 반도체 내재화를 가속화시키는 역효과를 낳을 수 있다"며 "결국 글로벌 AI 반도체 시장 전체가 냉각될 수 있다"고 우려했다. 전문가들은 이번 조치가 AI와 HBM 시장에 미치는 파장을 가늠하기 위해선 미국의 추가 규제 방향과 중국의 대응 수위를 함께 주목할 필요가 있다고 강조했다. AI 수요 증가와 HBM 수요 확대는 분명한 흐름이지만, 지정학적 리스크는 그에 못지않은 불확실성으로 작용하고 있다.
-
- IT/바이오
-
미국, 엔비디아 H20 수출 제한…국내 HBM 기업 '긴장'
-
-
챗GPT 이미지 AI, 출시 사흘만에 폭발적 반응⋯GPU 과부하로 생성 제한
- 오픈AI(OpenAI)가 최근 선보인 이미지 생성 인공지능(AI)이 공개 직후부터 전 세계적으로 큰 반향을 일으키고 있다. 이와 동시에 이용자 급증으로 서버가 과부하를 겪으며, 회사는 기능 사용에 일부 제한을 도입했다고 IT전문매치 더 버지가 28일 보도했다. 샘 올트먼 오픈AI 최고경영자(CEO)는 27일(현지시간) 자신의 소셜미디어 플랫폼 엑스(X·구 트위터)를 통해 "이미지 생성을 즐기는 이용자가 많아 기쁘지만, 현재 우리의 GPU가 '녹아내리고' 있다"며 시스템 과부하 상황을 직접 알렸다. 그는 이어 "성능 개선을 위해 이미지 생성 기능을 일시적으로 제한한다"고 밝혔다. 오픈 AI가 지난 25일 공개한 '챗GPT-4o 이미지 생성(ChatGPT-4o Image Generation)' 모델은 텍스트·음성·이미지를 통합한 오픈AI의 대표 멀티모달 AI 'GPT-4o'를 기반으로 한다. 특히 사용자의 프롬프트 입력 없이도 의도를 파악해 이미지를 생성할 수 있으며, 텍스트 삽입의 정확성도 크게 향상됐다. 예를 들어 '여러 종류의 고래를 보여주는 포스터를 만들어 달라'는 요청에 고래의 종류와 이름을 정확히 일치시켜 구현하는 식이다. 오픈AI 측은 이 모델이 기존 이미지 생성 AI의 한계였던 텍스트 표현 왜곡이나 객체 속성 간 불일치 문제를 상당 부분 개선했다고 설명했다. 이에 따라 인포그래픽, 로고, 명함은 물론 카툰, 반려동물 일러스트, 프로필 사진 편집 등 다양한 창작 작업에 활용이 가능하다. 이번 기능은 유로 구독자는 물론 무료 이용자에게도 제공된다. 다만 GPU 부하를 완화하기 위해 현재 무료 이용자는 하루 3개의 이미지만 생성할 수 있도록 제한되며, 해당 조치는 일시적이라는 것이 회사측의 설명이다. AI 이미지 생성 수요가 폭발적으로 증가함에 따라, 고성능 그래픽처리장치(GPU) 기반의 인프라 운영 효율성 확보가 오픈AI의 새로운 과제로 더올랐다. 업계는 이번 제한 조치가 향후 AI 서비스 확장에 있어 기술 인프라의 중요성을 다시 한 번 상기시켰다는 점에서 주목하고 있다.
-
- IT/바이오
-
챗GPT 이미지 AI, 출시 사흘만에 폭발적 반응⋯GPU 과부하로 생성 제한
-
-
엔비디아, 'IPO 최대어' 코어위브 주식 추가 매입 계획
- 인공지능(AI) 칩 대장주인 엔비디아가 올해 미국 기업공개(IPO) 시장 최대어로 꼽히는 코어위브(CoreWeave)의 주식을 대거 매입할 계획이다. 미국 CNBC 방송은 27일(현지시간) 소식통을 인용해 엔비디아가 뉴욕 증시 상장을 앞둔 코어위브의 주식을 주당 40달러에 2억5000만달러(3661억원)어치를 매입할 계획을 하고 있다고 보도했다. 코어위브는 AI 열풍을 주도하고 있는 엔비디아의 AI 칩을 이용한 대규모 데이터 센터를 운영하고 이를 임대하는 사업을 하는 AI 스타트업이다. 이 기업은 일찌감치 엔비디아의 눈도장을 받아 2023년 투자를 받았다. 엔비디아는 현재 6%의 지분을 보유한 것으로 알려져 있으며 이번 IPO에서 주식을 매입하면 지분은 더 늘어나게 된다. 코어위브는 2024년 말 기준으로 32개의 데이터 센터를 운영 중이며, 25만개 이상의 엔비디아 그래픽처리장치(GPU)를 보유하고 있다. 마이크로소프트(MS)를 주요 고객으로, 최근에는 챗GPT 개발사 오픈AI와 100억달러가 넘는 규모의 클라우드 컴퓨팅 서비스 계약을 체결하는 등 주목받고 있다. 지난해 매출은 19억2000만달러로, 전년(2억2890만달러) 대비 약 8배가 증가했다. 다만 순손실도 2023년 5억9370만달러에서 8억6340만달러로 늘었다. 조만간 상장이 예상되는 코어위브의 기업가치는 350억달러(약 51조원) 이상으로 평가될 것으로 추정되고 있다. 지난해 5월 초 11억 달러 규모의 투자금을 유치할 당시 평가받았던 기업가치(190억달러)가 10개월 만에 약 두 배로 증가한 것이다. 이에 코어위브는 침체된 IPO 시장에 활기를 불어넣어 줄 기대주로 관심을 모으고 있다. 올해 'IPO 최대어'답게 모건스탠리와 JP모건, 골드만삭스 등 글로벌 투자은행이 상장 공동 주관사로 참여할 예정이다. 특히 엔비디아의 추가 지분 인수는 코어위브의 성공적인 상장에 긍정적인 영향을 미칠 것으로 예상되고 있다. CNBC는 "급성장하는 AI 산업이 기술 대기업들로부터 수십억달러 규모의 투자를 유치하는 가운데 코어위브의 기업공개는 IPO 시장에 중요한 이정표가 될 것"이라고 전망했다.
-
- IT/바이오
-
엔비디아, 'IPO 최대어' 코어위브 주식 추가 매입 계획
-
-
SK하이닉스 "HBM 내년 물량, 상반기 내 협의 완료…매출 안정 강화"
- 곽노정 SK하이닉스 대표이사는 27일 열린 정기 주주총회에서 "내년 고대역폭 메모리(HBM) 물량은 상반기 내 고객과 협의를 마무리해 매출 안정성을 높이겠다"고 밝혔다. 곽 사장은 "HBM은 높은 투자 비용과 긴 생산 기간이 요구되는 만큼 사전 협의를 통해 판매 가시성을 확보 중"이라고 말했다. SK하이닉스는 올해 HBM 물량을 이미 완판한 상태로, HBM3E 12단 제품을 공급 중이며, 하반기에는 세계 최초로 HBM4 12단 양산에 돌입할 계획이다. 곽 사장은 "AI 수요 확대에 따라 HBM 시장은 전년 대비 8.8배, 기업용 SSD 시장은 3.5배 성장할 것"이라며, 생산능력 확대도 병행할 것이라고 밝혔다. [미니해설] HBM '완판' SK하이닉스, 내년 물량도 상반기 중 확정⋯AI 수요 폭증에 "8.8배 성장" HBM(고대역폭 메모리) 시장의 강자로 부상한 SK하이닉스가 2024년을 넘어 2025년에도 공격적인 행보를 이어간다. 27일 열린 제77기 정기 주주총회에서 곽노정 SK하이닉스 대표이사는 "내년 HBM 물량은 올해 상반기 내 주요 고객과 협의를 마치고 매출 안정성을 높이겠다"고 밝혔다. 곽 사장은 "HBM 제품은 높은 투자 비용과 긴 생산 기간이 필요하다"며, 고객사와의 사전 협의를 통해 판매 가시성을 확보하고 있다고 설명했다. 실제로 SK하이닉스는 올해 HBM 물량을 이미 '완판(솔드아웃)'한 상태다. 현재는 HBM3E(5세대) 12단 제품을 엔비디아 등 글로벌 빅테크에 공급 중이며, 후속 제품인 HBM4(6세대) 12단 샘플 역시 세계 최초로 고객사에 제공해 하반기 양산을 준비하고 있다. 이날 발언은 HBM3E에 이어 HBM4 물량까지 이미 대부분 확보된 상태이며, 2025년 제품 또한 상반기 중 '완판'될 가능성을 시사한다. 곽 사장은 "AI 수요가 급증하고 있고, GPU와 ASIC 같은 특화 칩의 확대로 HBM에 대한 수요는 폭발적으로 늘어날 것"이라고 전망했다. 실제로 SK하이닉스는 올해 HBM 시장이 전년 대비 8.8배 성장, 기업용 SSD 시장은 3.5배 성장할 것으로 예측했다. 이는 곧 실적에도 반영된다. 지난해 SK하이닉스는 HBM 호조에 힘입어 매출 66조1930억 원, 영업이익 23조4673억 원을 기록하며 역대 최대 실적을 올렸다. HBM은 올해 전체 D램 매출에서 50% 이상을 차지할 것으로 보이며, 지난해 4분기 기준 이미 40% 이상을 넘어섰다. 늘어나는 수요에 대응하기 위해 SK하이닉스는 캐파(생산능력) 확대도 서두르고 있다. 올해 말에는 청주 M15X 공장에서 1b 나노 공정을 통해 HBM 생산을 시작하고, 경기도 용인 클러스터는 2028년 1분기 양산을 목표로 단계적인 클린룸 건설에 착수했다. 반면 미국 마이크론이 최근 일부 D램 제품의 가격 인상을 예고한 것과 달리, SK하이닉스는 유연한 대응 기조를 강조했다. 이상락 글로벌세일즈마케팅(GSM) 담당 부사장은 "마이크론이 보낸 채널 파트너용 서신은 확인했지만, 우리는 별도의 가격 인상 메시지를 전달하지 않고 유동적으로 대응할 계획"이라고 밝혔다. 그는 "고객 재고가 많이 소진됐고, 공급 측 재고도 줄었다"면서도 "이 흐름이 단기인지 중장기인지 조금 더 모니터링할 필요가 있다"고 덧붙였다. 이날 주총에서는 곽노정 사장의 사내이사 재선임과 함께 SK스퀘어 한명진 사장이 기타비상무이사로 신규 선임됐다. 모든 안건은 원안대로 통과됐다. 한편 최근 등장한 중국 저가형 AI 모델 '딥시크(DeepSeek)'가 고사양 메모리 수요를 위축시킬 수 있다는 우려에 대해 곽 사장은 "오히려 중장기적으로 AI 메모리 수요를 확장하는 긍정적 요인"이라며, "HBM3E와 HBM4는 같은 플랫폼을 사용하기 때문에 생산 전환이 유연하다"고 강조했다. AI 전환기에서 HBM은 곧 메모리 반도체의 미래라는 평가가 나온다. SK하이닉스는 기술, 생산, 공급망 전방위에서 한발 앞서며 이 흐름을 주도하고 있다.
-
- IT/바이오
-
SK하이닉스 "HBM 내년 물량, 상반기 내 협의 완료…매출 안정 강화"
-
-
엔비디아, 울트라·루빈·파인먼 등 AI 칩 출시 로드맵 발표
- 인공지능(AI) 칩 선두주자 엔비디아가 18일(현지시간) 향후 출시될 AI 칩의 로드맵을 발표했다. 이날 로이터통신 등 외신들에 따르면 젠슨 황 최고경영자(CEO)는 이날 미 캘리포니아주 새너제이 SAP 센터에서 열린 연례 개발자 회의 'GTC 2025'에서 2028년까지 AI 칩 로드맵을 공개했다. 지난해부터 블랙웰을 출시하고 있는 엔비디아는 내년에 '루빈'이라는 새로운 AI 칩을 출시하겠다고 지난해 6월 발표했으며 이날 이를 구체화했다. 황 CEO는 올해 하반기부터 2027년까지 블랙웰 업그레이드 버전과 루빈, 루빈 업그레이드 버전을 선보이고 2028년에는 새로운 AI 칩을 출시한다고 밝혔다. 그는 "AI 공장(데이터센터) 기준 성능으로 (이전 칩인) H100 '호퍼' 대비 블랙웰은 68배, 루빈은 900배가 될 것"이라며 "같은 기능 대비 비용은 블랙웰이 호퍼의 13%, 루빈은 3%에 불과하다"고 말했다.그러면서 지난해 말 출시한 첨단 AI 칩 '블랙웰' 생산이 "완전히 가동되고 있다"며 일각에서 제기되고 있는 설계 결함에 따른 생산 차질 우려를 일축했다. 이어 아마존과 마이크로소프트(MS), 구글, 오라클 등 4대 클라우드 기업이 이전 세대인 호퍼 칩을 지난해 130만개 구매했고, 올해에는 블랙웰을 360만개를 구매해 큰 인기를 끌고 있다고 설명했다. 황 CEO는 올해 하반기에는 블랙웰의 업그레이드 버전인 '블랙웰 울트라'가 출시될 예정이라고 설명했다. 블랙웰 울트라는 기존 192GB던 5세대 HBM인 HBM3E를 288GB로 50% 늘렸다. '블랙웰 울트라'는 엔비디아의 암(Arm) 기반 CPU와 결합한 'GB300'과 GPU 버전 'B300'으로 제공된다. 내년 하반기에는 '루빈'이라는 새로운 아키텍처의 AI 칩이 출시된다. 루빈에는 기존 칩에 장착됐던 중앙처리장치(CPU) 그레이스 대신 '베라(Vera)'라는 새로운 CPU가 접목된다. 2027년에는 루빈의 업그레이드 버전인 루빈 울트라가 출시되고 2028년에는 '파인먼(Feynman)'이라는 새로운 AI 칩이 나올 예정이라고 황 CEO는 밝혔다. 다만 이날 파인먼에 대한 구체적인 사양은 밝히지 않았다. 엔비디아는 이와 함께 휴머노이드 로봇 개발을 가속할 '아이작 그루트 N1(Isaac GROOT N1)'이라는 플랫폼을 공개했다. 엔비디아는 이 프로젝트에서 월트 디즈니, 구글 딥마인드와 협력 중이라고 밝혔다. 또 제너럴 모터스와 협력해 차세대 자동차, 공장, 로봇에 AI를 활용하는 작업을 진행 중이라고 설명했다. 이와 함께 차세대 통신규격인 6세대(6G)부문에서 통신사들과 협력을 모색할 방침을 나타냈다. 엔비다아는 무선통신 프로젝트에서는 T모바일USA와 시스코시스템이 참여하고 있다고 밝혔다. 아울러 TSMC와 함께 컴퓨터간 통신을 광자로 하는 네트워킹 칩인 실리콘 포토닉스를 오는 하반기 내놓을 예정이다. 실리콘포토닉스는 전자로 하던 컴퓨터 간 통신을 광자로 가능케 함으로써 전송 속도를 높이고 전력 소모를 줄이는 기술이다. 황 CEO는 중국 AI 스타트업 딥시크의 가성비 모델을 의식한 듯 "첨단 AI를 위해 전 세계가 예상했던 것보다 100배 더 많은 컴퓨팅 파워가 필요하다"며 "AI 추론 모델과 AI 에이전트가 엔비디아 칩 수요를 크게 증가시킬 것"이라고 강조했다.
-
- IT/바이오
-
엔비디아, 울트라·루빈·파인먼 등 AI 칩 출시 로드맵 발표