딥시크.png
중국 스타트업 딥시크가 최근 더 효율적인 AI 훈련법을 다룬 연구결과를 발표했다. 사진은 딥시크 로고=로이터/연합뉴스

1년 전 '가성비' 인공지능(AI) 모델로 시장에 충격을 줬던 중국 스타트업 딥시크가 최근 더 효율적인 AI 훈련법을 다룬 연구결과를 발표했다.

 

2일(현지시간) 블룸버그통신 등 외신들에 따르면 창업자 량원펑을 포함한 딥시크 연구진은 최근 오픈소스 플랫폼 허깅페이스 등을 통해 이른바 '다양체-제약(Manifold-Constrained) 초연결' 프레임워크 관련 논문을 공개했다.

 

이 연구는 AI 훈련상의 불안정성 및 제한된 확장성 등의 문제를 다뤘으며 새로운 방법에는 '효율성 확보를 위한 엄격한 인프라 최적화' 등이 포함됐다. 이는 AI 학습 과정의 불안정성을 낮추고 인프라 효율을 높여 대규모 모델 구축에 필요한 비용과 에너지를 절감하는 데 초점을 맞춘 기술이다.

 

업계에서는 이번 논문이 딥시크의 차세대 플래그십 모델 출시를 예고하는 신호로 해석하고 있다.

 

블룸버그는 딥시크가 과거에 주요 AI 모델 발표를 앞두고 이처럼 연구 결과를 내놓았다고 설명했다.

 

이어 딥시크가 1년 전 미국 빅테크(거대 기술기업)들보다 적은 비용으로 개발한 'R1' 모델을 내놓았으며 다음달 춘제(春節·중국 설) 연휴께 공개될 것으로 전망되는 'R2' 모델에 대한 기대가 커지고 있다고 전했다.

 

미국이 AI 모델 개발에 필수적인 엔비디아 첨단 반도체 등의 중국 유입을 제한하는 가운데 중국 AI업계는 오픈AI 등 미국 업체들과 경쟁하기 위해 비전통적 방식 등을 시도하는 상황이다.

 

 

이같은 상황에서 딥시크의 행보는 제약을 기술 혁신으로 돌파하려는 중국 AI 업계의 전략을 상징적으로 보여준다는 평가다. 블룸버그인텔리전스는 “딥시크의 차세대 모델이 글로벌 AI 시장을 다시 한번 흔들 잠재력이 있다”고 진단했다.

전체댓글 0

비밀번호 :
메일보내기닫기
기사제목
딥시크, '효율성 개선' AI훈련법 논문 발표…차세대모델 기대
보내는 분 이메일
받는 분 이메일