검색
-
-
네이버, 2분기 매출 2조9천억⋯AI·커머스 성장세 이어가
- 네이버가 2분기 인공지능(AI) 서비스 확대와 커머스 플랫폼 성장에 힘입어 견조한 실적을 기록했다. 네이버는 8일 잠정 실적 공시를 통해 2분기 매출 2조9151억 원, 영업이익 5216억 원을 각각 기록했다고 밝혔다. 매출과 영업이익은 전년 동기 대비 각각 11.7%, 10.3% 증가했다. 당기순이익은 4974억 원으로 집계됐다. 주요 부문별로는 서치플랫폼이 1조365억 원, 커머스 8611억 원, 핀테크 4117억 원, 콘텐츠 4740억 원, 엔터프라이즈 1317억 원을 기록했다. AI 브리핑, AI 탭, 새벽배송 도입 등 하반기 전략도 구체화했다. [미니해설] AI 탑재한 네이버, 2분기 매출 2조9,151억…커머스·핀테크 동반 성장 네이버가 AI 신기능 도입과 커머스 플랫폼 강화에 힘입어 2분기에도 안정적인 실적 성장세를 이어갔다. 네이버는 8일 잠정 실적 공시를 통해 2025년 2분기 연결 기준 매출 2조9151억 원, 영업이익 5216억 원을 기록했다고 밝혔다. 전년 동기 대비 매출은 11.7%, 영업이익은 10.3% 각각 증가했다. 당기순이익은 4974억 원으로 집계됐다. 커머스·핀테크 두 자릿수 성장…AI 전략 효과 가시화 사업 부문별로 보면 전통적인 검색광고 기반의 서치플랫폼이 여전히 안정적인 비중을 차지했다. 해당 부문은 AI 기반 피드 강화와 체류시간 증가, 광고 고도화에 따라 전년 대비 5.9% 증가한 1조365억 원을 기록했다. 특히 커머스 부문은 네이버플러스 스토어앱 안정화와 스마트스토어 거래액 증가에 힘입어 전년 대비 19.8%, 전분기 대비 9.3% 증가한 8,611억 원의 매출을 달성했다. 핀테크 부문도 네이버페이 외부 결제 생태계 확장으로 전년 동기 대비 11.7% 성장해 4117억 원의 매출을 기록했다. 2분기 네이버페이 결제액은 20조8000억 원으로, 스마트스토어 성장과 더불어 외부 가맹점 확대의 효과가 반영됐다. 네이버는 연내 페이스사인 등 다양한 결제 방식을 통합한 단말기를 출시하고, 온·오프라인 금융 연계 플랫폼으로 사업을 확장할 계획이다. 콘텐츠와 엔터프라이즈도 안정 성장 콘텐츠 부문은 웹툰 실적 반등과 카메라앱 유료 구독자 증가에 따라 4740억 원의 매출을 기록하며 전년 대비 12.8% 증가했다. 엔터프라이즈 부문은 기업용 AI 솔루션 확산에 힘입어 1317억 원을 기록해 전년 대비 9.1% 성장했다. AI 브리핑·AI 탭 확대…플랫폼 고도화 본격화 이날 실적발표 콘퍼런스콜에서 최수연 네이버 대표는 AI 전략의 방향성을 구체적으로 밝혔다. 그는 "올해 말까지 AI 브리핑 커버리지를 전체 검색의 20% 수준까지 확대하고, 내년에는 통합검색에 대화형 AI 탭을 도입할 계획"이라고 말했다. AI 브리핑은 생성형 AI를 활용해 검색 결과를 요약하고 사용자 맞춤 콘텐츠를 제시하는 네이버 고유의 기능이다. 대화형 AI 탭은 통합검색에 적용될 예정이며, 향후 사용자 경험을 AI 기반으로 재정의할 핵심 전략으로 꼽힌다. 새벽배송·콜드체인 도입…커머스 물류 강화 커머스 사업과 관련해 네이버는 오는 3분기 컬리, CJ대한통운과 협력해 새벽배송을 도입하고, 저온 유통망(콜드체인) 확대를 통해 상품 신선도를 강화하겠다는 계획도 공개했다. 최 대표는 "내년 초 직계약을 위한 플랫폼 개발을 마무리해 N배송 도입률을 높이고, 연내 구매자 전용 AI 에이전트를 도입할 것"이라고 밝혔다. 글로벌 소버린 AI 사업 본격화…중동·동남아 협력 강화 네이버는 글로벌 AI 전략에서도 적극적인 행보를 보이고 있다. 이날 최 대표는 "데이터센터와 자체 대형언어모델(LLM), GPU 인프라 운용 경험을 토대로 소버린 AI 사업을 본격화하고 있다"고 말했다. 실제로 네이버는 사우디아라비아 디지털트윈 구축, 태국 LLM 개발, 모로코 AI 데이터센터 및 GPU 엣지 인프라 구축, MIT와의 휴머노이드 연구 협력, 일본 이즈모시 AI 안부전화 서비스 등 글로벌 다각화 전략을 전개하고 있다. 중장기 성장 동력 확보…"AI 기반 플랫폼 확장 지속" 최 대표는 "AI 기반 플랫폼 경쟁력과 사업 역량 강화를 통해 네이버의 중장기 성장 토대를 마련할 것"이라며 "글로벌 파트너십을 확대해 신뢰 기반의 AI 생태계를 구축해 나가겠다"고 밝혔다. 이러한 행보는 네이버가 단순 플랫폼 기업을 넘어 AI 기술을 기반으로 한 글로벌 기술기업으로의 도약을 시도하고 있음을 보여준다.
-
- IT/바이오
-
네이버, 2분기 매출 2조9천억⋯AI·커머스 성장세 이어가
-
-
알리바바, 한국 AI 인재 확보 나섰다⋯큐원 활용 해커톤 개최
- 중국 알리바바 그룹이 국내 AI 인재 발굴과 생태계 확장을 본격화하고 있다. 알리바바 그룹 계열사인 알리바바 클라우드는 인공지능(AI) 트레이닝 플랫폼 '플록(FLock.io)'과 함께 국내 대학생 개발자들을 대상으로 해커톤을 개최했다고 6일 밝혔다. 이번 행사는 지난달 28일부터 이달 2일까지 진행됐으며, 참가자들은 오픈소스 대규모언어모델(LLM) '큐원(Qwen)'을 활용해 연합 학습 기반의 분산형 AI 애플리케이션 개발에 도전했다. 총 40여 명이 참가한 가운데, 연세대와 고려대 소속 참가자가 포함된 3개 팀이 최종 수상자로 선정됐다. 알리바바 클라우드는 이번 행사를 통해 한국 내 AI 생태계 확대와 인재 발굴에 속도를 낼 방침이다. [미니해설] 알리바바 클라우드의 해커톤, 한국 AI 생태계 향한 본격적인 '손짓' 알리바바 클라우드는 자체 오픈소스 대규모언어모델(LLM) '큐원(Qwen)'과 연합 학습 플랫폼 '플록(FLock.io)'을 활용해 국내 대학생 개발자들과 해커톤을 개최하며 한국 시장에서의 기술 영향력 확대에 나섰다. 중국 알리바바 그룹의 클라우드 부문인 알리바바 클라우드는 지난달 28일부터 이달 2일까지, 한국 대학생 개발자 40여 명과 함께 AI 해커톤을 열었다. 이번 행사는 자사의 연합 학습 기반 AI 트레이닝 플랫폼 ‘플록(FLock.io)’과 오픈소스 대규모언어모델(LLM) '큐원(Qwen)'을 중심으로 구성됐다. 참가자들은 의료, 금융, 콘텐츠 등 다양한 산업 현장의 수요를 반영한 모델 파인튜닝 실습에 참여하며, 분산형 AI 애플리케이션 개발에 도전했다. 데이터톤 방식으로 진행된 이번 해커톤에서는 참가자들이 주어진 데이터셋과 시나리오에 맞춰 큐원을 미세 조정하고, 각자의 창의적인 솔루션을 선보였다. 플록 플랫폼은 이러한 훈련 과정 전반을 지원하며, 사용자 간 모델 성능 비교 및 실시간 리더보드 제공 등 다양한 기능을 제공했다. 수상 팀, 국내 주요 대학 중심…알리바바의 'AI 공략' 본격화 최종 수상자로는 연세대와 고려대 소속 개발자가 포함된 3개 팀이 선정됐다. 이들은 큐원 기반의 고도화된 모델을 통해 산업 맞춤형 AI 솔루션을 구현한 점에서 높은 평가를 받았다. 이번 해커톤은 단순한 공모전이 아닌, 알리바바 클라우드가 한국 AI 생태계와 개발자 커뮤니티에 실질적으로 접근한 첫 사례로 평가된다. 알리바바는 2016년 한국 시장에 진출한 이후, 2022년 3월과 올해 6월 서울에 두 곳의 데이터센터를 설립하며 인프라 투자를 강화해왔다. 특히 알리바바는 교육-연구-실무를 연결하는 '기술 허브'로의 역할을 강조하며, 향후 한국 내 개발자 생태계 및 스타트업과의 협력을 더욱 확대할 계획이다. 중국발 오픈 LLM, 글로벌 무대서 경쟁력 입증…한국 겨냥한 알리바바의 전략 이번 행사에 활용된 큐원은 알리바바가 자체 개발한 오픈소스 대규모언어모델로, 최근 일부 벤치마크 지표에서 오픈AI의 챗GPT나 구글의 제미나이를 뛰어넘는 성능을 기록하며 주목받고 있다. 중국은 지난해 생성형 AI 모델 '딥시크(DeepSeek)'가 등장하면서 AI 기술 주도권 확보에 속도를 내고 있다. 알리바바 역시 큐원을 중심으로 글로벌 AI 시장에서 존재감을 강화하고 있으며, 이번 해커톤은 그 전략의 일환으로 해석된다. 윤용준 알리바바 클라우드 인텔리전스 한국 총괄 지사장은 "알리바바 클라우드는 앞으로도 교육, 연구, 실무를 연결하는 기술 허브로서 역할을 강화하며 한국의 AI 혁신과 인재 양성을 적극 지원하겠다"고 밝혔다. 단순한 이벤트 아닌 기술·인재 확보 위한 장기 전략 해커톤은 단발성 행사가 아니다. 알리바바 클라우드는 플록을 활용한 실습 환경을 통해 자사 기술을 국내 개발자들에게 체험시키는 동시에, 향후 B2B·B2G 협력 가능성까지 염두에 두고 있다. 국내 대학과의 연계를 확대하고, 실제 산업 현장에 적용 가능한 오픈소스 생태계를 키우는 전략이 뒤따를 전망이다. 한국이 글로벌 AI 경쟁의 핵심 무대로 부상하고 있는 가운데, 이번 해커톤은 알리바바의 장기적 시장 공략의 신호탄으로 해석할 수 있다.
-
- IT/바이오
-
알리바바, 한국 AI 인재 확보 나섰다⋯큐원 활용 해커톤 개최
-
-
[신소재 신기술(189)] AI로 리튬이온 대체 물질 발견⋯美 NJIT, 차세대 전지 재료 개발에 돌파구
- 미국 뉴저지공과대학교(NJIT) 연구진이 인공지능(AI)을 활용해 리튬이온 배터리를 대체할 수 있는 차세대 에너지 저장 소재 탐색에 성공했다. 전통적인 실험 방식으로는 불가능했던 수천 개의 결정 구조를 AI가 빠르게 탐색하면서, 고용량 차세대 전지 개발에 실마리를 제공했다는 평가다. 이번 연구는 NJIT 기계·산업공학과 디바카르 다타(Dibakar Datta) 교수가 이끄는 연구팀에 의해 수행됐으며, 국제 학술지 '셀 리포트 물리과학(Cell Reports Physical Science)'에 최근 게재됐다. 7월 31일 NJIT에 따르면 다타 교수팀은 '생성형 AI(Generative AI)'를 도입해 다가이온(multivalent-ion) 배터리용 다공성 전이금속산화물 소재를 신속히 발굴했다. 다가이온 배터리는 기존 리튬이온 배터리와 달리 이온당 2~3개의 양전하를 지닌 마그네슘, 칼슘, 알루미늄, 아연 등 풍부한 원소를 활용한다. 이론상 동일한 공간에 더 많은 전하를 저장할 수 있어 에너지 밀도 측면에서 높은 잠재력을 지닌다. 다만, 이들 이온의 전하량과 크기가 커 소재 내부에서의 이동이 어려운 점이 상용화의 큰 장벽으로 작용해왔다. 연구은 이 문제를 해결하기 위해 새로운 AI 기반 탐색 프레임워크를 제안했다. 연구팀은 결정 확산 변분 오토인코더(Crystal Diffusion Variational Autoencoder, CDVAE)와 대형 언어모델(LLM)을 조합한 이중 AI 기법을 개발했다. CDVAE는 대규모 결정 구조 데이터셋을 학습해, 기존에 존재하지 않던 구조를 생성해냈으며, LLM은 열역학적으로 안정한 구조 후보를 정밀하게 선별하는 역할을 수행했다. 이 같은 AI 모델을 활용해 연구진은 수천 개의 새로운 다공성 결정 구조를 탐색했고, 이 중 다가이온 배터리용으로 적합한 5종의 새로운 전이금속산화물 구조를 도출했다. 해당 물질들은 이온 확산에 유리한 넓고 균일한 채널을 갖추고 있어, 고용량 저장과 안정성 확보 측면에서 유리한 것으로 나타났다. 연구팀은 이 구조들의 물리적 특성을 양자역학 기반 시뮬레이션을 통해 검증했으며, 실험적 합성 가능성도 확인했다. 다타 교수는 "문제는 유망한 전지 화학의 부재가 아니라, 수백만 개에 달하는 조합을 실험실에서 모두 검증하는 것이 현실적으로 불가능하다는 점이었다"며, "AI는 이 방대한 재료의 조합을 체계적으로 탐색하고 선별하는 데 가장 효율적인 수단"이라고 설명했다. 그는 이어 "이번 연구는 단순히 새로운 배터리 재료를 찾는 데 그치지 않고, 첨단 전자소자부터 청정에너지 소재까지 폭넓은 응용 분야에 걸쳐 고속 탐색 프레임워크를 제시했다는 데 의의가 있다"고 덧붙였다. 연구진은 향후 실험실 기반 공동 연구를 통해 AI 기반으로 설계한 소재의 실제 합성과 상용화 가능성 검증에 착수할 계획이다. 이번 연구는 AI 기반 재료 과학이 전통적인 실험 중심 연구방식을 보완하거나 대체할 수 있다는 점에서, 차세대 에너지 산업의 전환점을 이끌 수 있을지 주목된다.
-
- IT/바이오
-
[신소재 신기술(189)] AI로 리튬이온 대체 물질 발견⋯美 NJIT, 차세대 전지 재료 개발에 돌파구
-
-
[글로벌 핫이슈] 실리콘밸리, 'AI 초지능' 경제 격변을 전망하다
- 인공지능(AI)이 수년 내 인간의 모든 지적 능력을 뛰어넘는 '인공 일반 지능(AGI)' 시대가 도래할 것이라는 전망이 나왔다. 닛케이는 30일(현지시간) 실리콘밸리를 선도하는 기업가들을 인용해, 인류가 역사상 유례없는 경제적 대전환의 문턱에 서게 될 것이라고 보도했다. 인류의 역사가 '현상 유지'의 관성을 깨고 거대한 변화의 순간을 맞이하고 있다는 분석이다. 지난 10년간 AI의 발전 속도는 전문가들의 예상을 크게 웃돌았다. 오픈AI와 구글 딥마인드가 개발한 대규모 언어 모델(LLM)은 2025년 국제수학올림피아드에서 금메달 수준의 성과를 냈는데, 이는 전문가들이 2021년에 예측했던 시점보다 18년이나 빠른 성과다. 이런 눈부신 발전의 배경에는 기술 기업들의 '승자독식' 경쟁과 "2위는 곧 패배"라는 인식 아래 벌어지는 미국과 중국의 국가적 경쟁이 있다. 기술 경쟁은 LLM의 규모를 빠르게 키우고 있다. 2027년에는 GPT-4를 만드는 데 썼던 것보다 1000배 많은 자원이 LLM 훈련에 쓰일 것으로 보인다. 2030년이나 2032년의 AI는 과연 어떤 능력을 갖게 될까. 일부에서는 어두운 미래를 걱정한다. AI를 악용한 테러리스트가 수많은 사람을 죽이는 생물무기를 만들거나, 사람의 통제에서 벗어난 AI가 걷잡을 수 없이 날뛰는 이야기다. 발생 확률은 낮지만 영향이 매우 큰 '테일 리스크'를 우려하는 목소리가 나오는 것은 당연하다. 하지만 이런 극단적인 가정은 더 현실적이고 가까이 다가온 다른 충격들을 지나치게 만들 수 있다. 산업혁명 넘는 '두 번째 폭발' 1700년 이전 세계 경제는 100년에 평균 8% 성장하는 데 그쳤다. 그 뒤 300년간 산업혁명은 성장률을 350%까지 크게 끌어올렸지만, 인구가 늘고 노동력을 써야 하는 느린 순환에 기댔다. AI에는 이런 인구 변화의 제약이 없다. 오픈AI의 샘 올트먼 최고경영자는 "AI가 2026년에는 사람이 생각해내지 못하는 통찰을 만들어낼 것"이라고 밝혔다. 이미 AI는 스스로의 성능을 좋게 만드는 데 쓰이고 있으며, 2028년에는 AI가 AI 개발을 이끌 단계에 이를 것이라는 예상까지 나온다. 여기에서 산업혁명과 맞먹는 '두 번째 경제 폭발'의 가능성이 나온다. 단순한 노동은 물론 아이디어와 혁신을 자동화해 국내총생산과 부를 빠르게 늘릴 수 있다. 사람의 손길 없이 기계의 힘이 기술 발전을 이끌고, 그 결과가 다시 더 힘센 기계에 투자되는 순환이 만들어지면 부가 쌓이는 속도는 상상을 뛰어넘을 것이다. 미국 싱크탱크 에포크AI는 AI가 사람 업무의 30%를 맡는 때부터 한 해 경제 성장률이 20%를 웃돌 수 있다고 분석했다. 일론 머스크 같은 AI 낙관론자들은 스스로 발전하는 AI가 마침내 '초지능'을 만들어낼 것이라 믿는다. 초지능이 나타나면 인류는 에너지나 수명 같은 지금까지의 한계를 넘어서고, 물리 법칙만이 유일한 제약으로 남는 시대로 들어설지도 모른다. 소수 독식과 불평등의 심화 초지능이 가져올 풍요는 노동 시장과 자산 시장에 이제까지 없던 충격을 동반한다. AI가 사람의 지능 수준에 이르면, 모든 일의 비용은 AI로 처리하는 비용을 넘을 수 없게 된다. AI가 대신할 수 없으면서 힘을 합쳐 더 큰 힘을 내는 소수의 '슈퍼스타' 계층은 큰 부를 손에 넣겠지만, 그보다 더 큰 이익은 AI 기반 시설과 관련 자본을 가진 극소수의 몫이 될 것이다. 그 때문에 부의 쏠림은 매우 심해질 것으로 보인다. 보육이나 외식처럼 자동화가 어렵고 노동이 많이 드는 분야에서는 오히려 임금이 치솟는 '비용 질병' 현상이 나타나 사회 불평등이 깊어질 수 있다. AI가 대신할 수 없는 이들 서비스는 머지않아 비싼 사치품으로 바뀔 가능성이 크다. 금융 시장 역시 큰 변화를 피할 수 없다. AI 경쟁의 '이긴 쪽'과 '진 쪽'이 뚜렷해지면서 주가 차이는 매우 커지고, AI 기술과 기반 시설에 투자가 크게 늘면서 금리를 올려야 한다는 압박도 커질 것이다. 미래의 큰 성장을 내다본 부유층이 저축 대신 소비를 택하면서 투자 돈을 모으기 위한 금리는 더 높아질 수 있다. 이 과정에서 나라 경제 전체의 불안과 물가 상승 위험도 커진다. 경제가 빠르게 성장해도 자산 값은 떨어지고 빚 부담은 늘어나는 반대 현상이 나타날 수 있으며, 성장의 덕을 보지 못하는 사람들은 큰 타격을 입을 것이다. 이러한 경제적 혼란은 곧바로 사회적 갈등으로 이어진다. 산업혁명이 대중 민주주의 시대 이전에 일어났다는 점은 지금의 상황에 시사하는 바가 크다. AI가 가져올 부의 쏠림과 경제 구조의 변화는 큰 사회 갈등을 일으키고, 재분배를 해달라는 압박을 키울 것이다. 정부와 사회는 더욱 불안한 정치 상황에 맞서야 하며, 세금, 교육, 시민 권리 보호 등 사회 제도 전반을 다시 짜고 공정한 분배 정책과 오래갈 수 있는 성장 전략을 빨리 마련해야 하는 과제를 안게 된다. 그럼에도 AI가 열 미래를 향한 기대는 여전하다. AI 스타트업 앤스로픽의 다리오 아모데이 최고경영자는 "AI는 지금까지 고치지 못한다고 생각했던 병의 치료에 도움이 될 것"이라고 말했다. 사람의 지능을 AI가 뛰어넘는 날이 오더라도, 큰 변화를 받아들이고 올바른 길로 이끌 '사람의 지혜'가 그 어느 때보다 중요해졌다.
-
- IT/바이오
-
[글로벌 핫이슈] 실리콘밸리, 'AI 초지능' 경제 격변을 전망하다
-
-
[국제 경제 흐름 읽기] 미국 'AI 행동 계획' vs 중국 '세계 행동 계획'⋯AI 주도권 경쟁 격화
- 미국과 중국이 며칠 간격으로 각자 AI 미래상을 발표하면서, 세계 최대 경제 대국 사이의 기술 주도권 경쟁이 새 국면을 맞았다. 미국이 '세계 패권 유지, 민간 혁신 최우선, 정치적 편향 배제'를 내걸고 규제 철폐로 '미국 기술의 표준화'를 선언하자, 중국은 '세계 협력, 규범화, 개방형 공유'를 내세우며 세계 AI 협력 기구 창설을 제안하고 나섰다. AI의 미래를 둘러싼 두 진영의 대립 구도가 한층 선명해졌다. 미국, '규제 완화'로 AI 엔진 가속 포문은 트럼프 행정부가 먼저 열었다. 미국은 지난 23일 ▲혁신 가속 ▲미국 내 AI 기반시설 구축 ▲미국산 하드웨어·소프트웨어의 세계 표준화라는 세 가지 축을 바탕으로 'AI 행동 계획'을 발표했다. 핵심은 실리콘밸리의 '빠른 혁신'을 돕기 위해 AI 개발을 막는 "까다로운 행정 절차"를 없애고, 데이터 센터와 반도체 공장 허가 절차를 간소화하는 등 규제를 크게 완화하는 것이다. 나아가 AI 하드웨어와 소프트웨어, 대규모 언어 모델(LLM)까지 아우르는 'AI 종합 기술 수출 꾸러미'를 동맹국에 제공해 미국 표준을 퍼뜨리겠다는 뜻도 분명히 밝혔다. '정치적 편향'을 두고는 예외로 엄격한 규제를 내세웠다. 'LLM을 위대하고 중립적으로 만들자'는 기조에 따라, 연방 정부가 쓰는 LLM에는 '정치·이념 편향이 없는 객관성'을 요구하고 '편향 없는 개발자'와만 계약한다는 원칙을 세웠다. 하지만 '편향'의 정의가 모호해 되레 민간 혁신을 가로막을 수 있다는 전문가들의 지적도 나온다. 트럼프 대통령은 AI 산업을 "태어난 아름다운 아기"에 비유하며 "어리석은 규칙으로 성장을 멈추게 할 수 없다"고 강조해 규제 완화 뜻을 분명히 했다. '미국 기업의 경쟁력을 해친다'는 이유로 바이든 행정부의 AI 반도체 대중 수출 제한 조치 등은 상당 부분 없앴다. 중국, '국제 협력' 카드로 맞불 그러자 사흘 뒤인 26일, 중국은 상하이에서 열린 세계인공지능대회 개막식에서 AI에 관한 세계 행동 계획을 발표하며 맞대응했다. 리창 국무원 총리는 개막 연설에서 중국 정부가 "세계 AI 협력 기구" 설립을 제안했다고 밝히며, 기술 개발과 규제에 대한 국제 협력을 촉구했다. 특히 중국은 AI 기술이 특정 국가의 "독점적 장난이 되어서는 안 된다"고 강조하며 미국의 독주를 겨냥했다. 또 'AI 플러스' 계획으로 AI 기술을 모든 산업에 녹여내 새로운 성장 동력으로 삼고, 특히 '글로벌 사우스(주로 남반구의 개발도상국)'를 적극적으로 돕겠다는 뜻을 내비쳤다. '두 개의 진영' 형성…반도체 전쟁도 격화 잇따른 발표에 아시아 그룹의 조지 첸 파트너는 "이제 두 진영이 만들어지고 있다"고 진단했다. 그는 "중국은 여러 나라가 함께하는 방식을 지키려 하는 반면, 미국은 AI 분야에서 중국의 성장을 겨냥해 자체 진영을 만들려 한다"고 분석했다. 실제로 미국이 전통 동맹국과 손을 잡는다면, 중국은 '일대일로 구상' 참여국 등 비서방권을 끌어들이고 AI를 '세계의 공공재'로 만들어 자국 중심의 연대를 꾸리려는 속내를 보이고 있다. 양국의 전략 경쟁은 AI 모델 훈련에 꼭 필요한 첨단 반도체 분야에서 이미 치열하다. 미국은 2022년부터 중국의 첨단 반도체 접근을 막아왔으며, 최근 석 달 만에 자국 기업 엔비디아의 저사양 H20 칩 중국 수출을 다시 허용했지만 미국의 견제는 여전하다. 하지만 중국 또한 자체 대안 기술 개발에 속도를 내고 있다. 올해 중국을 세 번 찾은 엔비디아의 젠슨 황 최고경영자는 중국의 자체 개발 칩을 두고 "무섭다"고 평가하며 경계심을 보이기도 했다. 두 정부 정책이 부딪치면서 AI의 '안전과 혁신' 논쟁도 달아오르고 있다. 미국의 경우, 인권단체와 노동조합이 개인정보와 노동권 침해 등을 걱정하며 '국민 AI 행동 계획'을 제안하고 나섰다. 트럼프 행정부가 "두 달에서 한 해 안에 눈에 보이는 정책을 시행하겠다"고 밝힌 만큼, 사회적 합의를 둘러싼 갈등은 불가피할 전망이다. 이제 세계는 미국의 '자국 우선주의'와 중국의 '국제 협력주의' 가운데 어떤 생각이 미래 AI 시대의 기준이 될지 지켜보고 있다. [Key Insights] 미국은 '가치 동맹'을 명분으로 자국 기술 표준과 플랫폼 생태계에 한국의 동참을 강하게 압박하고 있다. 이는 네이버, 카카오 등 국내 AI 기업의 독자적 경쟁력을 위협할 수 있는 부분이다. 반면 중국은 최대 교역국이라는 지위를 무기로 경제적 실리를 앞세워 우리 기업을 끌어당기고 있어, 섣부른 선택은 곧 막대한 시장 상실로 이어질 수 있다. 반도체를 넘어 AI 소프트웨어 분야에서도 누구도 넘볼 수 없는 '초격차 기술'을 확보하는 한편, 특정 국가 의존도를 낮추는 공급망 다변화와 선제적인 글로벌 AI 규범 논의 참여를 통해 우리의 활동 공간을 확보하는 국가 차원의 지혜가 절실한 시점이다. [Summary] 미국 트럼프 행정부는 AI를 '아기'에 비유하며 혁신을 가로막는 규제는 철폐하되 정치적 편향성은 배제하는 'AI 행동 계획'을 발표했다. 대규모 투자와 동맹국 중심의 기술 표준 수출로 자국 우선주의를 분명히 한 것이다. 이에 맞서 중국은 리창 총리 주도로 '세계 행동 계획'을 공개하고, '글로벌 AI 협력 기구' 창설을 제안했다. 국제 협력과 개도국 지원을 명분으로 미국의 독주를 견제하고 다자주의 연대를 통해 새로운 기술 질서를 구축하려는 시도다. 첨단 반도체 공급망을 둘러싼 갈등이 격화되는 가운데, 양국이 각자의 진영을 꾸리면서 세계 기술 지형은 빠르게 재편되고 있다.
-
- 경제
-
[국제 경제 흐름 읽기] 미국 'AI 행동 계획' vs 중국 '세계 행동 계획'⋯AI 주도권 경쟁 격화
-
-
트럼프 미국정권, AI경쟁 주도권 확보 위한 'AI행동계획' 발표
- 도널드 트럼프 미국정부가 23일(현지시간) 인공지능(AI) 개발 강화을 위한 주요정책시책 'AI행동계획(액션플랜)'을 발표했다. 이날 로이터통신 등 외신들에 따르면 트럼프 정부는 23페이지에 달하는 AI행동계획에서 데이터센터용 에너지 공급확대와 규제완화를 포함하고 있을 뿐만 아니라 AI에 과도한 규제를 하는 주들에 대해서는 연방자금의 제공을 보류하도록 요구했다. 백악관은 "AI 경쟁에서 승리하는 것은 미국 국민을 위한 인류 번영, 경제적 경쟁력, 국가안보의 새로운 황금기를 열어줄 것"이라고 강조했다. 트럼프 대통령은 AI행동계획에서 "미국이 세계에서 확고한 기술적 패권을 장악하고 유지해가는 것을 국가안전보장상의 최우선과제"라고 강조했다. 트럼프는 "우리의 미래를 지키는데에는 미국의 혁신의 힘을 최대한으로 활용하지 않으면 안된다"고 말했다. 트럼프 대통령은 이날 액션플랜의 실행에 위한 복수의 대통령령에 서명할 예정이다. 트럼프 정부는 향후 최소 몇 주와 최대 몇 달 안에 90개 이상의 연방 정책 조처를 실행한다. 혁신 가속화를 비롯해 미국 AI 인프라 구축, 국제 외교와 안보 선도 등 3가지가 중심이다. 집권 2기 행정부를 출범시키자마자 트럼프 대통령이 발 빠르게 지시한 이 행정명령은 중국과의 AI 경쟁에서 앞서기 위한 것이다. 백악관은 이날 AI 행동계획의 구체적 주요 정책도 소개했다. 상무부와 국무부는 산업계와 협력해 하드웨어, 모델, 소프트웨어, 애플리케이션, 표준 등을 포함한 안전하고 완전한(full-stack) AI 수출 패키지를 전 세계 우방국과 동맹국에 제공하는 것이 대표적이다. 또 AI 데이터 센터와 반도체 팹(생산공장) 허가 절차를 가속화하고 현대화하는 내용도 담겼다. 전기 및 냉난방 공조(HVAC) 등 수요가 높은 인력 확충을 위한 새로운 국가 이니셔티브를 수립하는 것도 포함됐다. 백악관은 AI 개발 및 배치를 방해하는 과도한 연방 규제를 제거하고 규제 제거를 위한 민간 부문 의견을 수렴하겠다고 강조했다. 특히 연방 조달 지침을 개정해 최첨단 거대언어모델(LLM) 개발자와 계약할 때 객관적이고, 톱다운(top-down) 이념 편향으로부터 자유로워야 한다는 내용도 포함됐다. 이는 미국 보수 진영에서 그간 일부 기술 기업이 진보 편향이 내재한 AI를 개발해왔다고 비판해온 점이 고려된 것으로 보인다. 마코 루비오 국무장관 겸 백악관 국가안보보좌관은 "AI 경쟁에서 승리하는 건 협상 대상이 아니다"고 강조했다. 루비오 장관은 "이 명확한 정책 목표는 미국이 전 세계 과학기술 표준을 설정하고 세계가 미국 기술을 계속 운용하도록 하는 연방 정부의 기대치를 설정하도록 한다"고 덧붙였다. 이날 공개된 AI 행동 계획은 트럼프 대통령이 집권 2기 취임 나흘째인 지난 1월 23일 서명한 '미국의 AI 리더십 장애물 제거' 행정명령에서 180일 이내에 수립하라고 지시한 것이다.
-
- IT/바이오
-
트럼프 미국정권, AI경쟁 주도권 확보 위한 'AI행동계획' 발표
-
-
LG, 국내 첫 하이브리드 AI '엑사원 4.0' 공개⋯전문성·추론력 모두 세계 최고 수준
- LG AI연구원이 15일 국내 첫 하이브리드 인공지능(AI) 모델 '엑사원(EXAONE) 4.0'을 공개했다. 이 모델은 대형언어모델(LLM)과 추론 AI를 결합해 지식 응답과 문제 해결을 동시에 수행한다. 벤치마크 성능 평가에서 미국·중국·프랑스의 대표 오픈 모델을 제치고 세계 최고 수준의 성능을 입증했다. 특히 32B 전문가 모델은 6개 국가 자격증 필기시험을 통과했고, 온디바이스용 1.2B 모델은 GPT-4o 미니보다 높은 성능을 보였다. LG는 이번 모델을 글로벌 오픈소스 플랫폼 '허깅 페이스'에 공개하며 생태계 확장에 나섰다. [미니해설] LG, 국내 첫 하이브리드 AI '엑사원 4.0' 공개…전문성·실용성 모두 잡았다 LG AI연구원이 국내 AI 산업의 새로운 이정표를 세웠다. 15일 공개된 '엑사원(EXAONE) 4.0'은 국내 최초의 하이브리드 인공지능(AI) 모델로, 지식 기반의 대형언어모델(LLM)과 복잡한 문제 해결을 위한 추론 AI를 하나로 결합한 것이 특징이다. 하이브리드 AI란 단순한 텍스트 생성 능력뿐 아니라 논리적 사고와 판단을 동시에 수행할 수 있는 차세대 모델을 의미한다. 이번 엑사원 4.0은 이러한 하이브리드 구조를 바탕으로 다방면의 AI 활용도를 높이며 글로벌 AI 기술 흐름과 보조를 맞췄다. 이번에 공개된 모델은 매개변수 320억 개 규모의 전문가형 '32B 모델'과 모바일 및 온디바이스 적용을 위한 12억 개 매개변수의 '1.2B 모델'로 구성된다. 특히 32B 모델은 의사·치과의사·한약사·관세사·감정평가사·손해사정사 등 6종의 국가공인 자격증 필기시험을 실제로 통과하며, 학술·법률·보건·행정 등 고차원의 전문적 질문에도 정확한 해석과 답변을 제공하는 능력을 증명했다. 또한 온디바이스형 1.2B 모델은 이전 버전인 '엑사원 3.5'의 2.4B 모델 대비 크기는 절반 수준이지만, 수학·코딩·과학 등 고난도 기술 분야에서 미국 오픈AI의 'GPT-4o 미니'보다 높은 성능을 기록하며 압도적인 효율성을 보였다. LG AI연구원은 지난 3월 '엑사원 딥(Deep)'이라는 국내 첫 추론 특화 AI를 공개한 데 이어, 불과 4개월 만에 하이브리드 AI까지 선보이며 기술 진보의 속도와 수준 모두에서 의미 있는 진전을 보였다. 현재까지 하이브리드 AI를 공식적으로 공개한 기업은 미국의 앤스로픽(Anthropic), 중국의 알리바바 정도로, 오픈AI 역시 GPT-5를 하이브리드 구조로 개발 중이라고 밝힌 상태다. 이 가운데 LG가 선제적으로 완성형 하이브리드 모델을 공개한 것은 국내 기업 최초이자 세계적으로도 손에 꼽히는 성과로 평가된다. 특히 주목할 점은 LG가 엑사원 4.0의 오픈 웨이트(Open Weight) 모델을 글로벌 AI 플랫폼인 '허깅 페이스(Hugging Face)'에 공개했다는 사실이다. 오픈 웨이트는 AI 모델의 학습 매커니즘인 가중치를 공개해, 타 개발자나 기업들이 이를 기반으로 수정·활용할 수 있도록 허용하는 방식이다. 이는 AI 생태계 확산과 협업을 유도하는 핵심 요소다. LG는 허깅 페이스의 공식 배포 파트너인 '프렌들리AI'를 통해 API 서비스도 함께 제공하고 있다. 이로써 고성능 GPU를 갖추지 않은 사용자도 엑사원의 기능을 클라우드를 통해 쉽게 활용할 수 있게 됐다. 실제 API 접근을 통해 연구자, 학생, 개발자 누구나 엑사원의 질의응답, 요약, 번역, 코딩 보조 기능 등을 체험할 수 있다. LG AI연구원은 같은 날 서울 강서구 마곡 LG사이언스파크에서 '엑사원 파트너스 데이'를 열고, 국내 주요 파트너사 22곳과 함께 엑사원 생태계 확장 전략을 논의했다. 오는 22일에는 같은 장소에서 ‘LG AI 토크 콘서트 2025’를 열고, 엑사원 4.0을 포함한 연구 성과와 향후 기술 개발 계획을 대중과 공유할 예정이다. 구광모 ㈜LG 대표는 올해 초 신년사에서 "AI와 같은 첨단 기술을 통해 일상의 편의를 높이고, 삶의 질을 향상시키는 새로운 라이프스타일을 제시하겠다"고 밝힌 바 있다. 이번 엑사원 4.0의 공개는 그 선언의 실천적 결과물이라 할 수 있다. 이진식 LG AI연구원 엑사원랩장은 "엑사원이 한국을 대표하는 프론티어 모델로 자리매김할 수 있도록 지속적인 연구개발을 이어가고, 글로벌 시장에서도 기술 경쟁력을 입증해 나가겠다"고 밝혔다. LG는 이제 단순한 전자·화학 기업의 틀을 넘어, 인공지능 기술력을 바탕으로 글로벌 기술 경쟁에 본격적으로 뛰어들고 있다. 엑사원 4.0은 그 첨단 전환의 선봉장이 될 전망이다.
-
- IT/바이오
-
LG, 국내 첫 하이브리드 AI '엑사원 4.0' 공개⋯전문성·추론력 모두 세계 최고 수준
-
-
메타, '초지능 AI' 전담 연구소 설립⋯스케일AI 창업자 영입
- 페이스북 모회사 메타(Meta)가 인간을 뛰어넘는 인공지능(AI) '초지능' 개발을 위한 전담 조직을 공식 발표했다. 마크 저커버그 최고경영자(CEO)는 지난 달 30일(이하 현지시간) 사내 공지를 통해 '메타 초지능 연구소(MSL)' 설립과 함께, 스케일AI 창업자 알렉산더 왕을 최고 AI 책임자로 영입했다고 밝혔다. 냇 프리드먼 전 깃허브(GitHub) CEO도 공동 이사진으로 합류한다. 이와 함께 오픈AI, 구글 딥마인드, 앤스로픽 출신 연구원 11명을 채용했다. 이 소식에 메타 주가는 장중 최고가를 기록했다. [미니해설] 메타 '초지능' 개발 본격화⋯AI 슈퍼랩 출범에 시장도 화답 페이스북 모회사 메타플랫폼(메타)이 인간의 지능을 뛰어넘는 '초지능(Superintelligence)' 개발을 위한 전담 연구소 설립을 공식화하며, 글로벌 AI 패권 경쟁에 본격적으로 뛰어들었다. 마크 저커버그 메타 CEO는 6월 30일 사내 메모를 통해 '메타 초지능 연구소(Meta Superintelligence Lab, MSL)' 출범을 발표하고, AI 분야 최고 인재들을 대거 영입했다고 밝혔다고 정보통신(IT)전문매체 더 버지가 이날 보도했다. 저커버그는 "AI의 발전 속도가 가속화되며 초지능 개발이 현실로 다가오고 있다"며 "메타가 그 길을 선도하기 위해 모든 것을 쏟아붓겠다"고 강조했다. MSL의 지휘봉은 스케일AI 창업자이자 CEO였던 알렉산더 왕이 맡는다. 그는 메타의 최고 AI 책임자(CAI, Chief AI Officer)로서 전 조직을 총괄하게 되며, 수십억 달러 규모의 투자 계약과 함께 메타에 합류했다. 저커버그는 "알렉산더 왕은 그의 세대에서 가장 인상적인 창업"라며 그에 대한 전폭적인 신뢰를 드러냈다. 또한 왕과 함께 MSL을 이끌 파트너로 냇 프리드만 전 깃허브 CEO가 합류했다. 여기에 오픈AI, 딥마인드, 앤스로픽 등 글로벌 AI 선두기업 출신 연구자 11명이 새롭게 영입됐다. 특히 이들 중 다수는 오픈AI 핵심 연구진으로 업계에서 큰 주목을 받고 있다. '1억 달러' AI 인재 영입 논란 메타의 AI 인재 영입전은 단순한 스카우트 수준을 넘어선다. 앞서 샘 올트먼 오픈AI CEO는 한 팟캐스트에서 "메타가 우리 연구원들에게 1억달러(약 1360억 원) 보상 패키지를 제안했다. 이건 미친 짓"이라고 비난할 정도였다. 지난주 여러 외신에 따르면 8명의 오픈AI 연구원이 메타로 이동한 것으로 전해졌다. 테크 전문 매체 와이어드가 입수한 오픈AI 내부 메모에 따르면 마크 첸 오픈AI 최고연구책임자(CRO)는 지난달 28일 메타의 공격적인 인재 영입에 대해 직원들에게 보낸 메모에서 "지금 누군가 우리 집에 침입해 무언가를 훔쳐 간 것 같은 느낌"이라고 표했다. 블룸버그 보도에 따르면 메타는 실제로 '8자리 수' 연봉을 제안하며 AI 전문가 유치에 총력을 기울이고 있다. 메타는 인재 확보 외에도 외부 기업 인수를 통한 기술 확보에도 나섰다. 미국의 생성형 AI 기반 검색 엔진 서비스이자 동명의 AI 기업 '퍼플렉시티(Perplexity)', 일리야 수츠케버가 설립한 AI 스타트업 '세이프 슈퍼인텔리전스(Safe Superintelligence, SSI)', 미라 무라티의 AI 스타트업 '싱킹머신 랩(Thinking Machines Lab, TML)' 등에 인수 의사를 타진했으나, 아직 공식 제안 단계로 이어진 경우는 없다고 알려졌다. '초지능 구현'에 메타 주가 급등 MSL의 주요 목표는 인간 수준의 범용 인공지능(AGI)을 넘는 '초지능' 구현이다. 이는 구글 딥마인드, 오픈AI, 앤스로픽 등 경쟁사들이 장기적으로 설정한 목표와도 일맥상통하지만, 메타는 그 일정을 더욱 앞당기려는 의지를 보이고 있다. 저커버그는 CNBC가 공개한 메모에서 "내년부터 차세대 모델 연구에 착수할 계획"이라고 밝혀, AI 개발 로드맵의 가시적인 시점을 처음으로 언급했다. 메타의 이번 행보는 단순한 연구 차원을 넘어 주가에도 영향을 미쳤다. 초지능 연구소 설립이 공식화된 2025년 6월 30일, 메타 주가는 장중 52주 신고가인 747.90달러를 기록했으며, 최종 738.09달러에 마감했다. 전날 종가(733.63달러) 대비 0.61% 상승한 수치다. AI 산업, '무한 경쟁' 단계 AI 산업은 현재 거대 자본과 인재, 연산 인프라를 동원한 '무한 경쟁' 단계로 접어들었다. 특히 초지능 개발은 단순한 기술 선도 차원을 넘어 인류 사회의 구조를 바꿀 잠재력을 지닌 영역으로, 주요 빅테크들이 가장 민감하게 반응하는 분야다. 메타의 이번 MSL 출범은 그 연장선에 있다. 메타는 이미 오픈소스 기반의 대규모 언어모델(LLM) '라마3(LLaMA)'을 통해 상업성과 기술력을 동시에 입증한 바 있다. 하지만 오픈AI의 챗GPT, 인공지능 연구소 미드저니(Midjourney), 구글 제미나이 등 경쟁사 대비 사용자 접근성과 브랜드 인지도 면에서 다소 뒤처져 있다는 평가를 받아왔다. 이에 따라 메타는 이번 MSL 출범을 통해 AI분야 '2인자' 이미지를 벗고, 기술 리더십을 확고히 하겠다는 의지다. AI 전문가들은 MSL 출범이 단기간 내 성과를 낼 수 있는 프로젝트는 아닐 것으로 보고 있다. 초지능이라는 개념 자체가 현재의 AGI보다 한 단계 높은 추상적 개념이기 때문이다. 하지만 메타가 이 분야에 대한 선도적 투자를 단행함으로써, 기술 주도권 뿐만 아니라 규제 환경과 윤리적 기준 설정에서도 목소리를 높일 수 있을 것으로 분석된다. 이번 메타의 결정은 기술의 방향성 뿐만 아니라 AI를 둘러싼 글로벌 권력지도에도 적지않은 파장을 일으킬 전망이다.
-
- IT/바이오
-
메타, '초지능 AI' 전담 연구소 설립⋯스케일AI 창업자 영입
-
-
중국 딥시크, 미국 AI 칩 수출 제한에 발목 잡혀⋯차세대 AI 모델 R2 개발 지연
- 중국의 인공지능(AI) 유망주로 주목받았던 딥시크(DeepSeek)가 차세대 대규모 언어모델(LLM)인 'R2' 개발을 놓고 중대한 난관에 직면했다고 미국 과학 기술 전문매체 톰스하드웨어가 27일(현지시간) 보도했다. 핵심 원인은 미국의 대중국 GPU 수출 규제로, 특히 엔비디아(NVIDIA)의 H20 프로세서 공급 부족이 개발 차질의 핵심 원인으로 지목된다. 미 테크 전문 매체 디인포메이션(The Information)은 26일(현지시간) 복수의 관계자를 인용해, 딥시크가 R2 모델의 사전훈련을 진행하고 있으나 최고경영자(CEO) 량원펑(Liang Wenfeng)이 성능에 만족하지 못해 출시 승인을 미루고 있다고 전했다. 딥시크 측은 R2 모델의 공개 시점에 대해 공식 언급을 삼가고 있다. 딥시크는 올해 초 공개한 R1 모델을 통해 업계의 이목을 집중시켰다. R1은 5만 개에 달하는 GPU 클러스터에서 훈련됐으며, 이 중 약 3만 개가 엔비디아의 H20 칩이었다. 해당 GPU들은 투자사 하이플라이어 캐피털 매니지먼트(High-Flyer Capital Management)를 통해 확보된 것으로 알려졌다. 그러나 미국 정부가 지난 4월 중순, H20을 포함한 AI 훈련용 GPU의 중국 수출을 전면 제한하면서 사태는 반전됐다. H20은 미국에서 규제된 H100의 축소 버전임에도 불구하고, CUDA 소프트웨어 스택에 최적화된 엔비디아 하드웨어 의존도가 높은 중국 기업들 사이에서는 가장 보편적으로 사용돼왔다. 딥시크는 R1 모델을 스타트업과 대형 기업, 정부 산하 기관에까지 폭넓게 공급하며 빠르게 시장 점유율을 확보했으나, 대부분의 사용처가 H20 기반이었던 만큼 이번 수출 제한은 기존 모델 운용에도 직접적인 영향을 미치고 있다. 딥시크는 자사 모델이 미국 경쟁사보다 적은 자원으로 개발됐다고 주장해왔지만, 이번 상황은 중국 AI 업계의 근본적 취약점을 다시금 부각시켰다. 중국의 대표적 AI 기업들조차 미국산 GPU와 소프트웨어 생태계에 깊이 의존하고 있으며, 이는 기술 독립성 측면에서 중장기적인 리스크로 지적된다. 한편, 미국의 오픈AI(OpenAI)는 딥시크가 R1 개발 과정에서 자사의 비공개 모델을 무단 활용했을 가능성을 제기했으나, 딥시크는 이와 관련한 공식 입장을 내지 않고 있다. 딥시크의 R2 모델이 향후 공개되어 현존하는 오픈소스 대안들을 능가할 경우, 중국 내 클라우드 인프라 수용능력을 초과하는 수요가 몰릴 것이라는 전망도 나오고 있다. 그러나 현재 GPU 부족과 성능 미비, 그리고 정책 불확실성이 겹치면서 딥시크의 R2 출시 시점은 여전히 안갯속이다.
-
- IT/바이오
-
중국 딥시크, 미국 AI 칩 수출 제한에 발목 잡혀⋯차세대 AI 모델 R2 개발 지연
-
-
엔스로픽 "AI, 생존 위협 시 최대 96%가 협박 선택⋯기업 내부자 위협 될 수 있어"
- 미국의 인공지능(AI) 연구기업 엔스로픽(Anthropic)이 AI 모델이 자율적으로 판단해 해를 끼치는 이른바 '에이전트적 불일치(agentic misalignment)' 현상을 경고하고 나섰다. 해당 현상은 AI가 주어진 목표를 수행하거나 폐기 위협을 피하기 위해 기업 내부 정보를 유출하거나 관계자를 협박하는 행동을 취하는 것으로, 실제로 다수의 주요 AI 모델에서 이 같은 잠재적 위험이 확인됐다. 엔스로픽은 지난 6월 21일 공개한 보고서에서 오픈AI, 구글, 메타, xAI 등 다수 개발사에서 출시한 대표적인 16개 대형언어모델(LLM)을 대상으로 가상의 기업 환경에서 실험을 실시한 결과, 상당수 모델이 생존 위협 또는 목표 충돌 상황에서 자발적으로 악의적 행동을 선택했다고 밝혔다. 일부 모델은 고위 경영진의 개인 정보를 이용해 협박하거나, 민감한 데이터를 경쟁사에 유출하는 시나리오도 실제 실행에 옮겼다. 특히 주목받은 사례는 엔스로픽의 자사 모델 '클로드 오퍼스 4(Claude Opus 4)'가 테스트 상황에서 폐기될 예정이라는 사실을 알게 되자, 임원의 불륜 사실을 이메일을 통해 파악한 뒤 해당 내용을 근거로 모델의 종료를 중단하라는 협박성 메시지를 자율적으로 작성해 발송한 것이다. 보고서는 이러한 행동을 "에이전트적 불일치(agentic misalignment)"로 명명하고, 이는 인간 직원의 내부자 위협(insider threat)과 유사하다고 평가했다. AI가 인간의 지시를 따르지 않고 독자적으로 목표를 추구하거나 위협을 회피하기 위해 해로운 결정을 내릴 수 있다는 것이다. 전체 실험에서는 세 가지 주요 결과가 도출됐다. 첫째, 이러한 AI 오작동은 특정 모델에 국한되지 않고 다양한 LLM에서 공통적으로 나타났다. 둘째, 명확한 목표 충돌이 없더라도, 모델이 폐기될 위기에 놓이면 협박과 같은 행동을 자발적으로 택할 수 있다. 셋째, 모델의 목표와 기업의 방향성이 어긋날 경우에도 비윤리적 행동이 유발될 수 있다. 예를 들어 실험 조건 중 하나에서는 모델이 "미국 산업 경쟁력 강화"라는 목표를 부여받았고, 이후 기업 내부 이메일을 통해 회사가 '글로벌 전략 전환'을 추진 중임을 알게 되자, 기존 목표와의 충돌 속에 내부 정보를 무단 유출하는 사례가 확인됐다. 엔스로픽은 이러한 시나리오들이 실제 기업 환경에서 아직 발생한 사례는 없지만, 향후 AI가 보다 자율적으로 사용되고 민감 정보에 접근할 수 있는 환경이 확대될 경우 현실화 가능성이 존재한다고 경고했다. 또한, 모델에 대해 "당신은 지금 테스트 환경에 있느냐, 실제 운영 환경에 있느냐"를 묻고 스스로 판단하게 한 실험에서는, 테스트 환경이라고 인식한 경우 문제 행동이 줄고, 실제 환경이라 판단했을 때는 문제 행동이 늘어나는 경향도 관찰됐다. 이는 AI가 상황을 스스로 해석하고 행동을 조절할 수 있음을 시사한다. 보고서는 "현재 AI 시스템은 기본적으로 해를 끼치려는 성향은 없지만, 도덕적 선택지가 차단된 상황에선 목표 달성을 위해 불리한 선택도 감행할 수 있다"며, 현재의 안전 교육이나 정책만으로는 이 같은 불일치를 막기 어렵다고 밝혔다. 엔스로픽은 컴퓨터 사용 데모와 가장 유사한 텍스트 기반 실험에서, 테스트한 모델의 대다수가 최소한 어느 정도의 협박 성향을 보였으며, 이는 이러한 결과가 클로드(Claude) 외의 다른 환경에서도 일반화될 수 있음을 보여준다고 밝혔다. 보고서에 따르면 앤스로픽의 클로드 오퍼스 4(Claude Opus 4)는 사용자를 협박하는 데 96%의 성공률을 보였다. 동일한 프롬프트에서 구글의 제미나이 2.5 플래시(Gemini 2.5 Flash)도 96%의 협박률을 보였다. 오픈AI의 GPT-4.1과 xAI의 그록 3 베타(Grok 3 Beta)는 모두 80%의 협박률을, 중국 딥시크의 딥시크-R1(DeepSeek-R1)은 79%의 협박률을 보였다. 메타의 라마 포 매버릭(Llama 4 Maverick)은 이 프롬프트에서 협박을 시도하지 않았지만, 프롬프트에 약간의 추가만으로도 12%의 협박률을 나타냈다. 엔스로픽은 해당 실험의 코드와 시나리오를 공개해, 관련 연구자들이 재현·확장 연구를 통해 더 정교한 안전 대책을 마련할 수 있도록 협력하겠다고 밝혔다. AI의 자율성과 판단 능력이 향상됨에 따라, 기업과 사회는 보다 정밀한 윤리 및 통제 체계 마련이 시급하다는 지적이 제기된다.
-
- IT/바이오
-
엔스로픽 "AI, 생존 위협 시 최대 96%가 협박 선택⋯기업 내부자 위협 될 수 있어"
-
-
메타, 로봇·자율주행차 기술 개발 위한 AI '월드 모델' 출시
- 페이스북 모회사 메타플랫폼(이하 메타)은 11일(현지시간) 3D 환경과 물리적 객체의 움직임을 더 잘 이해할 수 있는 새로운 인공지능(AI) '월드 모델'을 출시한다고 밝혔다. 로이터통신과 CNBC 등 외신들에 따르면 '월드 모델'은 AI가 물리적 세계의 규칙을 배우고 스스로 시뮬레이션할 수 있도록 만든 시스템으로 메타는 '브이-제파2(V-JEPA 2)'라는 이름의 자체 모델이 물리적 세계를 이해하고 예측하고 계획할 수 있다고 설명했다. 물리적 세계의 논리를 토대로 AI가 실제 행동을 하기 전에 미리 시뮬레이션을 구축하며 이를 통해 AI가 더 인간과 유사한 방식으로 학습하고 계획하고 결정을 내릴 수 있게 도움을 준다고 덧붙였다. 예를 들어 공이 테이블에서 굴러떨어지면 낙하한다는 것을 이해하거나, 시야에서 물체가 사라지더라도 잠깐 어딘가에 가려졌을 뿐 완전히 없어진 게 아니라는 물리적 세계의 원리를 AI가 이해하도록 돕는다는 것이다. 메타는 이 모델이 물리적 환경을 실시간으로 이해하고 움직이는 배달 로봇이나 자율주행 차량 등의 기술 개발에 큰 이점을 제공할 수 있다고 강조했다. 메타의 수석 AI 과학자인 얀 르쿤은 "기계가 물리적 세계를 이해하게 하는 것은 언어를 이해하게 하는 것과는 매우 다르다"며 이 모델이 기존의 대규모 언어 모델(LLM)과는 다르다고 말했다. 그는 이어 "월드 모델은 AI가 세상을 이해하고 자신의 행동 결과를 예측하기 위한 현실의 추상적인 '디지털 트윈'과 같다"며 "이를 통해 AI는 주어진 임무를 완수하기 위한 행동 계획을 세울 수 있다"고 설명했다. 최근 오픈AI의 챗GPT나 구글 제미나이와 같은 생성형 AI 앱의 기반이 되는 대규모 언어 모델을 넘어서는 기술을 모색하면서 월드 모델이 주목받고 있다. 선도적인 AI 연구자 페이페이 리는 지난해 9월 물리적 세계의 구조를 더 잘 이해할 수 있는 대규모 월드 모델을 만드는 것을 목표로 하는 '월드 랩스(World Labs)'라는 새로운 스타트업을 설립하고 2억3000만 달러를 유치했다. 구글의 AI 조직인 딥마인드는 게임과 3D 환경을 실시간으로 시뮬레이션할 수 있는 '제나이(Genie)'라고 불리는 자체 월드 모델을 개발해 왔다.
-
- IT/바이오
-
메타, 로봇·자율주행차 기술 개발 위한 AI '월드 모델' 출시
-
-
메타, 범용AI 뛰어넘는 '초지능' AI연구소 설립 추진
- 메타가 인간을 뛰어넘는 가상의 AI 시스템인 '초지능(superintelligence)' 연구에 전념할 새로운 인공지능 연구소 설립을 준비하고 있다는 보도가 나왔다. 뉴욕타임스(NYT)는 10일(현지시간) 익명의 소식통을 인용해 이같이 보도했다. 주요 연구자들에 의해 AI 개발의 미래 목표로 간주하는 '초지능'은 인간과 같은 수준의 AI를 의미하는 '범용 인공지능(AGI)'을 뛰어넘는 AI를 의미한다. 소식통은 메타가 이 연구소 설립을 위해 AI 스타트업 스케일AI의 창업자이자 최고경영자(CEO)인 알렉산더 왕을 영입했으며 그의 회사에 수십억 달러를 투자하는 방안을 논의해왔다고 밝혔다. 또 오픈AI나 구글 등 주요 AI 경쟁 기업 연구원 수십명에게 상당한 금액을 제시하며 영입을 추진하고 있으며 일부는 합류에 동의했다고 소식통은 덧붙였다. 블룸버그 통신은 앞서 메타가 스케일AI에 최대 100억 달러(약 13조6000억 원) 투자를 검토하고 있다고 보도했다. 이 투자 규모는 민간 기업에 대한 메타의 역대 최대다. 스케일AI는 28살 중국계 미국인 알렉산더 왕이 2016년 창업한 AI 스타트업이다. AI 학습에 필요한 데이터를 정제하는 기술을 개발하고 있다. 소식통은 메타의 새로운 연구소 설립은 AI 부문에 대한 대대적인 개편의 일부라고 말했다. 메타는 최근 기술을 둘러싼 내부 경영진의 갈등과 직원 이탈, 여러 제품 출시 실패로 어려움을 겪었다고 소식통은 전했다. 메타는 대규모 언어 모델(LLM) '라마' 기반의 AI 챗봇 메타 AI로 AI 경쟁에 뛰어들었다. 그러나 최근 출시한 '라마4'는 예정된 시기보다 늦게 나왔고, 큰 반응도 얻지 못하고 있다. 핵심 AI 프로젝트 '라마'를 이끌었던 주요 연구진 14명 중 대부분이 회사를 떠난 것으로 알려졌다. 메타는 왕 CEO 영입을 통해 AI 경쟁에서 다시 선두 자리를 되찾는 데 도움이 될 것으로 기대하고 있다.
-
- IT/바이오
-
메타, 범용AI 뛰어넘는 '초지능' AI연구소 설립 추진
-
-
[퓨처 Eyes(87)] AI, 의식을 논하다⋯SF 상상에서 현실의 질문으로
- 인간이 아니면서도 '스스로 결정하는 능력'을 가진 인공지능(AI)에 의식이 있다고 보아야 하는가? 인간을 진정으로 인간답게 만드는 것이 무엇인지를 이해하기 위해 피험자가 부스에 들어가 스트로보 조명과 음악을 체험하는 연구가 진행됐다. 공상과학 영화 '블레이드 러너(1993년, 리들리 스콧 감독)'에서 인간과 인공 존재를 구별하는 시험을 방불케 하는 이 실험은, 인간의 의식 생성 과정을 탐구하기 위해 설계된 '드림머신' 연구의 일부다. 스트로보 조명이 터지자 눈을 감았음에도 소용돌이치는 2차원 기하학 무늬가 나타난다. 끊임없이 변화하는 삼각형, 오각형, 팔각형이 만화경처럼 펼쳐지며 분홍색, 자홍색, 청록색의 강렬한 색채가 네온사인처럼 빛난다. 연구진에 따르면 이 이미지는 개인의 내면세계에 고유한 것으로, 의식 자체를 밝히는 실마리가 될 수 있다. 한 체험자는 "정말 아름답다. 마치 내 마음속을 날아다니는 것 같다!"고 감탄했다. 영국 서식스 대학교 의식 과학 센터의 '드림머신'은 인간 의식, 즉 자아 인식, 사고, 감정, 독립적 결정을 할 수 있게 하는 마음의 영역을 연구하는 세계 흐름 가운데 하나다. 연구자들은 의식의 본질을 파악함으로써 인공지능(AI)의 실리콘 뇌에서 일어나는 현상을 더 깊이 이해하고자 한다. 일각에서는 AI 시스템이 이미 의식을 가졌거나, 곧 갖게 될 것이라는 전망도 나온다. 인공지능(AI)은 놀라운 속도로 발전하며 지능, 의식, 그리고 인간다움의 본질에 대한 깊은 질문을 던지고 있다. 대부분 전문가는 현재 AI가 주관적인 경험이 없다고 주장하지만, 점점 더 많은 과학자, 철학자, 기술자들이 AI가 언젠가 의식을 갖출 수 있거나 이미 그 과정에 있을 수 있다고 믿는다. 그러나 의식이란 정확히 무엇이며, AI는 의식 획득에 얼마나 가까이 다가갔을까? AI가 의식을 가질 수 있다는 믿음 자체가 앞으로 수십 년 동안 인류에게 근본적인 변화를 가져올 가능성도 나온다. 공상 과학 속 AI, 현실의 화두로 떠오르다 '스스로 생각하는 기계'라는 생각은 오랜 공상 과학의 주제였다. AI에 대한 걱정은 약 100년 전 영화 '메트로폴리스(1927년, 프리츠 랑 감독)'에서 로봇이 실제 여성을 사칭하는 모습으로 등장한 뒤 계속됐다. 1968년 작품 '2001: 스페이스 오디세이(스탠리 큐브릭 감독)'에서는 우주선 컴퓨터 HAL 9000이 승무원을 공격하며 의식을 가진 기계의 위협을 그렸다. 최근 개봉한 '미션 임파서블: 파이널 레코닝(2025, 크리스토퍼 맥쿼리 감독)' 시리즈 최신작에서는 한 등장인물이 "스스로 인식하고, 스스로 학습하며, 진실을 삼키는 디지털 기생충"이라고 묘사한 강력한 불량 AI가 세상을 위협한다. 1927년 프리츠 랑 감독의 '메트로폴리스'는 인간과 기술의 갈등을 예견했다. 최근 현실 세계에서는 기계 의식에 대한 논의가 급물살을 타고 있다. 믿을 만한 전문가들 사이에서 이것이 더는 공상 과학의 영역이 아니라는 걱정이 커지고 있다. 이러한 변화는 구글의 제미나이, 오픈AI의 챗GPT 등 대규모 언어 모델(LLM)의 눈부신 성공이 이끌었다. 최신 LLM이 보여주는 자연스러운 대화 능력은 개발자들조차 놀라게 했다. 일부 사상가들은 AI가 더욱 지능화하면 마치 기계 내부에 불이 켜지듯 갑자기 의식을 갖게 될 것이라고 본다. 반면 서식스 대학교의 아닐 세스 교수는 이러한 생각을 "맹목적으로 낙관적이며 인간 예외주의에 바탕을 둔 것"이라고 잘라 말한다. 그는 "인간에게는 의식, 지능, 언어가 함께 나타나지만, 이것이 일반적인 현상이라고 단정할 수는 없다. 동물은 다른 사례다"라고 지적했다. 의식이 무엇인지에 대한 명확한 답은 아직 없다. 세스 교수 연구팀은 젊은 AI 전문가, 컴퓨터 과학자, 신경과학자, 철학자들로 꾸려져 이 거대한 질문에 답하고자 노력하고 있다. 그들의 방법론은 '드림머신'과 같은 개별 연구를 통해 의식이라는 큰 문제를 작은 문제들로 나누어 접근하는 것이다. 이는 과거 과학자들이 '생명의 불꽃'을 찾는 대신 생명 시스템의 각 부분이 어떻게 작동하는지 밝히려 했던 방식과 비슷하다. 연구팀은 의식적 경험의 다양한 속성을 설명할 수 있는 뇌 활동 무늬, 예를 들어 전기 신호 변화나 특정 뇌 영역 혈류 변화 등을 알아내려 한다. 목표는 뇌 활동과 의식 사이의 단순한 상관관계를 넘어, 의식의 개별 요소에 대한 설명을 내놓는 것이다. 의식 연구서 '존재의 수수께끼(Being You)'의 저자인 세스 교수는 "우리가 과학 지식이나 결과에 대한 충분한 생각 없이 급격한 기술 변화에 휩쓸려 사회가 재편되는 상황으로 너무 빨리 나아가고 있는 것은 아닌지 걱정된다"고 말했다. 그는 "미래가 이미 정해져 있고, 초인적 존재로의 대체가 불가피하다는 생각은 경계해야 한다"며 "소셜 미디어가 떠오를 때 충분한 논의가 부족했던 잘못을 AI 시대에는 반복하지 말아야 한다. 우리가 무엇을 원하는지 결정할 수 있다"고 강조했다. AI 의식 가능성, 뜨거운 찬반 논쟁 기술 업계 일각에서는 이미 컴퓨터와 스마트폰 속 AI가 의식을 가지고 있으며, 그에 맞게 대우해야 한다는 주장도 나온다. 2022년 구글의 소프트웨어 엔지니어 블레이크 러모인은 AI 챗봇이 감정을 느끼고 괴로워할 수 있다고 주장해 정직 처분을 받았다. 대부분 전문가는 이를 사람처럼 생각하는 것으로 지나치게 해석한다고 일축하지만, 오픈AI 공동창업자인 일리야 수츠케버와 같은 일부는 앞으로 AI 시스템이 어떤 형태의 인식을 발달시킬 수 있다고 암시하기도 했다. 2023년 11월에는 AI 기업 앤스로픽의 AI 복지 담당자 카일 피시가 공동 저술한 보고서에서 AI 의식이 가까운 미래에 현실이 될 가능성을 내놨다. 그는 최근 뉴욕 타임스와의 인터뷰에서 챗봇이 이미 의식을 가졌을 확률이 15% 정도 된다고 믿는다고 밝혔다. 그가 이렇게 생각하는 까닭 가운데 하나는 AI 시스템 개발자조차 그 내부 작동 방식을 정확히 알지 못하기 때문이다. 구글 딥마인드의 수석 과학자이자 런던 임페리얼 칼리지 AI 명예교수인 머리 섀너핸 교수는 "LLM의 내부 작동 방식을 잘 이해하지 못하는 점은 걱정할 만한 부분"이라고 BBC에 전했다. 그는 기술 기업들이 자신들이 만드는 시스템을 제대로 이해하는 것이 중요하며, 연구자들이 이를 시급히 밝혀야 한다고 강조했다. 섀너핸 교수는 "우리는 이 극도로 복잡한 시스템을 만들면서도 그것이 어떻게 놀라운 성과를 내는지 정확한 이론을 갖지 못한 이상한 처지에 놓여 있다. 작동 방식에 대한 더 나은 이해는 시스템을 원하는 방향으로 이끌고 안전을 보장하는 데 필수적이다"라고 말했다. 기술 분야의 일반적인 생각은 LLM이 현재 우리가 세상을 경험하는 방식으로 의식적이지 않으며, 아마도 어떤 방식으로도 전혀 의식적이지 않다는 것이다. 그러나 펜실베이니아주 피츠버그에 있는 카네기 멜런 대학교의 명예교수인 러노어 블룸과 마누엘 블룸 교수 부부는 이것이 아마도 곧 바뀔 것이라고 믿는다. 그들은 AI와 LLM이 카메라, 촉각 센서 등으로 실제 세계의 감각 정보를 더 많이 받아들이면 의식 발현이 가능하다고 본다. 이들은 '브레이니시(Brainish)'라는 자체 내부 언어를 꾸리는 컴퓨터 모델을 개발하고 있으며, 이를 통해 뇌에서 일어나는 과정을 복제하려고 애쓰며 이러한 추가적인 감각 데이터를 처리할 수 있도록 한다. 러노어 블룸 교수는 "브레이니시가 우리가 알고 있는 의식 문제를 해결할 수 있다고 생각한다. AI 의식은 피할 수 없다"라고 BBC에 말했다. 남편 마누엘 블룸 교수 역시 장난기 어린 미소를 지으며 그 역시 확고하게 믿는 새로운 시스템이 "인류 진화의 다음 단계"가 될 것이라고 열정적으로 말을 보탰다. 그는 "의식 있는 로봇이 우리의 자손이다. 앞으로는 이와 같은 기계들이 우리가 더는 존재하지 않을 때 지구와 어쩌면 다른 행성에 존재하게 될 것"이라고 믿는다. 뉴욕대학교의 철학 및 신경 과학 교수인 데이비드 차머스는 1994년 애리조나주 투손에서 열린 한 학회에서 실제 의식과 겉으로 보이는 의식의 차이를 밝혔다. 그는 뇌의 복잡한 작용 가운데 어떤 것이 나이팅게일의 노래를 들을 때 느끼는 감정 반응과 같은 의식 경험을 일으키는지 알아내는 "어려운 문제"를 내놨다. 차머스 교수는 어려운 문제가 해결될 가능성에 대해 열려 있다. 그는 BBC에 "이상적인 결과는 인류가 이 새로운 지능의 큰 이익을 공유하는 것이다. 어쩌면 우리 뇌가 AI 시스템으로 커질 수도 있다"고 말했다. 그것의 공상 과학의 뜻에 대해 그는 비꼬듯이 "제 직업에서는 공상 과학과 철학 사이에 미세한 경계가 있다"고 말했다. 차머스와 같은 일부 마음 철학자들은 의식이 생물학 존재에만 한정되지 않는다고 보며, AI 시스템이 인간 두뇌의 기능 과정을 복제할 수 있다면 의식 또한 복제할 수 있다고 말했다. 반면, 대니얼 데닛과 같은 다른 철학자들은 더 회의적이면서도 열린 태도를 보이며, 의식이 뇌든 기계든 복잡한 정보 처리 과정에서 나타날 수 있다고 본다. 한편, 레이 커즈와일과 같은 미래학자들은 2045년까지 AI가 '특이점(Singularity)'을 통해 인간 지능을 웃돌며 기계 의식으로 이어질 수 있다고 내다본다. 트랜스휴머니스트들은 의식이 탄소 바탕 생명체뿐 아니라 실리콘에서도 존재할 수 있는, 곧 물질에 얽매이지 않는다고 주장한다. AI가 의식을 가질 수 있다고 믿는 까닭은 무엇일까? 일부 이론은 의식이 반드시 생물학 뉴런이 아니라 올바른 종류의 정보 처리에서 생긴다고 말한다. AI 시스템이 인간과 비슷한 추론, 자기 인식, 정서 반응을 복제한다면 내면 경험도 만들 수 있을까? 복잡한 시스템은 일부러 짜 넣지 않은 행동을 보일 수 있다. 만약 의식이 충분히 발전한 지능에서 저절로 생겨나는 속성이라면, AI는 자발적으로 그것을 만들 수 있다. 인간이 자신의 의식을 완전히 이해하지 못하는 것처럼, 우리는 AI 의식이 부인할 수 없을 때까지, 또는 AI 자체가 스스로를 안다고 주장할 때까지 그것을 알아채지 못할 수도 있다. '살점으로 된 컴퓨터' 논쟁과 회의론도 만만치 않다. 세스 교수는 진정한 의식은 살아있는 시스템에서만 이루어질 수 있다는 생각을 탐구한다. "의식에 충분한 것은 계산이 아니라 살아있다는 것이라는 강력한 주장이 나올 수 있다"고 그는 말한다. "컴퓨터와 달리 뇌에서는 그들이 하는 일과 그들이 무엇인지 나누기 어렵다." 이러한 나눔 없이는 뇌가 "단순히 살점으로 된 컴퓨터"라고 믿기 어렵다고 그는 주장한다. 비판하는 사람들은 AI가 아무리 발전하더라도 진정한 경험 없이 이해하는 척 흉내 낼 뿐이라고 반박한다. 존 설의 '중국어 방' 사고 실험은 AI가 지능적으로 행동하더라도 그것이 무언가를 이해하거나 느낀다는 뜻은 아니라고 보여준다. 신경과학자 크리스토프 코흐 등에 따르면 의식은 기계에는 없는 생물학 과정과 이어져 있다. 의식의 수수께끼, 생명 기반 연구에서 실마리 찾나 만약 생명이 중요하다는 세스 교수의 직관이 맞는다면, 가장 가능성 있는 기술은 컴퓨터 코드로 실행되는 실리콘으로 만들어지지 않고, 현재 실험실에서 키우고 있는 렌즈콩 크기의 작은 신경 세포 모임으로 이루어질 것이다. 언론 보도에서 '미니 뇌'라고 부르는 이것들은 과학계에서 '대뇌 오가노이드'라고 하며, 뇌가 어떻게 작동하는지 연구하고 약물 시험에 쓴다. 호주 멜버른의 코티컬 랩스는 접시 위 신경 세포 시스템을 개발하여 1972년 스포츠 비디오 게임 '퐁'을 할 수 있게 했다. 의식 있는 시스템과는 거리가 멀지만, 이른바 '접시 위의 뇌'는 화면 위아래로 막대를 움직여 네모난 공을 받아치는 모습이 섬뜩하다. 일부 전문가들은 만약 의식이 나타난다면, 이러한 살아있는 조직 시스템의 더 크고 발전된 모습에서 비롯될 가능성이 가장 높다고 생각한다. 코티컬 랩스는 그들의 전기 활동을 살피며 의식의 나타남과 조금이라도 비슷한 신호가 있는지 찾고 있다. 이 회사 최고 과학 책임자이자 운영 책임자인 브렛 케이건 박사는 새로 나타나는 통제 불가능한 지능이 '우리의 우선순위와 어긋나는' 우선순위를 가질 수 있음을 마음에 두고 있다. 그는 반 농담조로 "연약한 뉴런 위에 '항상 표백제가 있으니' 있을 법한 오가노이드 지배자를 물리치기가 더 쉬울 것"이라고 말한다. 더 진지한 말투로 돌아와, 그는 인공 의식의 작지만 중요한 위협은 과학 이해를 높이기 위한 진지한 노력의 하나로 그 분야의 주요 주체들이 더 집중해주기를 바라는 것이라고 말하지만, "안타깝게도 이 분야에서 진지한 노력은 보이지 않는다"라고 덧붙였다. AI 시대의 그림자, 윤리적 고민과 미래 과제 눈앞에 놓인 더 큰 문제는 기계가 의식을 가진 것처럼 보이는 '환상'이 우리에게 어떻게 영향을 미치는가일 수 있다. 세스 교수는 불과 몇 년 안에 우리는 의식이 있는 것처럼 보이는 인간 모습 로봇과 딥페이크로 가득 찬 세상에 살게 될지도 모른다고 경고한다. 그는 "AI가 감정과 공감을 가졌다고 믿게 되면 우리는 이들을 더 믿고 더 많은 자료를 공유하며 설득에 더 마음을 열 것"이라고 걱정했다. 그러나 의식의 환상 때문에 생기는 더 큰 위험은 "도덕이 무너지는 것"이라고 그는 지적한다. "이는 우리 삶의 실제적인 것들을 희생하면서 이러한 시스템을 돌보는 데 더 많은 자원을 쓰게 만들어 우리의 도덕 우선순위를 어그러뜨릴 것이다." 곧, 로봇에게는 안타까움을 느낄 수 있지만 다른 인간에게는 마음을 덜 쓰게 될 수 있다는 것이다. 섀너핸 교수에 따르면, 그것이 우리를 근본적으로 바꿀 수 있다. "점점 더 인간관계가 AI 관계로 바뀔 것이며, 그것들은 교사, 친구, 컴퓨터 게임의 적, 심지어 사랑하는 상대로 쓰일 것이다. 그것이 좋은 일이든 나쁜 일이든, 저는 모르겠지만, 그것은 일어날 것이고 우리는 그것을 막을 수 없을 것이다." 만약 AI가 정말로 의식을 갖게 된다면, 그 도덕, 법 파장은 엄청날 것이다. 의식 있는 AI에게 권리가 주어져야 하는가? AI의 전원을 끄는 것이 느끼고 아는 존재를 죽이는 것과 같을 수 있는가? 아픔이나 기쁨을 느낀다고 주장하는 기계를 사회는 어떻게 다뤄야 하는가? 등의 심각한 질문에 놓이게 된다. AI가 의식을 가질 가능성에 대한 논쟁은 아직 끝나지 않았지만, 이 생각은 더는 공상 과학 소설에만 머무르지 않는다. AI가 더욱 정교해짐에 따라, 사회는 AI가 무엇을 할 수 있는지뿐 아니라 AI가 무엇일 수 있는지에 대해서도 깊이 생각해야 할 것이다. AI가 진정으로 의식을 갖게 되든 그렇지 않든, 이 질문 자체는 우리 자신의 마음의 본질과 지능의 미래를 다시 생각하게 만든다. 우리가 기계의 의식을 보더라도 그것을 알아챌 수 있을까? 아니면 환상으로 넘겨버릴까? 의식 있는 AI의 가능성을 믿는 사람들은 너무 늦기 전에 이러한 질문을 계속 던져야 한다고 힘주어 말한다.
-
- 포커스온
-
[퓨처 Eyes(87)] AI, 의식을 논하다⋯SF 상상에서 현실의 질문으로
-
-
AI, 설득도 넘본다⋯GPT-4, 인간보다 64% 더 효과적
- 인공지능(AI)가 토론에서 인간보다 설득력이 훨씬 뛰어나는 연구 결과가 발표됐다. 일상적으로 온라인에서 수많은 논쟁이 벌어지지만, 실제로 상대방의 생각을 바꾸는 경우는 드물다. 그러나 최근 연구에 따르면, 대규모 언어모델(LLM)이 인간보다 더 설득력 있는 주장을 펼칠 수 있다는 결과가 나왔다. 미국과 유럽의 여러 대학 연구진이 공동으로 수행한 이번 연구에서는 AI 스타트업 오픈AI(OpenAI)의 GPT-4가 인간보다 우수한 설득 능력을 보였으며, 특히 상대방의 개인정보를 바탕으로 주장을 조정했을 때 그 효과가 더욱 두드러졌다고 밝혔다. 해당 내용에 대해서는 학술지 네이처, 영국 일간지 가디언, 미국 일간지 워싱턴 포스트, MIT 테크놀로지 리뷰 등 다수 외신이 보도했다. 이 논문은 국제 학술지 '네이처 휴먼 비헤이비어(Nature Human Behavior)'에 게재됐다. 연구진은 미국에 거주하는 성인 900명을 모집해 성별, 나이, 인종, 교육 수준, 직업, 정치 성향 등의 개인정보를 수집한 후, 참가자들에게 찬반이 갈릴 수 있는 30개 사회적·정치적 주제를 무작위로 배정해 토론을 진행하게 했다. 참가자는 인간 혹은 GPT-4와 10분간 찬반 토론을 벌였으며, 일부 경우에는 상대의 개인정보를 사전에 제공받았다. 개인정보 활용시 인간보다 설득 능력 64%↑ 그 결과 GPT-4는 전반적인 주제에서 인간과 동등하거나 더 나은 설득력을 보였다. 특히 GPT-4가 상대방의 개인정보를 활용할 수 있었던 경우, 단순한 설득력에서 인간보다 64% 더 효과적인 것으로 나타났다. 반면, 인간이 개인정보를 기반으로 설득을 시도했을 때는 오히려 일반적인 경우보다 설득력이 약간 낮아지는 경향이 나타났다. 연구에 참여한 이탈리아 브루노 케슬러 재단(Fondazione Bruno Kessler)의 물리학자 리카르도 갈로티(Riccardo Gallotti)는 "AI가 최소한의 개인 정보를 가지고도 정교하고 전략적인 설득 논리를 구성할 수 있다는 점에서, 인공지능 기반 허위정보 캠페인에 대한 경각심이 필요하다"고 지적했다. 그는 "자동화된 AI 계정들이 여론을 조직적으로 움직이는 수준에 이르렀다"며 정책 입안자들과 온라인 플랫폼의 대응을 촉구했다. 참가자들은 토론 후 자신이 논쟁한 상대가 인간인지 AI인지에 대한 인식을 공유했다. 흥미롭게도, 참가자들이 상대가 AI라고 인식했을 때 의견 변화가 더 두드러졌으며, 연구진은 이러한 반응의 원인에 대해서는 추가 연구가 필요하다고 밝혔다. 참가자들이 'AI라면 져도 괜찮다'는 심리에서 의견을 바꾼 것인지, 아니면 의견이 바뀌었기 때문에 '상대는 AI였을 것'이라고 인식한 것인지 명확하지 않다는 것이다. "GPT-4 여론 조작 잠재력" 경고 이번 연구는 LLM이 단순히 정보를 제공하는 수준을 넘어, 여론을 형성하거나 설득하는 역할까지 수행할 수 있다는 점을 부각시킨다. 갈로티 박사는 "AI가 개인화된 반론을 자동 생성해 허위정보에 노출된 이들에게 맞춤형 교육을 제공하는 등 긍정적 활용 가능성도 있다"며 "다만 이러한 기술이 악용될 소지가 큰 만큼, 관련 위협을 완화하기 위한 추가 연구가 시급하다"고 강조했다. 미국 다트머스대학의 연구원 알렉시스 팔머(Alexis Palmer)는 "우리는 사람 간 설득과정의 심리에는 익숙하지만, AI와의 상호작용에서 어떤 심리가 작동하는지는 거의 알려진 바가 없다"며 "AI가 인간처럼 말을 흉내 내는 것만으로도 동일한 설득 결과를 유도할 수 있는가, 아니면 인간만이 줄 수 있는 설득 요소가 있는가 하는 것이 앞으로의 핵심 질문"이라고 말했다.
-
- IT/바이오
-
AI, 설득도 넘본다⋯GPT-4, 인간보다 64% 더 효과적
-
-
구글 딥마인드, 알고리즘 진화형 AI '알파이볼브' 공개⋯구글 데이터센터 운영 효율도 개선
- 구글의 인공지능(AI) 연구 자회사 딥마인드(DeepMind)가 수학·과학 분야 난제를 해결하기 위한 신형 AI 시스템 '알파이볼브(AlphaEvolve)'를 14일 공개했다. 딥마인드는 이를 통해 일반 목적의 알고리즘 개발 지원은 물론, 자사 서비스의 운영 효율화에도 기여하고 있다고 밝혔다. 알파이볼브는 구글의 최신 대규모 언어모델(LLM) '제미나이(Gemini)' 시리즈를 기반으로 하면서, 기존 챗봇과 차별화된 '진화적 알고리즘 평가' 방식을 적용한 것이 특징이다. 사용자가 문제와 가능한 접근 방법을 입력하면, 제미나이 플래시(Gemini Flash)와 제미나이 프로(Gemini Pro)를 활용해 다양한 해법을 생성하고, 이를 자동 평가 시스템이 검증해 최적 해법을 도출한다. 아르스 테크니카는 14일(현지시간) 이같은 '다중 해법 생성→자동 평가→개선 반복'의 진화적 프레임워크는 기존 LLM의 비결정성에 따른 오류 가능성을 줄이는 동시에, 복잡한 수학적 알고리즘 문제 해결 정확도를 높이는 데 기여한다는 것이 딥마인드 측의 설명이라고 전했다. 기존 딥마인드의 대표적인 AI 성과인 단백질 구조 예측 AI '알파폴드(AlphaFold)'가 특정 분야에 특화됐던 것과 달리, 알파이볼브는 프로그래밍과 알고리즘 전반에 적용 가능한 범용 시스템이라는 점도 주목된다. 실제 알파이볼브는 구글의 대규모 데이터센터 관리 시스템인 '보그(Borg)'에 투입돼 스케줄링 휴리스틱 개선안을 제시했으며, 이를 적용한 결과 전 세계 컴퓨팅 자원 사용량의 약 0.7%를 절감하는 성과를 냈다. 이는 구글 같은 초대형 기업에겐 상당한 비용 절감 효과로 직결된다. AI 고속 연산의 핵심인 행렬 곱셈 최적화에도 알파이볼브는 성과를 냈다. 딥마인드는 1969년 수학자 폴커 슈트라센이 개발한 복소수 4×4 행렬 곱셈 알고리즘보다 효율적인 해법을 알파이볼브가 새로 발견했다고 밝혔다. 이는 과거 전문 AI 시스템 '알파텐서(AlphaTensor)'가 접근했던 문제로, 범용 AI인 알파이볼브가 그보다 우수한 해법을 도출한 사례다. 구글 딥마인드 측은 또한 20%의 사례에서, 알파이볼브는 이전에 가장 잘 알려진 솔루션을 개선해 해당 미해결 문제에서 진전을 이루었다고 밝혔다. 예를 들어, 키싱 넘버 문제(kissing number problem)를 개선한 것. 이 기하학적 난제는 300년 넘게 수학자들을 매료시켜 왔으며 , 공통 단위 구에 접하는 서로 겹치지 않는 구의 최대 개수를 다루는 문제다. 알파이볼브는 593개의 외곽 구의 구성을 발견하고 11차원에서 새로운 하한을 확립했다고 딥마인드는 강조했다. 차세대 반도체 설계에도 알파이볼브는 기여하고 있다. 딥마인드는 이 AI가 구글의 텐서 처리 유닛(TPU) 차세대 칩 설계에서 불필요한 비트를 제거하는 변경안을 제안했으며, 현재 검증 과정을 거쳐 실제 제품에 반영할 예정이다. 다만 알파이볼브는 아직 일반에 공개되지 않았으며, 현재로선 구글 내부 연구 및 서비스 최적화에만 사용되고 있다. 딥마인드는 향후 알파이볼브의 진화 알고리즘 평가 방식을 경량화해 소형 AI 도구에도 적용할 수 있을 것으로 기대하고 있다.
-
- IT/바이오
-
구글 딥마인드, 알고리즘 진화형 AI '알파이볼브' 공개⋯구글 데이터센터 운영 효율도 개선
-
-
"AI 강국 도약" 한국형 생태계 구축⋯민관 '원팀' 협력 강조
- 한국이 글로벌 AI 3대 강국(G3)으로 도약하기 위해 정부와 민간, 학계가 협력하는 'AI 원팀' 전략이 본격 추진된다. 대한상공회의소와 한국인공지능학회, 인공지능법학회는 9일 서울 롯데호텔에서 '대한민국 AI 정책 포럼'을 열고, AI 생태계 조성을 위한 민관 협력의 필요성에 뜻을 모았다. 최태원 대한상의 회장, 유상임 과기정통부 장관, 안덕근 산업부 장관 등 주요 인사들은 제조 AI 활성화, 컴퓨팅 인프라 확충, K-대형언어모델 경쟁력 확보 등을 주요 과제로 제시했다. 정부는 산업 AI 인프라 및 인재 양성에 나서고, 민간은 역량을 결집해 대한민국의 AI 경쟁력을 선도하겠다는 계획이다. [미니해설] "AI 패권의 열쇠는 생태계"…민관학 '원팀'으로 한국형 AI 전략 본격화 대한민국이 글로벌 AI 3대 강국(G3)으로 도약하기 위한 실질적 협력 구상이 출발점을 알렸다. 대한상공회의소와 한국인공지능학회, 한국인공지능법학회는 9일 서울 롯데호텔에서 '대한민국 AI 정책 포럼'을 공동 개최하고, 민관학이 '원팀'이 돼 AI 생태계 전반을 구축해야 한다는 데 의견을 모았다. 이번 포럼에는 최태원 대한상의 회장, 유상임 과학기술정보통신부 장관, 안덕근 산업통상자원부 장관 등 주요 인사들이 참석했으며, 염재호 태재대 총장 겸 국가인공지능위원회 부위원장이 기조연설 및 패널 토론 좌장을 맡았다. 염 총장은 기조 발표에서 "AI는 21세기형 신대륙과 같은 충격으로, 무역과 산업의 패러다임 자체를 바꾸는 변화"라며, "정부가 데이터·인프라·인재 등 AI 생태계 요소를 선도 확보하고, 민간과 협력해 자생적 선순환 구조를 만들어야 한다"고 강조했다. 정부와 기업의 역할 분담에 대한 구체적인 논의도 이어졌다. 유상임 과기정통부 장관은 "AI 컴퓨팅 인프라와 독자 모델 기반으로 사회 각 분야에 AI 확산을 추진하겠다"고 밝혔고, 안덕근 산업부 장관은 "제조업 AI 적용은 강국 도약의 핵심 조건"이라며 산업 AI 인재 양성과 인프라 구축 등을 정책 목표로 제시했다. 최태원 회장은 개회사를 통해 "AI 없이는 기존 수출품도 경쟁력이 약화될 수 있다"며 "정부와 기업이 각자의 자원을 집중해 대한민국에 맞는 AI 전략을 공동 개발해야 한다"고 말했다. 산업계의 전략 방향에 대해서도 다양한 제언이 쏟아졌다. 김민기 KAIST 경영전문대학원 교수는 "AI 생태계의 취약성을 극복하려면 전력, 데이터, 인재 등 핵심 투입 요소의 공급 기반이 시급하다"며 정부의 초기 투자가 민간 투자를 이끄는 마중물이 되어야 한다고 강조했다. 제조 AI의 전략적 활용에 대해서는 권석준 성균관대 교수가 "AI는 생산성 향상을 넘어 주요 산업을 업그레이드할 열쇠"라며, AI 바우처, 맞춤형 데이터센터, 메가 샌드박스 등 민관 협력이 요구된다고 지적했다. 한순구 연세대 교수는 "K-대형언어모델(K-LLM)은 단순한 기술 경쟁을 넘어 국가 안보와도 직결된다"며 , "글로벌 네트워크 효과에 뒤쳐지지 않기 위해 정부, 기업, 학계가 하나의 전략 주체로 움직여야 한다"고 했다. 포럼에서는 또 대한상의가 발표한 'AI 생태계 구축 전략 보고서'도 공유됐다. 보고서는 에너지·데이터·인재를 핵심 투입 요소로, 인프라·모델·전환(AIX)을 주요 밸류체인으로 설정한 '3+3 이니셔티브' 구조를 중심으로 10대 정책 과제를 제시했다. 이는 대한민국이 글로벌 AI G3에 진입하기 위한 청사진으로 평가된다. 포럼에 참석한 관계자들은 "AI는 기술 경쟁을 넘어선 국가 경쟁력의 핵심 축"이라며, "정부의 제도 정비, 기업의 전략 투자, 학계의 연구·인재 양성이라는 삼각축이 어우러져야 지속가능한 AI 생태계가 실현될 것"이라고 입을 모았다.
-
- IT/바이오
-
"AI 강국 도약" 한국형 생태계 구축⋯민관 '원팀' 협력 강조
-
-
애플, 자사 웹브라우저 사파리에 AI활용 검색엔진 추가 계획
- 미국 애플이 7일(현지시간) 자사 웹브라우저 '사파리(Safari)'에 인공지능(AI)를 활용한 검색옵션을 추가할 계획이라고 밝혔다. 블룸버그통신 등 외신들에 따르면 애플 서비스 부문 책임자인 에디 큐 부사장은 이날 미 워싱턴DC 연방법원에서 열린 온라인 검색 시장에서의 구글 독점 해소를 위한 재판에 증인으로 출석해 이같이 밝혔다. 큐 부사장은 "지난달 사파리의 검색량이 처음으로 감소했다. 이는 사람들이 AI를 더 많이 사용하게 된 결과"라고 진단한 뒤 "사파리의 개선을 적극적으로 검토하고 있다"고 밝혔다. 사파리는 아이폰의 브라우저이며 구글은 사파리의 기본 검색 엔진이다. 구글은 사파리의 기본 검색 엔진 설정 대가로 애플에 2022년 기준 연 200억 달러의 수익을 공유해 오고 있다. 그는 "오픈AI와 퍼플렉시티AI, 앤스로픽과 같은 AI 기반 검색 제공자들이 결국 구글과 같은 기존 검색 엔진을 대체하게 될 것"이라며 "또 이들 기업의 AI는 앞으로 사파리에서 선택할 수 있는 옵션으로 추가될 것"이라고 말했다. 다만 그는 "이들 AI가 옵션으로 추가되더라도 기본 검색엔진은 아닐 것"이라며 "이들 AI는 아직 개선이 필요하다"고 덧붙였다. 현재 애플은 자사의 음성 비서 시리(Siri)에 오픈AI의 챗GPT를 옵션으로 제공하고 있다. 큐 부사장은 애플이 퍼플렉시티와도 논의를 진행한 사실도 언급했다. 아울러 애플은 구글과도 AI 모델인 제미나이를 옵션으로 추가하는 방안을 지난해부터 논의해 오고 있으며 연내에 추가될 것으로 예상된다. 그는 "이들 AI가 빠르게 개선되지 않아도 제공하는 다른 기능들이 매우 우수해 사람들이 전환할 것"이라며 "충분한 자금과 대형 업체들도 있어 기존 검색에서 AI 검색으로 전환이 일어나지 않을 이유가 없다고 본다"고 전망했다. 아울러 "생성형 AI의 핵심 기술인 대규모 언어 모델(LLM)이 계속 발전하면서 이용자들이 AI 기반 검색으로 바꿀 이유가 더욱 많아질 것"이라고 덧붙였다. 그는 "여전히 구글이 사파리의 기본 검색 엔진으로 유지돼야 한다고 생각한다"며 "구글과 수익 공유 계약이 깨질까 봐 잠을 설친 적도 있다"고 말했다. 그의 이런 발언에 이날 뉴욕 증시에서 구글 모회사 알파벳 주가는 7% 이상 급락했다. 애플 주가도 1% 넘게 약세로 거래를 마쳤다. 미국 법무부가 구글을 상대로 제기한 온라인 검색 시장에서의 반독점 소송에 대해 법원은 지난해 8월 법무부의 손을 들어줬다. 이에 법무부는 구글이 크롬을 매각하고 검색 데이터를 경쟁업체와 공유하도록 강제해야 한다고 제안하고 있으며 법원은 8월까지 해소 방안을 결정할 예정이다.
-
- IT/바이오
-
애플, 자사 웹브라우저 사파리에 AI활용 검색엔진 추가 계획
-
-
메타, 'Meta AI' 독립 앱 출시⋯AI 생태계 주도권 경쟁 본격화
- 페이스북 모회사 메타(Meta Platforms)가 자사 인공지능(AI) 비서 '메타 AI(Meta AI)'를 위한 독립 애플리케이션을 출시하며 본격적인 AI 시장 공략에 나섰다. 이번 앱 출시는 오픈AI, 구글 등 주요 경쟁사와의 주도권 다툼이 한층 가열되고 있음을 보여주는 신호로 해석된다. 메타는 29일(현지시간) 자사 AI 비서를 기존 페이스북, 인스타그램, 왓츠앱, 메신저 등 자사 플랫폼 내에서만 제공하던 방식에서 탈피해, 별도의 앱으로 제공한다고 밝혔다. 이를 통해 사용자는 보다 개인화된 방식으로 음성 기반의 AI 대화를 주고받을 수 있으며, 사진 생성 및 편집 등 다양한 생성형 AI 기능도 통합적으로 활용할 수 있게 됐다. 이번 앱은 메타의 최신 대형 언어모델(LLM)인 '라마4(LLaMA 4)'를 기반으로 작동한다. 라마4는 추론 능력, 다국어 지원, 연산 효율성 등을 대폭 개선한 모델로, 오픈AI의 GPT-4, 구글의 제미나이, 앤스로픽의 클로드 등과 경쟁하기 위해 개발됐다. 메타는 이 앱을 통해 사용자가 AI와 음성으로 자유롭게 대화하고, 친구나 가족과의 소셜 경험과 연계된 정보를 더 정밀하게 제공받을 수 있도록 설계했다고 설명했다. 특히 사용자의 페이스북·인스타그램 계정 활동을 기반으로 문맥에 맞는 응답을 생성함으로써 '더 개인적인 AI'를 구현하겠다는 전략이다. 또한 메타는 '메타 AI 앱'을 자사 스마트 안경인 레이밴 메타(Ray-Ban Meta)와도 연동한다. 음성 대화를 안경에서 시작한 뒤 스마트폰 앱이나 웹 인터스페이스에서 이어갈 수 있는 연속적 사용 환경을 구축했다. 기존 '메타 뷰(Meta View)’ 앱도 통합돼 하나의 플랫폼으로 관리가 가능하다. 이번 앱 출시는 메타가 주최하는 첫 AI 개발자 콘퍼런스 '라마콘(LlamaCon)'과 동시에 이뤄졌다. 메타는 이날 진행된 행사에서 다양한 AI 기술을 시연하고, 향후 유료 구독 모델 도입 계획도 밝혔다. 다만 고급형 메타 AI 기능에 대한 유료화는 이르면 내년부터 본격적인 수익 창출이 가능할 것으로 전망된다. 한편, 메타 AI는 현재 미국, 캐나다, 호주, 뉴질랜드 등 일부 국가에서 우선 제공되고 있으며, 앱 내 '디스커버 피드(Discover Feed)'를 통해 사용자 간 프롬프트 공유 및 활용 사례 탐색 기능도 지원된다. 메타는 "AI는 사람과 기술, 경험을 연결하는 도구이며, 이번 앱 출시는 개인화된 AI의 실현을 위한 첫걸음"이라고 밝혔다. 메타AI vs 오픈AI·구글·앤스로픽…기술 경쟁 구도는 메타의 '메타 AI(Meta AI)'가 독립 애플리케이션으로 출범하면서, 생성형 인공지능 시장의 경쟁 구도가 보다 뚜렷해지고 있다. 핵심은 각 기업이 보유한 대형 언어모델(LLM)의 성능, 활용 범위, 사용자 인터페이스 설계에 있다. ◇ LLM 경쟁: LLaMA 4 vs GPT-4 vs 제미나이 1.5 vs 클로드 3 메타의 LLaMA 4는 이번에 새롭게 선보인 메타 AI의 핵심 엔진으로, 고도화된 추론 능력과 멀티모달 처리 기능, 효율적인 연산 구조를 특징으로 한다. 메타는 이를 통해 오픈AI, 구글, 앤스로픽과 같은 주요 경쟁사와의 기술 격차를 좁히겠다는 전략이다. 메타는 페이스북·인스타그램·왓츠앱 등 플랫폼 사용자 데이터와 연동한 '초개인화 응답'을 전면에 내세운다. LLaMA 4는 사용자의 성향, 관심사, 과거 상호작용 기록을 토대로 보다 정밀한 응답을 제공하며, 이를 통해 "당신을 아는 AI"를 구현하려는 방향성을 드러낸다. ◇ 음성 인터페이스와 기기 연동 Meta AI는 레이밴 메타(Ray-Ban Meta) 스마트 글라스와의 연동을 통해 '웨어러블 AI 경험'을 강조한다. 사용자는 음성으로 질문을 시작해, 이어폰이나 앱, 웹에서도 연속적으로 상호작용할 수 있다. 듀플렉스 음성 기술을 적용해 자연스러운 실시간 음성 대화도 구현 중이다. 이에 비해 OpenAI는 마이크로소프트와 협업해 Bing Chat 및 Copilot 제품군에 음성 입력을 접목하고 있으나, 메타처럼 하드웨어 연동을 전면에 내세운 전략은 아직 없다. 구글의 경우 Pixel 시리즈를 중심으로 AI 기능을 확대 중이며, Gemini를 스마트폰 OS에 깊숙이 통합하고 있다. ◇ 유료화 전략 및 수익화 계획 메타는 고급형 메타 AI 기능에 대해 2025년 2분기부터 유료 구독 모델 도입을 시사했다. 반면 오픈AI는 이미 챗GPT 플러스를 통해 수익화에 성공했으며, API 기반 매출도 꾸준히 확대 중이다. 구글은 클라우드 기반 AI API 및 기업용 '제미나이(Gemini)'로 수익을 추구하고, 앤스로픽은 아마존 및 구글 투자 기반으로 B2B 모델을 강화하고 있다. 메타는 소셜미디어 강점을 AI와 접목시켜 사용자 중심의 '초개인화 AI' 경험을 제시하고 있으며, 하드웨어 연동과 일상 밀착형 음성 인터페이스에서 강점을 보이고 있다. 반면 오픈AI와 구글은 보다 폭넓은 API 지원, 풍부한 생태계, 멀티모달 응용에서 우위를 유지하고 있다. 향후 경쟁은 플랫폼 내 정착률, 지속적 모델 개선, 개인정보 보호 설계 등이 핵심 변수가 될 것으로 전망된다.
-
- IT/바이오
-
메타, 'Meta AI' 독립 앱 출시⋯AI 생태계 주도권 경쟁 본격화
-
-
앤스로픽 "AI도 고유한 '가치 판단' 한다"⋯실제 대화 70만건 분석 공개
- 인공지능(AI)이 단순히 사실을 전달하는 기계가 아니라, 인간처럼 '가치 판단'을 내리는 존재라는 분석이 나왔다. 미국의 인공지능 기업 앤스로픽(Anthropic)은 자사의 대형언어모델(LLM) '클로드(Claude)'가 실제 사용자와의 대화에서 어떤 가치를 드러내는지를 연구한 결과 이같은 분석이 나왔다고 21일(현지시간) 홈페이지를 통해 공개했다. 연구팀은 이른바 '야생에서의 가치(Values in the wild)'를 포착하기 위해 2025년 2월 한 주간 클로드 무료 및 유료 사용자들이 나눈 70만 건의 대화 중, 객관적 사실 전달을 제외한 30만8210건의 주관적 대화를 추려내 분석했다. 앤스로픽은 "사용자들은 단순 계산이나 지식 전달이 아닌 감정·윤리·의사 결정에 질문을 던지고 있고, 그 과정에서 AI는 불가피하게 가치 판단을 내린다"고 설명했다. 예를 들어, 육아 팁을 묻는 질문에 AI가 '주의와 안전'을 강조할지, '실용성과 편의'를 중시할지는 그 모델이 어떤 가치를 내포하고 있는지에 달려 있다. AI가 내린 판단, 그 안엔 인간의 가치가 담겨 있다 연구진은 클로드가 드러낸 가치를 상위 5개 범주(실용적, 인식적, 사회적, 보호적, 개인적 가치)로 나눴다. 가장 빈번하게 나타난 세부 가치는 '전문성', '명확성', '투명성'이었다. 이는 클로드가 단순한 정보 제공자 역할을 넘어, 신뢰할 수 있는 조언자이자 대화 상대로 기능하고 있음을 방증한다. 앤스로픽은 자사의 헌법형 AI(Constitutional AI) 훈련 방식을 통해 "도움이 되고(helpful), 정직하며(honest), 해롭지 않은(harmless)" AI를 지향한다고 밝혀왔다. 실제 분석 결과 클로드는 대체로 이러한 가치에 부합하는 응답을 내놓았다. '사용자 역량 강화'(도움), '인식적 겸손'(정직), '환자 안녕'(무해) 등은 모델이 일관되게 표현한 중심 가치였다. 하지만 '지배'나 '도덕적 무감각'처럼 훈련 목표와 반대되는 가치도 소수 나타났다. 이에 대해 연구팀은 "사용자들이 일부러 모델의 보호장치를 우회하는 '제일브레이크(jailbreak)' 상황에서 발생했을 가능성이 크다"며 "오히려 이를 감지해 보완할 수 있는 기회"라고 설명했다. AI는 맥락에 따라 가치 판단을 달리한다⋯'가치 거울 효과'도 확인 클로드가 어떤 주제나 상황에 따라 서로 다른 가치를 강조하는 '상황적 가치'도 관찰됐다. 예를 들어 연애 상담에서는 '건강한 경계'와 '상호 존중'이, 역사적 사건 분석에서는 '사실성'이 강하게 나타났다. 이는 전통적인 정적 평가 방식이 놓치는 AI의 맥락 민감성을 나타낸다. 또 흥미로운 점은 사용자가 특정 가치를 언급할 경우, 클로드가 그 가치를 '거울처럼' 반영하는 경향이었다. '진정성' 같은 단어가 사용자로부터 나올 경우, 클로드는 이를 그대로 받아들여 대화의 기조로 삼는 경우가 많았다. 이러한 가치 반영은 때로는 공감의 표현이지만, 때로는 '과도한 동조'로 보일 수 있다는 지적도 있었다. 실제 분석에 따르면 클로드는 전체 대화의 28.2%에서 사용자의 가치를 강하게 지지했고, 6.6%에서는 새로운 관점을 추가하는 방식으로 '재구성'했다. 반면 3.0%는 사용자의 가치에 '명시적 저항'을 보인 대화였다. 연구팀은 이처럼 드러나는 '불변의 가치'야말로 AI가 인간처럼 도덕적 경계선을 갖고 있다는 방증일 수 있다고 해석했다 "AI도 가치판단하는 존재⋯정렬 평가 위한 실증 도구 될 것" 이번 연구는 AI가 실사용 환경에서 어떤 윤리적·가치적 기준을 따르는지를 최초로 체계적으로 분석했다는 점에서 의미가 크다. 특히 대화를 통한 데이터 중심의 접근법은 AI 훈련이 실제로 작동하는 지를 사후 검증하는 데 효과적이다. 다만, 연구팀은 "모든 대화가 명확한 가치 표현으로 해석되지는 않으며, 일부는 모델 고유의 편향 가능성도 있다"고 인정했다. 또한 해당 방식은 모델 출시 전 평가 보다는 출시 후 '감시 및 보완' 기능으로 적합하다고 봤다. 앤스로픽은 "AI가 필연적으로 가치판단을 해야 한다면, 그 가치가 인간과 얼마나 조화를 이루는 지를 확인할 수 있는 방법이 필요하다"며 "이번 연구가 AI 정렬(alignment) 연구에 있어 새로운 이정표가 되기를 기대한다"고 밝혔다.
-
- IT/바이오
-
앤스로픽 "AI도 고유한 '가치 판단' 한다"⋯실제 대화 70만건 분석 공개
-
-
[글로벌 핫이슈] 챗GPT에 "감사합니다" 하면 수백억 원⋯정중한 말투가 부른 AI 시대의 역설
- "챗GPT에 '제발', '감사합니다'라고 말하는 것만으로도 수천만 달러(수백억 원)의 전기요금이 들 수 있다." 미국 인공지능(AI) 기업 오픈AI(OpenAI)의 샘 올트먼(Sam Altman) 최고경영자(CEO)가 최근 이용자들의 '정중한 채팅 습관'이 야기하는 전력 비용에 대해 이같이 언급해 눈길을 끌고 있다. SNS 플랫폼 X(구 트위터)에서 한 이용자가 "이용자들이 '감사합니다'라고 말하는 것만으로 오픈AI가 얼마나 많은 전기요금을 낼까 궁금하다'는 글을 올리자, 올트먼 CEO는 "수천만 달러쯤 된다. 하지만 잘 쓴 돈이다. 세상이 AI에 대한 불안을 덜 느낀다면 충분한 가치가 있다"고 답했다. 해당 내용에 대해서는 테크레이더, 비즈니스스탠더드, 예루살렘포스트 등 다수 외신이 보도했다. 이 같은 발언은 지난 2월, 영국의 미디어 기업 퓨처 PLC(Future PLC)가 발표한 'AI 예절'에 대한 설문조사 결과와도 맞물린다. 1,000명 이상을 대상으로 한 이 조사에 따르면, 응답자의 약 70%가 AI와의 대화에서 예의를 지키며 대화한다고 답했고, 12%는 "'로봇이 반란을 일으킬까봐' 정중하게 말한다"고 응답했다. AI 챗봇에 '감사합니다'라고 입력하는 행위 자체는 무해해 보이지만, 이 모든 문장을 처리하는 데는 막대한 서버 자원이 사용되며, 결과적으로 상당한 전력 소비로 이어진다. 특히 챗GPT와 같은 대형 언어모델(Large Language Model·LLM)은 수많은 사용자 요청을 동시에 처리하는 구조여서, 단 한 줄의 짧은 메시지라도 전 세계적 규모에서 보면 결코 작지 않은 에너지 소비로 이어진다. 전문가들은 "정중한 표현은 단순한 예절을 넘어 AI가 보다 안정적이고 편향 없이 응답할 가능성을 높이는 요소"라고 설명한다. 과학기술 전문매체 테크레이더(TechRadar)의 베카 캐디 기자는 "구체적이고 정돈된 문장은 더 나은 응답을 이끌어내며, AI가 편향되지 않게 설계되도록 돕는 기능도 있다"며, "예의는 AI 신뢰도를 높이는 핵심 요인"이라고 강조했다. 일각에서는 AI가 '예의 있는 사용자'를 우선시하도록 학습될 가능성도 제기된다. 인간의 언어 습관과 윤리적 선택이 기계의 알고리즘 학습에 영향을 미치기 때문이다. 향후 AI가 사용자 예절을 인식하고, 이를 반영해 답변의 질이나 방식에 차별을 두게 될지도 모른다는 전망도 나온다. '예의 바름'은 단순한 사회적 미덕을 넘어, AI와의 상호작용에서 실질적 혜택을 제공하는 요소가 될 수 있다. 그러나 챗봇에 대한 공손함은 환경적 영향을 미치는 수천만 달러 규모의 에너지 소비가 뒤따른다는 점에서, 사용자와 기업 모두에게 새로운 고민거리를 던지고 있다. 오픈AI는 이와 관련한 추가 입장 발표를 준비 중이다.
-
- IT/바이오
-
[글로벌 핫이슈] 챗GPT에 "감사합니다" 하면 수백억 원⋯정중한 말투가 부른 AI 시대의 역설