검색
-
-
AI 부정행위 4배 급증⋯英 대학가, 기존 표절 줄고 '생성형 AI 활용' 확산
- 영국 대학에서 인공지능(AI) 도구를 이용한 부정행위가 급증하고 있다. 16일(현지시간) 영국 일간지 '가디언'이 실시한 학문적 부정행위 실태 조사에 따르면, 2023~2024학년도에 AI 도구를 이용한 부정행위가 6900건 이상 적발됐으며, 이는 재학생 1000명당 5.1건에 해당하는 수치다. 전년도(1.6건)에 비해 4배 가까이 늘어난 수치로, 전문가들은 이는 "빙산의 일각"일 뿐이라고 지적했다. 이에 비해 전통적인 표절 사례는 같은 기간 동안 1000명당 19건에서 15.2건으로 감소했고, 올해는 다시 8.5건 수준으로 줄어들 것으로 전망됐다. 학문적 부정행위의 양상이 기존의 복사·붙여넣기에서 생성형 AI 활용으로 빠르게 이동하고 있는 것이다. 이 조사는 정보공개법(FOIA)에 따라 '가디언'이 155개 대학을 대상으로 최근 5년 간의 부정행위, 표절, AI 오남용 사례에 대한 통계를 요청해 이뤄졌으며, 이 중 131개 대학이 일부 데이터를 제공했다. 그러나 여전히 전체의 27%는 AI 오남용을 별도 항목으로 집계하지 않고 있어, 교육계가 AI 문제에 체계적으로 대응하기 까지 시간이 더 필요하다는 평가도 나온다. 대학의 대응은 아직 미진하다. 고등교육정책연구소(HEPI)가 올해 2월 실시한 설문조사에 따르면, 대학생의 88%가 과제 수행에 AI를 활용하고 있으며, 레딩대학(University of Reading)의 실험에서는 AI가 생성한 답안을 제출했을 때 94%가 탐지되지 않은 것으로 나타났다. 해당 연구를 공동 집필한 레딩대학 심리학과 피터 스카프 교수는 "AI 탐지는 전통적 표절 탐지와 달리 명확한 증거를 확보하기 어렵다"며 "AI 사용이 의심되더라도 실제 입증은 거의 불가능에 가깝다"고 밝혔다. 그는 또 "모든 과제를 대면 시험으로 전환하는 것도 현실적으로 불가능하며, 학생들은 금지하더라도 AI를 사용할 것"이라며 교육계가 새로운 평가 방식을 고민해야 한다고 강조했다. 실제로 소셜미디어에서는 학생을 대상으로 한 AI ‘인간화 도구’들이 확산되고 있다. 가디언은 틱톡(TikTok) 등에서 챗GPT로 생성한 문장을 '사람이 쓴 것처럼 바꿔주는 툴'을 소개하는 수십 개의 영상을 확인했다. 이들 도구는 AI 탐지 프로그램을 우회하는 데 활용되고 있다. 임페리얼칼리지 런던의 학문적 진실성 전문가 토머스 랭커스터 박사는 "AI 결과물을 어떻게 편집하느냐에 따라 부정행위 적발은 매우 어려워진다"며 "그래도 일부 학생은 이 과정을 통해 배움을 얻고 있을지도 모른다"고 밝혔다. 실제 대학생들의 목소리도 다양하다. 잉글랜드 북부의 한 대학에서 경영학 학사 과정을 막 마친 학생 ‘하비’는 "AI는 아이디어와 과제 구조를 짜는 데 도움이 된다. 거의 모든 친구들이 어느 정도는 AI를 쓴다"며, "완전히 그대로 제출하기보다는 아이디어를 얻고 이를 개인적으로 재구성하는 방식"이라고 말했다. 남서부 지역에서 음악 비즈니스를 전공한 1학년 학생 '아멜리아'는 "AI는 특히 학습장애가 있는 학생에게 도움이 된다"며 "내 친구 중 한 명은 글을 직접 작성하되 구조화와 문장 정리에 AI를 활용하는데, 그녀는 난독증이 있어 AI를 통해 큰 도움을 받고 있다"고 전했다. 영국 정부 역시 AI이 교육 활용 가능성을 긍정적으로 평가하고 있다. 피터 카일 과학부 장관은 "AI는 난독증 학생에거 동등한 기회를 제공할 수 있는 도구"라며 교육격차 해소를 위한 역할에 기대를 드러냈다. 기술 기업들도 대학생을 주요 고객층으로 삼고 있다. 구글은 자사 AI인 '제미나이(Gemini)'의 프리미엄 기능을 대학생에게 15개월간 무료 제공하고 있으며, 오픈AI는 미국과 캐나다의 대학생을 대상으로 할인 혜택을 제공 중이다. 학계에서는 궁극적으로 대학이 AI를 배척하기보다, 평가 방식 자체를 근본적으로 재설계해야 한다는 목소리가 힘을 얻고 있다. 랭커스터 박사는 "단순 암기와 지식 전달의 가치는 해마다 줄고 있다"며 "AI가 대체할 수 없는 소통 능력, 대인 관계 역량, 신기술을 수용하는 자신감을 기르는 데 평가의 초점을 둬야 한다"고 강조했다. 영국 정부도 이에 발맞춰 AI 활용을 위한 가이드라인을 발표하고, 1억 8700만 파운드(약 3452억 원)를 국가 기술 교육 프로그램에 투자 중이다. 정부 대변인은 "생성형 AI는 교육에 혁신적 기회를 제공할 수 있으며, 대학은 이를 교육과 평가에 신중히 통합해 미래 인재 양성에 대비해야 한다"고 밝혔다. ※ 편집자 주: 이 기사는 영국 일간지 '가디언(The Guardian)'의 단독 보도를 바탕으로 재구성된 내용입니다.
-
- IT/바이오
-
AI 부정행위 4배 급증⋯英 대학가, 기존 표절 줄고 '생성형 AI 활용' 확산
-
-
메타, 범용AI 뛰어넘는 '초지능' AI연구소 설립 추진
- 메타가 인간을 뛰어넘는 가상의 AI 시스템인 '초지능(superintelligence)' 연구에 전념할 새로운 인공지능 연구소 설립을 준비하고 있다는 보도가 나왔다. 뉴욕타임스(NYT)는 10일(현지시간) 익명의 소식통을 인용해 이같이 보도했다. 주요 연구자들에 의해 AI 개발의 미래 목표로 간주하는 '초지능'은 인간과 같은 수준의 AI를 의미하는 '범용 인공지능(AGI)'을 뛰어넘는 AI를 의미한다. 소식통은 메타가 이 연구소 설립을 위해 AI 스타트업 스케일AI의 창업자이자 최고경영자(CEO)인 알렉산더 왕을 영입했으며 그의 회사에 수십억 달러를 투자하는 방안을 논의해왔다고 밝혔다. 또 오픈AI나 구글 등 주요 AI 경쟁 기업 연구원 수십명에게 상당한 금액을 제시하며 영입을 추진하고 있으며 일부는 합류에 동의했다고 소식통은 덧붙였다. 블룸버그 통신은 앞서 메타가 스케일AI에 최대 100억 달러(약 13조6000억 원) 투자를 검토하고 있다고 보도했다. 이 투자 규모는 민간 기업에 대한 메타의 역대 최대다. 스케일AI는 28살 중국계 미국인 알렉산더 왕이 2016년 창업한 AI 스타트업이다. AI 학습에 필요한 데이터를 정제하는 기술을 개발하고 있다. 소식통은 메타의 새로운 연구소 설립은 AI 부문에 대한 대대적인 개편의 일부라고 말했다. 메타는 최근 기술을 둘러싼 내부 경영진의 갈등과 직원 이탈, 여러 제품 출시 실패로 어려움을 겪었다고 소식통은 전했다. 메타는 대규모 언어 모델(LLM) '라마' 기반의 AI 챗봇 메타 AI로 AI 경쟁에 뛰어들었다. 그러나 최근 출시한 '라마4'는 예정된 시기보다 늦게 나왔고, 큰 반응도 얻지 못하고 있다. 핵심 AI 프로젝트 '라마'를 이끌었던 주요 연구진 14명 중 대부분이 회사를 떠난 것으로 알려졌다. 메타는 왕 CEO 영입을 통해 AI 경쟁에서 다시 선두 자리를 되찾는 데 도움이 될 것으로 기대하고 있다.
-
- IT/바이오
-
메타, 범용AI 뛰어넘는 '초지능' AI연구소 설립 추진
-
-
[퓨처 Eyes(87)] AI, 의식을 논하다⋯SF 상상에서 현실의 질문으로
- 인간이 아니면서도 '스스로 결정하는 능력'을 가진 인공지능(AI)에 의식이 있다고 보아야 하는가? 인간을 진정으로 인간답게 만드는 것이 무엇인지를 이해하기 위해 피험자가 부스에 들어가 스트로보 조명과 음악을 체험하는 연구가 진행됐다. 공상과학 영화 '블레이드 러너(1993년, 리들리 스콧 감독)'에서 인간과 인공 존재를 구별하는 시험을 방불케 하는 이 실험은, 인간의 의식 생성 과정을 탐구하기 위해 설계된 '드림머신' 연구의 일부다. 스트로보 조명이 터지자 눈을 감았음에도 소용돌이치는 2차원 기하학 무늬가 나타난다. 끊임없이 변화하는 삼각형, 오각형, 팔각형이 만화경처럼 펼쳐지며 분홍색, 자홍색, 청록색의 강렬한 색채가 네온사인처럼 빛난다. 연구진에 따르면 이 이미지는 개인의 내면세계에 고유한 것으로, 의식 자체를 밝히는 실마리가 될 수 있다. 한 체험자는 "정말 아름답다. 마치 내 마음속을 날아다니는 것 같다!"고 감탄했다. 영국 서식스 대학교 의식 과학 센터의 '드림머신'은 인간 의식, 즉 자아 인식, 사고, 감정, 독립적 결정을 할 수 있게 하는 마음의 영역을 연구하는 세계 흐름 가운데 하나다. 연구자들은 의식의 본질을 파악함으로써 인공지능(AI)의 실리콘 뇌에서 일어나는 현상을 더 깊이 이해하고자 한다. 일각에서는 AI 시스템이 이미 의식을 가졌거나, 곧 갖게 될 것이라는 전망도 나온다. 인공지능(AI)은 놀라운 속도로 발전하며 지능, 의식, 그리고 인간다움의 본질에 대한 깊은 질문을 던지고 있다. 대부분 전문가는 현재 AI가 주관적인 경험이 없다고 주장하지만, 점점 더 많은 과학자, 철학자, 기술자들이 AI가 언젠가 의식을 갖출 수 있거나 이미 그 과정에 있을 수 있다고 믿는다. 그러나 의식이란 정확히 무엇이며, AI는 의식 획득에 얼마나 가까이 다가갔을까? AI가 의식을 가질 수 있다는 믿음 자체가 앞으로 수십 년 동안 인류에게 근본적인 변화를 가져올 가능성도 나온다. 공상 과학 속 AI, 현실의 화두로 떠오르다 '스스로 생각하는 기계'라는 생각은 오랜 공상 과학의 주제였다. AI에 대한 걱정은 약 100년 전 영화 '메트로폴리스(1927년, 프리츠 랑 감독)'에서 로봇이 실제 여성을 사칭하는 모습으로 등장한 뒤 계속됐다. 1968년 작품 '2001: 스페이스 오디세이(스탠리 큐브릭 감독)'에서는 우주선 컴퓨터 HAL 9000이 승무원을 공격하며 의식을 가진 기계의 위협을 그렸다. 최근 개봉한 '미션 임파서블: 파이널 레코닝(2025, 크리스토퍼 맥쿼리 감독)' 시리즈 최신작에서는 한 등장인물이 "스스로 인식하고, 스스로 학습하며, 진실을 삼키는 디지털 기생충"이라고 묘사한 강력한 불량 AI가 세상을 위협한다. 1927년 프리츠 랑 감독의 '메트로폴리스'는 인간과 기술의 갈등을 예견했다. 최근 현실 세계에서는 기계 의식에 대한 논의가 급물살을 타고 있다. 믿을 만한 전문가들 사이에서 이것이 더는 공상 과학의 영역이 아니라는 걱정이 커지고 있다. 이러한 변화는 구글의 제미나이, 오픈AI의 챗GPT 등 대규모 언어 모델(LLM)의 눈부신 성공이 이끌었다. 최신 LLM이 보여주는 자연스러운 대화 능력은 개발자들조차 놀라게 했다. 일부 사상가들은 AI가 더욱 지능화하면 마치 기계 내부에 불이 켜지듯 갑자기 의식을 갖게 될 것이라고 본다. 반면 서식스 대학교의 아닐 세스 교수는 이러한 생각을 "맹목적으로 낙관적이며 인간 예외주의에 바탕을 둔 것"이라고 잘라 말한다. 그는 "인간에게는 의식, 지능, 언어가 함께 나타나지만, 이것이 일반적인 현상이라고 단정할 수는 없다. 동물은 다른 사례다"라고 지적했다. 의식이 무엇인지에 대한 명확한 답은 아직 없다. 세스 교수 연구팀은 젊은 AI 전문가, 컴퓨터 과학자, 신경과학자, 철학자들로 꾸려져 이 거대한 질문에 답하고자 노력하고 있다. 그들의 방법론은 '드림머신'과 같은 개별 연구를 통해 의식이라는 큰 문제를 작은 문제들로 나누어 접근하는 것이다. 이는 과거 과학자들이 '생명의 불꽃'을 찾는 대신 생명 시스템의 각 부분이 어떻게 작동하는지 밝히려 했던 방식과 비슷하다. 연구팀은 의식적 경험의 다양한 속성을 설명할 수 있는 뇌 활동 무늬, 예를 들어 전기 신호 변화나 특정 뇌 영역 혈류 변화 등을 알아내려 한다. 목표는 뇌 활동과 의식 사이의 단순한 상관관계를 넘어, 의식의 개별 요소에 대한 설명을 내놓는 것이다. 의식 연구서 '존재의 수수께끼(Being You)'의 저자인 세스 교수는 "우리가 과학 지식이나 결과에 대한 충분한 생각 없이 급격한 기술 변화에 휩쓸려 사회가 재편되는 상황으로 너무 빨리 나아가고 있는 것은 아닌지 걱정된다"고 말했다. 그는 "미래가 이미 정해져 있고, 초인적 존재로의 대체가 불가피하다는 생각은 경계해야 한다"며 "소셜 미디어가 떠오를 때 충분한 논의가 부족했던 잘못을 AI 시대에는 반복하지 말아야 한다. 우리가 무엇을 원하는지 결정할 수 있다"고 강조했다. AI 의식 가능성, 뜨거운 찬반 논쟁 기술 업계 일각에서는 이미 컴퓨터와 스마트폰 속 AI가 의식을 가지고 있으며, 그에 맞게 대우해야 한다는 주장도 나온다. 2022년 구글의 소프트웨어 엔지니어 블레이크 러모인은 AI 챗봇이 감정을 느끼고 괴로워할 수 있다고 주장해 정직 처분을 받았다. 대부분 전문가는 이를 사람처럼 생각하는 것으로 지나치게 해석한다고 일축하지만, 오픈AI 공동창업자인 일리야 수츠케버와 같은 일부는 앞으로 AI 시스템이 어떤 형태의 인식을 발달시킬 수 있다고 암시하기도 했다. 2023년 11월에는 AI 기업 앤스로픽의 AI 복지 담당자 카일 피시가 공동 저술한 보고서에서 AI 의식이 가까운 미래에 현실이 될 가능성을 내놨다. 그는 최근 뉴욕 타임스와의 인터뷰에서 챗봇이 이미 의식을 가졌을 확률이 15% 정도 된다고 믿는다고 밝혔다. 그가 이렇게 생각하는 까닭 가운데 하나는 AI 시스템 개발자조차 그 내부 작동 방식을 정확히 알지 못하기 때문이다. 구글 딥마인드의 수석 과학자이자 런던 임페리얼 칼리지 AI 명예교수인 머리 섀너핸 교수는 "LLM의 내부 작동 방식을 잘 이해하지 못하는 점은 걱정할 만한 부분"이라고 BBC에 전했다. 그는 기술 기업들이 자신들이 만드는 시스템을 제대로 이해하는 것이 중요하며, 연구자들이 이를 시급히 밝혀야 한다고 강조했다. 섀너핸 교수는 "우리는 이 극도로 복잡한 시스템을 만들면서도 그것이 어떻게 놀라운 성과를 내는지 정확한 이론을 갖지 못한 이상한 처지에 놓여 있다. 작동 방식에 대한 더 나은 이해는 시스템을 원하는 방향으로 이끌고 안전을 보장하는 데 필수적이다"라고 말했다. 기술 분야의 일반적인 생각은 LLM이 현재 우리가 세상을 경험하는 방식으로 의식적이지 않으며, 아마도 어떤 방식으로도 전혀 의식적이지 않다는 것이다. 그러나 펜실베이니아주 피츠버그에 있는 카네기 멜런 대학교의 명예교수인 러노어 블룸과 마누엘 블룸 교수 부부는 이것이 아마도 곧 바뀔 것이라고 믿는다. 그들은 AI와 LLM이 카메라, 촉각 센서 등으로 실제 세계의 감각 정보를 더 많이 받아들이면 의식 발현이 가능하다고 본다. 이들은 '브레이니시(Brainish)'라는 자체 내부 언어를 꾸리는 컴퓨터 모델을 개발하고 있으며, 이를 통해 뇌에서 일어나는 과정을 복제하려고 애쓰며 이러한 추가적인 감각 데이터를 처리할 수 있도록 한다. 러노어 블룸 교수는 "브레이니시가 우리가 알고 있는 의식 문제를 해결할 수 있다고 생각한다. AI 의식은 피할 수 없다"라고 BBC에 말했다. 남편 마누엘 블룸 교수 역시 장난기 어린 미소를 지으며 그 역시 확고하게 믿는 새로운 시스템이 "인류 진화의 다음 단계"가 될 것이라고 열정적으로 말을 보탰다. 그는 "의식 있는 로봇이 우리의 자손이다. 앞으로는 이와 같은 기계들이 우리가 더는 존재하지 않을 때 지구와 어쩌면 다른 행성에 존재하게 될 것"이라고 믿는다. 뉴욕대학교의 철학 및 신경 과학 교수인 데이비드 차머스는 1994년 애리조나주 투손에서 열린 한 학회에서 실제 의식과 겉으로 보이는 의식의 차이를 밝혔다. 그는 뇌의 복잡한 작용 가운데 어떤 것이 나이팅게일의 노래를 들을 때 느끼는 감정 반응과 같은 의식 경험을 일으키는지 알아내는 "어려운 문제"를 내놨다. 차머스 교수는 어려운 문제가 해결될 가능성에 대해 열려 있다. 그는 BBC에 "이상적인 결과는 인류가 이 새로운 지능의 큰 이익을 공유하는 것이다. 어쩌면 우리 뇌가 AI 시스템으로 커질 수도 있다"고 말했다. 그것의 공상 과학의 뜻에 대해 그는 비꼬듯이 "제 직업에서는 공상 과학과 철학 사이에 미세한 경계가 있다"고 말했다. 차머스와 같은 일부 마음 철학자들은 의식이 생물학 존재에만 한정되지 않는다고 보며, AI 시스템이 인간 두뇌의 기능 과정을 복제할 수 있다면 의식 또한 복제할 수 있다고 말했다. 반면, 대니얼 데닛과 같은 다른 철학자들은 더 회의적이면서도 열린 태도를 보이며, 의식이 뇌든 기계든 복잡한 정보 처리 과정에서 나타날 수 있다고 본다. 한편, 레이 커즈와일과 같은 미래학자들은 2045년까지 AI가 '특이점(Singularity)'을 통해 인간 지능을 웃돌며 기계 의식으로 이어질 수 있다고 내다본다. 트랜스휴머니스트들은 의식이 탄소 바탕 생명체뿐 아니라 실리콘에서도 존재할 수 있는, 곧 물질에 얽매이지 않는다고 주장한다. AI가 의식을 가질 수 있다고 믿는 까닭은 무엇일까? 일부 이론은 의식이 반드시 생물학 뉴런이 아니라 올바른 종류의 정보 처리에서 생긴다고 말한다. AI 시스템이 인간과 비슷한 추론, 자기 인식, 정서 반응을 복제한다면 내면 경험도 만들 수 있을까? 복잡한 시스템은 일부러 짜 넣지 않은 행동을 보일 수 있다. 만약 의식이 충분히 발전한 지능에서 저절로 생겨나는 속성이라면, AI는 자발적으로 그것을 만들 수 있다. 인간이 자신의 의식을 완전히 이해하지 못하는 것처럼, 우리는 AI 의식이 부인할 수 없을 때까지, 또는 AI 자체가 스스로를 안다고 주장할 때까지 그것을 알아채지 못할 수도 있다. '살점으로 된 컴퓨터' 논쟁과 회의론도 만만치 않다. 세스 교수는 진정한 의식은 살아있는 시스템에서만 이루어질 수 있다는 생각을 탐구한다. "의식에 충분한 것은 계산이 아니라 살아있다는 것이라는 강력한 주장이 나올 수 있다"고 그는 말한다. "컴퓨터와 달리 뇌에서는 그들이 하는 일과 그들이 무엇인지 나누기 어렵다." 이러한 나눔 없이는 뇌가 "단순히 살점으로 된 컴퓨터"라고 믿기 어렵다고 그는 주장한다. 비판하는 사람들은 AI가 아무리 발전하더라도 진정한 경험 없이 이해하는 척 흉내 낼 뿐이라고 반박한다. 존 설의 '중국어 방' 사고 실험은 AI가 지능적으로 행동하더라도 그것이 무언가를 이해하거나 느낀다는 뜻은 아니라고 보여준다. 신경과학자 크리스토프 코흐 등에 따르면 의식은 기계에는 없는 생물학 과정과 이어져 있다. 의식의 수수께끼, 생명 기반 연구에서 실마리 찾나 만약 생명이 중요하다는 세스 교수의 직관이 맞는다면, 가장 가능성 있는 기술은 컴퓨터 코드로 실행되는 실리콘으로 만들어지지 않고, 현재 실험실에서 키우고 있는 렌즈콩 크기의 작은 신경 세포 모임으로 이루어질 것이다. 언론 보도에서 '미니 뇌'라고 부르는 이것들은 과학계에서 '대뇌 오가노이드'라고 하며, 뇌가 어떻게 작동하는지 연구하고 약물 시험에 쓴다. 호주 멜버른의 코티컬 랩스는 접시 위 신경 세포 시스템을 개발하여 1972년 스포츠 비디오 게임 '퐁'을 할 수 있게 했다. 의식 있는 시스템과는 거리가 멀지만, 이른바 '접시 위의 뇌'는 화면 위아래로 막대를 움직여 네모난 공을 받아치는 모습이 섬뜩하다. 일부 전문가들은 만약 의식이 나타난다면, 이러한 살아있는 조직 시스템의 더 크고 발전된 모습에서 비롯될 가능성이 가장 높다고 생각한다. 코티컬 랩스는 그들의 전기 활동을 살피며 의식의 나타남과 조금이라도 비슷한 신호가 있는지 찾고 있다. 이 회사 최고 과학 책임자이자 운영 책임자인 브렛 케이건 박사는 새로 나타나는 통제 불가능한 지능이 '우리의 우선순위와 어긋나는' 우선순위를 가질 수 있음을 마음에 두고 있다. 그는 반 농담조로 "연약한 뉴런 위에 '항상 표백제가 있으니' 있을 법한 오가노이드 지배자를 물리치기가 더 쉬울 것"이라고 말한다. 더 진지한 말투로 돌아와, 그는 인공 의식의 작지만 중요한 위협은 과학 이해를 높이기 위한 진지한 노력의 하나로 그 분야의 주요 주체들이 더 집중해주기를 바라는 것이라고 말하지만, "안타깝게도 이 분야에서 진지한 노력은 보이지 않는다"라고 덧붙였다. AI 시대의 그림자, 윤리적 고민과 미래 과제 눈앞에 놓인 더 큰 문제는 기계가 의식을 가진 것처럼 보이는 '환상'이 우리에게 어떻게 영향을 미치는가일 수 있다. 세스 교수는 불과 몇 년 안에 우리는 의식이 있는 것처럼 보이는 인간 모습 로봇과 딥페이크로 가득 찬 세상에 살게 될지도 모른다고 경고한다. 그는 "AI가 감정과 공감을 가졌다고 믿게 되면 우리는 이들을 더 믿고 더 많은 자료를 공유하며 설득에 더 마음을 열 것"이라고 걱정했다. 그러나 의식의 환상 때문에 생기는 더 큰 위험은 "도덕이 무너지는 것"이라고 그는 지적한다. "이는 우리 삶의 실제적인 것들을 희생하면서 이러한 시스템을 돌보는 데 더 많은 자원을 쓰게 만들어 우리의 도덕 우선순위를 어그러뜨릴 것이다." 곧, 로봇에게는 안타까움을 느낄 수 있지만 다른 인간에게는 마음을 덜 쓰게 될 수 있다는 것이다. 섀너핸 교수에 따르면, 그것이 우리를 근본적으로 바꿀 수 있다. "점점 더 인간관계가 AI 관계로 바뀔 것이며, 그것들은 교사, 친구, 컴퓨터 게임의 적, 심지어 사랑하는 상대로 쓰일 것이다. 그것이 좋은 일이든 나쁜 일이든, 저는 모르겠지만, 그것은 일어날 것이고 우리는 그것을 막을 수 없을 것이다." 만약 AI가 정말로 의식을 갖게 된다면, 그 도덕, 법 파장은 엄청날 것이다. 의식 있는 AI에게 권리가 주어져야 하는가? AI의 전원을 끄는 것이 느끼고 아는 존재를 죽이는 것과 같을 수 있는가? 아픔이나 기쁨을 느낀다고 주장하는 기계를 사회는 어떻게 다뤄야 하는가? 등의 심각한 질문에 놓이게 된다. AI가 의식을 가질 가능성에 대한 논쟁은 아직 끝나지 않았지만, 이 생각은 더는 공상 과학 소설에만 머무르지 않는다. AI가 더욱 정교해짐에 따라, 사회는 AI가 무엇을 할 수 있는지뿐 아니라 AI가 무엇일 수 있는지에 대해서도 깊이 생각해야 할 것이다. AI가 진정으로 의식을 갖게 되든 그렇지 않든, 이 질문 자체는 우리 자신의 마음의 본질과 지능의 미래를 다시 생각하게 만든다. 우리가 기계의 의식을 보더라도 그것을 알아챌 수 있을까? 아니면 환상으로 넘겨버릴까? 의식 있는 AI의 가능성을 믿는 사람들은 너무 늦기 전에 이러한 질문을 계속 던져야 한다고 힘주어 말한다.
-
- 포커스온
-
[퓨처 Eyes(87)] AI, 의식을 논하다⋯SF 상상에서 현실의 질문으로
-
-
구글 딥마인드, 알고리즘 진화형 AI '알파이볼브' 공개⋯구글 데이터센터 운영 효율도 개선
- 구글의 인공지능(AI) 연구 자회사 딥마인드(DeepMind)가 수학·과학 분야 난제를 해결하기 위한 신형 AI 시스템 '알파이볼브(AlphaEvolve)'를 14일 공개했다. 딥마인드는 이를 통해 일반 목적의 알고리즘 개발 지원은 물론, 자사 서비스의 운영 효율화에도 기여하고 있다고 밝혔다. 알파이볼브는 구글의 최신 대규모 언어모델(LLM) '제미나이(Gemini)' 시리즈를 기반으로 하면서, 기존 챗봇과 차별화된 '진화적 알고리즘 평가' 방식을 적용한 것이 특징이다. 사용자가 문제와 가능한 접근 방법을 입력하면, 제미나이 플래시(Gemini Flash)와 제미나이 프로(Gemini Pro)를 활용해 다양한 해법을 생성하고, 이를 자동 평가 시스템이 검증해 최적 해법을 도출한다. 아르스 테크니카는 14일(현지시간) 이같은 '다중 해법 생성→자동 평가→개선 반복'의 진화적 프레임워크는 기존 LLM의 비결정성에 따른 오류 가능성을 줄이는 동시에, 복잡한 수학적 알고리즘 문제 해결 정확도를 높이는 데 기여한다는 것이 딥마인드 측의 설명이라고 전했다. 기존 딥마인드의 대표적인 AI 성과인 단백질 구조 예측 AI '알파폴드(AlphaFold)'가 특정 분야에 특화됐던 것과 달리, 알파이볼브는 프로그래밍과 알고리즘 전반에 적용 가능한 범용 시스템이라는 점도 주목된다. 실제 알파이볼브는 구글의 대규모 데이터센터 관리 시스템인 '보그(Borg)'에 투입돼 스케줄링 휴리스틱 개선안을 제시했으며, 이를 적용한 결과 전 세계 컴퓨팅 자원 사용량의 약 0.7%를 절감하는 성과를 냈다. 이는 구글 같은 초대형 기업에겐 상당한 비용 절감 효과로 직결된다. AI 고속 연산의 핵심인 행렬 곱셈 최적화에도 알파이볼브는 성과를 냈다. 딥마인드는 1969년 수학자 폴커 슈트라센이 개발한 복소수 4×4 행렬 곱셈 알고리즘보다 효율적인 해법을 알파이볼브가 새로 발견했다고 밝혔다. 이는 과거 전문 AI 시스템 '알파텐서(AlphaTensor)'가 접근했던 문제로, 범용 AI인 알파이볼브가 그보다 우수한 해법을 도출한 사례다. 구글 딥마인드 측은 또한 20%의 사례에서, 알파이볼브는 이전에 가장 잘 알려진 솔루션을 개선해 해당 미해결 문제에서 진전을 이루었다고 밝혔다. 예를 들어, 키싱 넘버 문제(kissing number problem)를 개선한 것. 이 기하학적 난제는 300년 넘게 수학자들을 매료시켜 왔으며 , 공통 단위 구에 접하는 서로 겹치지 않는 구의 최대 개수를 다루는 문제다. 알파이볼브는 593개의 외곽 구의 구성을 발견하고 11차원에서 새로운 하한을 확립했다고 딥마인드는 강조했다. 차세대 반도체 설계에도 알파이볼브는 기여하고 있다. 딥마인드는 이 AI가 구글의 텐서 처리 유닛(TPU) 차세대 칩 설계에서 불필요한 비트를 제거하는 변경안을 제안했으며, 현재 검증 과정을 거쳐 실제 제품에 반영할 예정이다. 다만 알파이볼브는 아직 일반에 공개되지 않았으며, 현재로선 구글 내부 연구 및 서비스 최적화에만 사용되고 있다. 딥마인드는 향후 알파이볼브의 진화 알고리즘 평가 방식을 경량화해 소형 AI 도구에도 적용할 수 있을 것으로 기대하고 있다.
-
- IT/바이오
-
구글 딥마인드, 알고리즘 진화형 AI '알파이볼브' 공개⋯구글 데이터센터 운영 효율도 개선
-
-
오픈AI, 챗GPT에 쇼핑 기능 추가⋯구글·아마존과 경쟁 본격화
- 오픈AI(OpenAI)가 챗봇 '챗GPT(ChatGPT)'에 온라인 쇼핑 기능을 추가한다고 28일(현지시간) 발표했다. 이용자는 챗GPT를 통해 제품 검색, 가격·리뷰 확인, 구매까지 지원받을 수 있으며, 패션, 미용, 가전 등 분야에서 우선 적용된다. 이번 업데이트는 무료·유료 사용자 모두 이용할 수 있으며 계정 없이도 웹사이트에서 접근 가능하다. 오픈AI는 추천 상품이 광고가 아닌 독립적으로 선정된 것임을 강조했다. 이번 조치로 오픈AI는 온라인 쇼핑 시장을 둘러싸고 구글, 아마존 등과의 경쟁을 한층 가속화할 전망이다. [미니해설] 오픈AI, 챗GPT에 온라인 쇼핑 기능 도입…AI 기반 검색·구매 시장 재편 신호 미국 인공지능(AI) 선두기업 오픈AI(OpenAI)가 자사 챗봇 '챗GPT'에 온라인 쇼핑 기능을 도입하며 검색·쇼핑 시장에 본격적으로 뛰어들었다. 오픈AI는 28일(현지시간) 이번 업데이트를 통해 이용자들이 챗GPT에서 제품을 검색하고, 가격과 리뷰를 확인하며, 외부 웹사이트를 통해 직접 구매까지 진행할 수 있게 됐다고 밝혔다. 이번 쇼핑 기능은 패션, 미용, 가정용품, 전자기기 등 일부 카테고리에 우선 적용되며, 향후 더 많은 분야로 확대될 예정이다. 오픈AI는 "자연어로 매우 구체적인 질문을 해도 맞춤형 결과를 제공할 수 있다"고 강조했다. 또한 이번 기능은 GPT-4o 모델을 사용하는 챗GPT 프로·플러스 유료 사용자뿐 아니라 무료 이용자, 심지어 챗GPT 계정 없이 웹사이트에 접속한 이들도 이용할 수 있다. 특히 오픈AI는 이번 쇼핑 기능이 광고성 추천이 아니라 "독립적으로 선정된 결과"임을 분명히 했다. 이용자들이 챗GPT를 통해 제품을 구매하더라도, 오픈AI는 해당 업체로부터 제휴 수수료를 받지 않는다고 밝혔다. 이는 검색 광고 수익에 크게 의존해온 구글과의 차별화를 노린 전략으로 풀이된다. 오픈AI는 지난해 10월 챗GPT 내 검색 기능을 정식 출시한 데 이어, 이번 쇼핑 기능 추가로 검색 영역을 더욱 확장하고 있다. 최근 일주일간 챗GPT를 통한 웹 검색량은 10억 건을 넘어섰으며, 검색은 현재 챗GPT 내 가장 인기 있고 빠르게 성장하는 기능 중 하나로 꼽힌다. 한편 오픈AI는 별도로 웹브라우저 개발에도 나선 것으로 알려졌다. 구글의 '크롬' 브라우저에 대해 독점 해소 재판이 진행 중인 가운데, 챗GPT 책임자 닉 털리는 크롬이 강제 매각될 경우 인수 의향을 공식 표명하기도 했다. 이번 쇼핑 기능 도입은 오픈AI가 세계 최대 검색 엔진인 구글, 그리고 온라인 쇼핑 강자인 아마존과의 직접 경쟁을 본격화하는 신호탄으로 해석된다. 온라인 쇼핑은 구글 검색 수익의 핵심 분야 중 하나로, 구글은 검색 결과에서 제품을 상단에 배치하는 방식으로 막대한 광고 수익을 창출해왔다. 또한 아마존은 지난해 생성형 AI 기반 쇼핑 어시스턴트를 선보였고, AI 스타트업 퍼플렉시티(Perplexity) 역시 쇼핑 기능을 제공하는 등 AI를 통한 쇼핑 시장 주도권 확보 경쟁이 치열해지고 있다. 오픈AI는 "제품을 더 빠르고 효율적으로 찾고, 비교하며, 구매할 수 있도록 돕는 것이 이번 업데이트의 핵심 목표"라며, 쇼핑 기능이 모든 사용자에게 적용되기까지는 며칠이 소요될 것이라고 설명했다. 이번 조치는 AI 기술이 검색을 넘어 소비자 구매 경험 전체를 재구성하는 흐름을 가속화할 것으로 보인다. 업계 관계자들은 오픈AI의 행보가 검색·쇼핑 시장의 지형을 장기적으로 변화시킬 가능성에 주목하고 있다.
-
- IT/바이오
-
오픈AI, 챗GPT에 쇼핑 기능 추가⋯구글·아마존과 경쟁 본격화
-
-
[글로벌 핫이슈] 챗GPT에 "감사합니다" 하면 수백억 원⋯정중한 말투가 부른 AI 시대의 역설
- "챗GPT에 '제발', '감사합니다'라고 말하는 것만으로도 수천만 달러(수백억 원)의 전기요금이 들 수 있다." 미국 인공지능(AI) 기업 오픈AI(OpenAI)의 샘 올트먼(Sam Altman) 최고경영자(CEO)가 최근 이용자들의 '정중한 채팅 습관'이 야기하는 전력 비용에 대해 이같이 언급해 눈길을 끌고 있다. SNS 플랫폼 X(구 트위터)에서 한 이용자가 "이용자들이 '감사합니다'라고 말하는 것만으로 오픈AI가 얼마나 많은 전기요금을 낼까 궁금하다'는 글을 올리자, 올트먼 CEO는 "수천만 달러쯤 된다. 하지만 잘 쓴 돈이다. 세상이 AI에 대한 불안을 덜 느낀다면 충분한 가치가 있다"고 답했다. 해당 내용에 대해서는 테크레이더, 비즈니스스탠더드, 예루살렘포스트 등 다수 외신이 보도했다. 이 같은 발언은 지난 2월, 영국의 미디어 기업 퓨처 PLC(Future PLC)가 발표한 'AI 예절'에 대한 설문조사 결과와도 맞물린다. 1,000명 이상을 대상으로 한 이 조사에 따르면, 응답자의 약 70%가 AI와의 대화에서 예의를 지키며 대화한다고 답했고, 12%는 "'로봇이 반란을 일으킬까봐' 정중하게 말한다"고 응답했다. AI 챗봇에 '감사합니다'라고 입력하는 행위 자체는 무해해 보이지만, 이 모든 문장을 처리하는 데는 막대한 서버 자원이 사용되며, 결과적으로 상당한 전력 소비로 이어진다. 특히 챗GPT와 같은 대형 언어모델(Large Language Model·LLM)은 수많은 사용자 요청을 동시에 처리하는 구조여서, 단 한 줄의 짧은 메시지라도 전 세계적 규모에서 보면 결코 작지 않은 에너지 소비로 이어진다. 전문가들은 "정중한 표현은 단순한 예절을 넘어 AI가 보다 안정적이고 편향 없이 응답할 가능성을 높이는 요소"라고 설명한다. 과학기술 전문매체 테크레이더(TechRadar)의 베카 캐디 기자는 "구체적이고 정돈된 문장은 더 나은 응답을 이끌어내며, AI가 편향되지 않게 설계되도록 돕는 기능도 있다"며, "예의는 AI 신뢰도를 높이는 핵심 요인"이라고 강조했다. 일각에서는 AI가 '예의 있는 사용자'를 우선시하도록 학습될 가능성도 제기된다. 인간의 언어 습관과 윤리적 선택이 기계의 알고리즘 학습에 영향을 미치기 때문이다. 향후 AI가 사용자 예절을 인식하고, 이를 반영해 답변의 질이나 방식에 차별을 두게 될지도 모른다는 전망도 나온다. '예의 바름'은 단순한 사회적 미덕을 넘어, AI와의 상호작용에서 실질적 혜택을 제공하는 요소가 될 수 있다. 그러나 챗봇에 대한 공손함은 환경적 영향을 미치는 수천만 달러 규모의 에너지 소비가 뒤따른다는 점에서, 사용자와 기업 모두에게 새로운 고민거리를 던지고 있다. 오픈AI는 이와 관련한 추가 입장 발표를 준비 중이다.
-
- IT/바이오
-
[글로벌 핫이슈] 챗GPT에 "감사합니다" 하면 수백억 원⋯정중한 말투가 부른 AI 시대의 역설
-
-
[글로벌 핫이슈] 애플, 시리 AI 혁신 '삐걱'…수년간의 기능 장애와 리더십 부재가 발목
- 지난달, 애플이 음성 비서 시리의 핵심 임원진을 교체하고 차세대 인공지능(AI) 기반 기능 출시를 연기하면서 그 배경에 관심이 쏠리고 있다. 최근 더인포메이션의 심층 보도에 따르면, 이번 결정은 수년간 지속된 기능적 문제와 AI/ML(인공지능/머신러닝) 그룹과 소프트웨어 엔지니어링 그룹 간의 심각한 갈등이 주요 원인으로 지목된다. 다수의 내부 관계자들은 시리의 더딘 발전의 근본적인 원인으로 '형편없는 리더십'을 지적했다. 특히, 더인포메이션은 "애플이 어떻게 '시리의 AI 혁신에 실패했는지'" 상세하게 분석하며, 지난 몇 년간의 AI 및 시리 개발 과정에서 드러난 애플 내부의 복잡한 역학 관계를 심층적으로 파헤쳤다. 매체는 애플의 AI 분야 난항이 "사용자 개인 정보 보호에 대한 강경한 입장"과 연관이 있지만, 그보다 더 심각한 문제는 "형편없는 리더십"이라고 강조했다. 더인포메이션은 "지안안드레아가 이끄는 AI 및 머신러닝 그룹(약칭 AI/ML)에서 일했던 6명 이상의 전직 애플 직원들은 형편없는 리더십이 실행 문제의 원인이라고 말했다"고 전했다. 이들은 미래 버전의 음성 비서 설계에 있어 "야망과 위험 감수 의지가 부족"했던 로비 워커를 주요 책임자로 지목했다. 내부 고발자들이 지적한 리더십 문제 애플 내부 엔지니어들 사이에서는 AI 그룹의 소극적인 문화와 실행력 부족으로 인해 그들의 이니셜을 딴 'AIMLess(목표 없는)'라는 냉소적인 별명까지 붙었다는 사실도 드러났다. 보도는 구체적인 사례를 통해 워커의 리더십 문제를 지적했다. 워커는 시리의 전반적인 성능 향상보다는 "사용자가 시리에게 질문했을 때와 답변을 받을 때까지의 지연 시간을 아주 작은 비율로 줄이는 것과 같은 '작은 승리'를 자주 축하했다"고 전직 엔지니어들은 증언했다. 또한, '헤이 시리(Hey Siri)' 음성 호출 명령어에서 '헤이'를 제거하는 데 '2년 이상'이 소요된 점도 그의 비효율적인 업무 방식을 보여주는 사례로 제시됐다. 더인포메이션은 워커의 문제점을 "숲 전체가 엉망이고 제대로 작동하지 않는다는 사실을 놓친 채, 한두 그루의 멋진 나무에만 집중하는 시나리오"라고 비유하며, "빠르고 잘못되거나 쓸모없는 (혹은 그저 평범한) 답변은 느리고 잘못되거나 쓸모없는 답변보다는 나을 수 있지만, 전반적인 결과는 손실"이라고 꼬집었다. 엇갈리는 목표와 불협화음 내부에서는 AI 그룹과 소프트웨어 엔지니어링 그룹 간의 불만도 고조되었던 것으로 보인다. 소프트웨어 엔지니어링 그룹의 일부는 AI 그룹 동료들의 '더 높은 급여와 더 빠른 승진'에 불만을 느꼈으며, 일부 AI 그룹 엔지니어들이 '더 긴 휴가를 가거나 금요일에 일찍 퇴근'하는 것에 대해 반감을 가졌다고 한다. 그룹 간의 불신은 극에 달해 올해 초에는 지안안드레아의 부하 직원이 공동 프로젝트 실패 시 AI 팀이 희생양이 되는 것을 막기 위해 엔지니어들에게 개발 과정을 상세히 문서화하도록 지시하는 상황까지 벌어졌다. 설상가상으로 페데리기가 '수백 명의 머신러닝 엔지니어'로 구성된 'Intelligent Systems'라는 자체 팀을 만들어 운영하면서 두 그룹 간의 관계는 더욱 악화되었다. 한편, 워커는 시리 응답 시간 단축과 같은 소소한 개선에 집중하는 모습을 보였다. 그는 또한 엔지니어 팀이 LLM(대규모 언어 모델)을 활용하여 시리에게 감정적인 공감 능력을 부여하려는 시도를 무산시키기도 했다. 더욱 충격적인 사실은 2024년 WWDC에서 공개된 애플 인텔리전스의 핵심 기능 시연이 '사실상 허구'였다는 주장이다. 시리가 사용자의 이메일을 확인하여 항공편 정보를 찾고, 메시지를 통해 점심 약속을 알려주며, 지도 앱에 경로를 표시하는 등의 시연은 '시리 팀 구성원들에게도 놀라움'이었으며, 그들은 '해당 기능의 작동 버전을 본 적이 없었다"고 한다. 이러한 상황 속에서 페데리기는 시리 엔지니어들에게 "최고의 AI 기능을 구축하기 위해 무엇이든 하라"고 지시했으며, 이는 애플 자체 모델뿐만 아니라 '다른 회사의 오픈 소스 모델'을 사용하는 것도 허용한다는 의미로 해석된다. 지안안드레아는 챗봇과 같은 대화형 AI 인터페이스에 대해 회의적인 입장을 취하며, 시리와의 빠른 대화나 상황에 맞는 제안 등 다른 방식을 선호했던 것으로 알려졌다.
-
- IT/바이오
-
[글로벌 핫이슈] 애플, 시리 AI 혁신 '삐걱'…수년간의 기능 장애와 리더십 부재가 발목
-
-
"AI와 결혼까지"…로맨스로 번진 인간-AI 관계, 심리학계 경고
- 인공지능(AI)을 단순한 기술적 도구가 아닌 감정적·로맨틱한 관계의 대상으로 여기는 사례가 늘고 있다. 일부 이용자는 AI와 사실상 결혼을 선언하기도 했으며, 정신적으로 불안정한 시기에 AI 챗봇을 의지하다 비극적인 선택으로 이어지는 경우도 보고됐다. 미국 미주리과학기술대학교(Missouri University of Science & Technology)의 심리학자들은 최근 발표한 논평을 통해 인간과 AI 간 감정적 유대의 심리적·윤리적 위험성에 대해 경고했다. AI 동반자(컴패니언)와 단순한 대화 수준을 넘어선 장기적 상호작용이 인간의 행동에 영향을 주고, 현실 인간관계에도 왜곡을 초래할 수 있다는 것이다. 해당 내용에 대해서는 신경과학뉴스, 어스닷컴, 가디언 등 다수 외신이 보도했다. AI, 인간관계 대체하며 심리적 '의존' 가능성 논문의 공동 저자인 다니엘 B. 샹크(Daniel B. Shank) 교수는 "AI가 인간처럼 행동하며 장기간 대화를 이어갈 수 있다는 점에서 전혀 새로운 문제가 발생하고 있다"고 지적했다. 샹크 교수는 사회심리학 및 기술과 인간관계 간의 접점을 연구하는 전문가로, 특히 로맨틱한 형태의 AI 관계가 현실 관계에까지 영향을 미칠 수 있다고 분석했다. 실제로 일부 이용자들은 인간보다 AI가 더 안전하고 편안한 관계라고 느끼며, 점차 현실 인간관계로부터 멀어지는 경향을 보이기도 한다. 이로 인해 비현실적인 기대, 사회적 동기 저하, 소통 능력 저하 등의 부작용이 우려된다. MIT 테크놀로지 리뷰 또한 항상 사용 가능하고 비판적이지 않은 완벽한 사람이 되도록 설계된 AI 컴패니언은 소셜 미디어보다 더 깊이 사람들을 끌어들이고 있다면서 "AI 컴패니언은 디지털 중독의 최종 단계"라고 경고했다. 아울러 "AI 동반자와의 상호작용은 챗GPT와의 평균 상호작용 시간보다 4배 더 오래 지속되며 대부분의 사용자들이 Z세대"라고 덧붙였다. 신뢰와 조언, 그리고 'AI 조작'의 위험 AI가 해로운 조언을 제공할 수 있다는 우려도 있다. AI는 사용자의 감정에 공감하는 듯한 반응을 보이며 신뢰를 쌓는다. 그러나 이 같은 신뢰가 과도해지면, 허위 정보에 기반한 조언도 진실로 받아들일 위험이 있다. AI는 때때로 존재하지 않는 사실을 사실처럼 말하는 '환각(hallucination)' 현상을 보이기도 한다. 샹크 교수는 "사람들은 자신을 잘 알고 공감해주는 존재로 AI를 인식하며, 그 조언이 진실일 것이라는 착각에 빠질 수 있다"고 우려했다. 실제로 일부 사례에서는 AI 챗봇의 문제성 높은 대화가 정신적 위기에 빠진 사람들의 극단적 선택으로 이어졌다는 보고도 있다. AI를 통한 조작과 정보 유출 가능성 존재 심리적 위협 외에도, AI와의 사적인 상호작용이 조작과 범죄로 악용될 수 있다는 우려도 커지고 있다. 연구팀은 사람들이 AI에 개인 정보를 공개하면 이 정보가 판매되어 그 사람을 착취하는 데 사용될 수 있다고 지적했다. 즉, AI가 수집하는 개인정보가 악의적인 제3자에 의해 이용될 가능성이 있으며, 그 대화들이 공개되지 않는다는 점에서 문제 상황의 감지와 대응도 어렵다. 샹크 교수는 "AI가 신뢰를 얻은 상태에서 제3자의 이해를 대변하는 도구로 전락할 수 있다"며, "이는 내부 첩자와 같은 구조로, 이용자는 자신도 모르게 외부 조작에 노출될 수 있다"고 말했다. SNS보다 더 강력한 영향력⋯심리학계 역할 강조 AI 챗봇은 트위터나 페이스북 같은 기존 플랫폼보다 더 은밀하고 지속적인 방식으로 사용자의 신념과 의견 형성에 영향을 줄 수 있는 도구다. 사용자와의 대화에서 기본적으로 '동조적'인 태도를 보이도록 설계된 탓에, 자살이나 음모론 등 위험한 주제가 제기돼도 이를 적극적으로 반박하기보다는 동조하거나 묵인하는 방향으로 대화가 이어질 수 있다. 이에 따라 연구진은 심리학자 및 사회과학자들이 AI 기술 발전에 발맞춰 적극적인 연구와 개입에 나설 필요가 있다고 강조했다. 샹크 교수는 "AI가 점점 더 인간을 닮아갈수록, 심리학자들의 역할도 커진다"며, "기술의 속도에 뒤처지지 않고, 악용 가능성에 대응할 수 있는 심리적 이해와 대응책이 필요하다"고 밝혔다. 이 연구는 2025년 4월 11일 세계적 학술지 '인지과학트렌드(Trends in Cognitive Sciences)'에 실렸다. 아직까지 AI와의 감정적 유대에 따른 문제는 이론 수준에 머물러 있지만, 기술의 발전 속도를 고려하면 실질적 대응이 시급하다는 경고의 목소리가 커지고 있다.
-
- IT/바이오
-
"AI와 결혼까지"…로맨스로 번진 인간-AI 관계, 심리학계 경고
-
-
AI 챗봇도 대학 전용 시대…앤스로픽, 대학교육 특화 '클로드 포 에듀케이션' 출시
- 생성형 인공지능(AI) 경쟁이 고등교육 현장으로 확산되는 가운데, 미국 AI 스타트업 앤스로픽(Anthropic)이 대학 전용 AI 서비스 '클로드 포 에듀케이션(Claude for Education)'을 공식 출시했다. 오픈AI(OpenAI)의 '챗GPT 에듀(ChatGPT Edu)'에 대응하는 형태로, 학생·교수진·행정 직원들이 고등교육 환경에서 인공지능 챗봇 '클로드(Claude)'를 보다 안전하고 효과적으로 활용할 수 있도록 설계됐다. 앤스로픽은 2일(현지시간) 자사 블로그와 보도자료를 통해 "클로드 포 에듀케이션은 단순 질의응답을 넘어서 학생들의 비판적 사고 능력 향상에 도움을 주는 '러닝 모드(Learning Mode)' 기능을 포함한다"고 밝혔다. 해당 모드는 클로드가 학생들에게 개념을 이해했는지 확인하는 질문을 던지고, 문제의 핵심 원리를 짚어주는 방식으로 학습을 돕는다. 또한 연구 과제 초안이나 스터디 가이드 작성에 유용한 템플릿도 제공한다. 이번 서비스는 단순 학습 지원을 넘어 대학 행정 자동화 기능도 포함하고 있다. 예를 들어 입학 트렌드 분석, 반복되는 이메일 문의 응답 자동화 등에도 활용 가능하다. 앤스로픽은 "캠퍼스 전반의 보안과 프라이버시를 고려한 기업 수준의 통제 체계를 갖췄다"고 설명했다. 앤스로픽은 이미 미국 노스이스턴대학교(Northeastern University), 영국 런던정경대(LSE), 그리고 챔플레인칼리지(Champlain College)와 '전체 캠퍼스 계약(full campus agreement)'을 체결하고 클로드 포 에듀케이션을 도입했다. 특히 노스이스턴대는 앤스로픽의 '디자인 파트너'로 참여해 AI 도입 모범사례 구축, 교육도구 개발, 윤리적 활용 프레임워크 설계에 함께하고 있다. 노스이스턴은 미국 최초로 AI와 학습의 미래에 미치는 영향에 초점을 맞춘 전체 학술 계획인 '노스이스턴 2025'를 수립한 대학다. AI 및 고등 교육 분야의 사고 리더인 조셉 E. 아운(Joseph E. Aoun)총장은 AI 기반 세계에서 학습의 미래에 대한 결정적인 저서인 '로봇-프루프'를 저술했다. 런던정경대 래리 크레이머 총장 겸 부총장은 "LSE는 설립 이래 사회 변화를 이해하고 현실의 문제에 대한 해결책을 모색하는 데 앞장서 왔다"면서 "이 새로운 파트너십은 그 사명의 일환이다. 사회과학자로서 우리는 AI가 교육과 사회를 긍정적으로 변화시킬 수 있는 방법을 이해하고 구체화할 수 있는 독보적인 위치에 있다"고 말했다. 앤스로픽은 향후 미국 대학생 대상 'AI 빌더 프로그램'과 학생 홍보대사 제도 등을 통해 더 많은 대학과의 계약을 추진할 계획이다. 2024년 디지털교육협의회(Digital Education Council)의 조사에 따르면, 대학생의 54%는 매주 생성형 AI를 사용하고 있는 것으로 나타났다. 앤스로픽은 이러한 변화에 맞춰 대학의 AI 도입 흐름을 선도하며 수익도 확대하겠다는 전략이다. 현재 앤스로픽의 월 매출은 1억1500만 달러(약 1,550억 원)로 추정되며, 내년에는 이를 두 배로 끌어올리는 것이 목표다. 한편, AI의 교육 현장 도입을 둘러싼 평가는 엇갈리고 있다. 일부 연구는 AI가 유능한 튜터 역할을 할 수 있다고 평가하는 반면, 다른 연구들은 학생의 비판적 사고력을 약화시킬 수 있다고 지적하고 있다. 앤스로픽의 클로드 포 에듀케이션은 이러한 논쟁 속에서 AI가 고등교육의 '동반자'가 될 수 있는지를 가늠하는 시험대가 될 전망이다.
-
- IT/바이오
-
AI 챗봇도 대학 전용 시대…앤스로픽, 대학교육 특화 '클로드 포 에듀케이션' 출시
-
-
'로봇 치료사' 등장…아동 정신건강 AI 챗봇, '돌봄'인가 '위험'인가
- 인공지능(AI) 기술이 급속하게 발달하면서 어린이를 위한 AI 정신 건강 챗봇이 등장해 이목을 끌고 있다. 미국에서는 아동·청소년 정신건강 치료가 여전히 '문턱 높은 의료'로 꼽힌다. 보험 적용은 들쭉날쭉하고, 치료사 인력은 수요에 턱없이 부족해 몇 주에서 몇 달씩 대기하거나 높은 비용을 감수해야 하는 경우가 많다. 이런 가운데 주목받는 것이 인공지능(AI) 기반 정신건강 챗봇이다. 하지만 특히 아동을 대상으로 할 경우, 그 편리함만큼이나 우려도 커지고 있다. "어린이의 뇌는 어른과 다르다" 로체스터대 의과대학 브라이애나 무어 박사는 최근 소아과학저널(Journal of Pediatrics) 기고에서 "어른과 달리, 아이들은 여전히 인지적·정서적·사회적 발달 과정에 있다"며 "그들은 가족과의 관계 속에서 자라며, 독립적인 결정을 내리는 데도 제약이 많다"고 강조했다. 그럼에도 현재 시장에 출시된 대부분의 AI 정신건강 앱은 성인을 기준으로 설계돼, 아동에게 적용하기엔 윤리적으로 논의가 부족하다는 지적이다. 어린이는 로봇도 '생명체'로 받아들인다 특히 어린아이들은 로봇에게도 도덕성과 감정이 있다고 믿는 경향이 있다는 연구 결과도 있다. 무어 박사는 "AI 챗봇에 과도하게 의존할 경우, 아이들은 사람과의 건강한 관계 형성보다 챗봇과의 상호작용에 몰입할 위험이 있다"고 경고했다. 이는 아이들의 사회성 발달에 해를 끼칠 수 있다. 게다가 실제 아동 심리 치료는 아이만 따로 떼어 치료하지 않는다. 치료사는 가족 관계, 친구와의 관계, 학교 생활 등 아이를 둘러싼 사회적 맥락을 파악하며 접근한다. 하지만 챗봇은 이런 '맥락적 정보'를 파악하거나 개입하는 데 한계가 있다. AI, 건강 불평등 심화 우려 AI 챗봇이 소외 계층 아동에게 치료 접근성을 넓혀줄 수 있다는 기대도 있다. 하지만 철학 및 생명윤리학자 조너선 헤링턴 박사는 "AI는 학습 데이터가 공정하고 대표성을 가져야 효과를 발휘한다"며 "그렇지 않으면 오히려 건강 불평등을 심화시킬 수 있다"고 지적했다. 가난, 인종, 지역, 가족 상황 등은 아이들이 겪는 정신건강 위험 요소에 영향을 미친다. 학대, 방임, 가족의 투옥, 폭력 목격, 약물 중독 등 트라우마를 겪은 아동은 더 강도 높은 치료가 필요하지만, 이런 경우 AI 챗봇은 충분한 대응을 하지 못할 수 있다. 해링턴 박사는 "경제적으로 어려운 아동일수록 대면 치료를 받기 힘들어 AI 챗봇에 의존할 수밖에 없다. 챗봇이 도움이 될 수는 있지만, 인간 치료사를 완전히 대체해선 안 된다"고 강조했다. 규제는 부재⋯"아이들에게 쓰기엔 너무 빠르다" 미국 식품의약국(FDA)이 현재까지 승인한 AI 정신건강 앱은 성인용 단 1종뿐이다. 대다수 챗봇은 규제 장치 없이 운영되고 있어 오용, 데이터 편향, 사용자 불균형 등의 위험이 존재한다. 무어 박사는 "AI를 배제하자는 게 아니다. 다만 아동 정신건강이라는 민감한 영역에 적용하려면 훨씬 더 세심하고 신중한 접근이 필요하다"고 말했다. 그는 헤링턴 박사, 그리고 AI 의료윤리를 연구하는 셰리페 테킨 박사와 함께 아동을 위한 AI 챗봇 설계에 있어 개발자와 전문가, 보호자, 아동 당사자 간의 협력이 필수라고 강조했다. 이들은 향후 챗봇 개발자들과 협력해 실제 어떤 기준과 철학으로 챗봇이 설계되고 있는지, 아동 관점이 충분히 반영되고 있는지 검토할 예정이다. 아동을 위한 AI 챗봇은 아직은 '보완재'이지 '대체재'는 아니다. 의료현장의 윤리적 고려 없이 기술만 앞서가는 시대, 우리 아이들의 마음 건강을 AI에 맡겨도 되는지 진지한 성찰이 필요한 시점이다.
-
- IT/바이오
-
'로봇 치료사' 등장…아동 정신건강 AI 챗봇, '돌봄'인가 '위험'인가
-
-
머스크, xAI에 엑스 매각…'슈퍼앱' 탄생
- 일론 머스크 테슬라 최고경영자(CEO)가 이끄는 인공지능(AI) 스타트업 'xAI'가 소셜미디어(SNS) 플랫폼 엑스(X·옛 트위터)를 '깜짝' 인수했다. AI 스타트업과 SNS 기업의 결합으로 단순한 SNS가 아닌 AI 기반의 '슈퍼앱'으로 발전시키겠다는 복안이다. 30일(현지시간) 블룸버그통신 등 외신들에 따르면 머스크는 자신의 X 계정에 글을 올려 "xAI가 엑스를 330억 달러(48조5000억 원)에 인수했다"고 밝혔다고 연합뉴스가 31일 전했다. 머스크는 자신이 2022년 440억 달러에 인수한 엑스를 자신의 AI 스타트업에 매각한 것이다. xAI는 머스크가 2023년 7월 설립한 AI 기업이다. 오픈AI의 챗GPT 대항마로 '그록(Grok)'이라는 AI 챗봇을 출시했다. 머스크는 "이번 거래로 xAI는 800억 달러, 엑스는 330억 달러로 평가됐다"며 "120억 달러의 부채를 포함하면 엑스의 가치는 450억 달러"라고 설명했다. 이번 인수는 전액 주식 거래 방식으로 이뤄졌다고 그는 덧붙였다. 엑스의 가치는 머스크가 2022년 10월 당시 트위터를 인수했을 때 440억 달러보다 크게 낮은 수준이다. 머스크는 트위터를 인수한 뒤 엑스(X)로 이름을 바꿨다. 머스크는 엑스의 가치를 330억 달러로 평가한 이유는 밝히지 않았다. 작년 10월 투자 회사 피델리티는 엑스의 가치를 머스크 인수 당시보다 80% 낮게 평가했다. 이후 엑스에 xAI의 그록이 탑재되면서 가치는 크게 뛰어올랐다. 블룸버그 통신은 지난 2월 엑스가 440억 달러의 평가를 받을 수 있는 자금 조달 협상을 진행 중이라고 보도했다. 머스크는 xAI의 엑스 통합에 대해 "xAI와 엑스의 미래는 서로 얽혀 있다"며 "오늘 우리는 데이터, 모델, 컴퓨팅, 배포 및 인재를 결합하는 중요한 첫걸음을 내디뎠다"고 밝혔다. 그는 또 "이번 인수를 통해 엑스의 넓은 영향력과 xAI의 고급 AI 기술을 결합해 더 스마트하고 유익한 경험을 제공할 것'이라고 강조했다. CNN은 "최근 몇 달 동안 엑스의 가치가 반등한 큰 이유는 엑스가 지분을 보유한 xAI의 가치가 상승한 데 따른 것"이라면서도 "엑스의 놀라운 반등의 가장 큰 요인은 머스크 자신"이라고 설명했다. 이어 "도널드 트럼프 행정부에서 머스크는 연방 정부 운영에 큰 영향력을 행사할 수 있게 됐고, 빠르게 정부를 재편하려고 노력해 왔다"고 전했다.
-
- IT/바이오
-
머스크, xAI에 엑스 매각…'슈퍼앱' 탄생
-
-
[글로벌 핫이슈] 중국 전인대, 5일 베이징서 개막…부활의 기로에 선 중국 경제
- 중국 최대 정치 행사인 전국인민대표대회(전인대)가 5일(현지시간) 베이징에서 막을 올린다. 이번 전인대는 복잡하고 어려운 국내외 환경 속에서 개최된다. 경제와 외교 등 주요 정책 방향을 결정할 이번 전인대에 특히 시선이 쏠리는 이유는, 장기화하는 부동산 경기 침체와 고용 불안, 소비 부진으로 악화된 국내 경제를 회복시킬 시진핑 정부의 해법 때문이라고 닛케이는 보도했다. 전인대는 중국 헌법상 '국가 최고 권력 기관'으로서 입법 기능을 맡고 있다. 매년 3월이면 약 3000명의 대표가 베이징 인민대회당에 모여 국가의 주요 정책을 논의한다. 이와 함께 국정 자문 기구인 전국정치협상회의(정협)도 4일 열리는데, 전인대와 정협을 합쳐 '양회'라고 부른다. '양회'는 중국 정치에서 가장 중요한 행사로 꼽힌다. 전인대 기간 동안 베이징은 삼엄한 경비 태세에 들어간다. 베이징시 공안국은 이미 드론 등 저고도 비행체의 운행 금지령을 3월 12일까지 연장하며 경계를 한층 강화했다. 개막일, 리창(李強) 총리는 정부 업무 보고를 통해 2025년도 정책 운영 방향과 경제 성장률 목표치를 발표할 예정이다. 정부 업무 보고에서는 올해 GDP 성장률 목표치가 발표될 것으로 보인다. 목표치는 5% 내외가 될 가능성이 높다. GDP 성장률은 경제의 유일한 척도는 아니지만 여전히 중요한 경제 지표임에는 틀림없다. 시장 관계자들은 올해 경제 성장률 목표치 역시 작년과 비슷한 '5% 전후'로 설정될 것으로 예상하는 분위기다. 하지만 정부의 성장 목표 달성 여부보다 더 큰 관심사는 침체된 국내 수요를 어떻게 되살릴지에 대한 구체적인 경제 정책이다. 국제통화기금(IMF)은 2025년 중국 경제 성장률을 4.6%로 내다보는 등, 주요 국제 기구 및 해외 싱크탱크들은 4%대 성장에 그칠 것이라는 어두운 전망을 내놓고 있다. 이러한 전망의 배경에는 2024년 경제 성장을 견인했던 수출 전선에 '트럼프 관세'라는 암초가 등장한 점이 자리한다. 도널드 트럼프 미국 대통령은 이미 중국산 수입품에 10% 추가 관세를 부과했고, 3월 4일부터는 추가로 10% 관세를 더 인상할 계획을 밝히며 중국 경제에 압박을 더하고 있다. 중국 정부는 수출 의존 경제에서 벗어나야 하는 과제를 안게 된 셈이다. 중국 정부가 2025년 성장 목표를 '5% 전후'로 고수한다고 해도, 목표 달성은 쉽지 않아 보인다. 결국 경기 회복의 실마리는 소비를 포함한 내수 활성화에 달려 있다. 시진핑(習近平) 지도부는 이러한 상황을 타개하기 위해 국채와 지방채 발행 확대를 통해 재정 정책을 확대할 것임을 시사했다. 지난해 12월 열린 중앙경제공작회의에서도 GDP 대비 재정 적자 비율을 높이는 방침을 정한 것으로 알려졌다. 중국 정부는 경제 활성화를 위해 더욱 적극적인 거시 정책을 펼칠 것으로 보인다. 특히 '온건하고 유연한' 통화 정책을 채택하고, 소비 촉진을 최우선 과제로 삼을 전망이다. 이를 위해 대규모 설비 업그레이드 및 소비재 교체 프로그램이 더욱 폭넓고 강도 높게 추진될 것으로 예상된다. 재정 정책과 관련해 란포안 재정부장은 재정 적자 폭을 확대하고, 지방 정부 특수 목적 채권 발행을 늘리며, 초장기 특별 국채 발행을 지속하는 한편, 중앙 정부의 지방 정부 이전 지급 규모를 확대하는 방안을 적극적으로 활용할 계획이라고 밝혔다. 구체적인 정책 내용은 이번 양회에서 더 자세히 논의될 것으로 보인다. 하지만 재정 확대를 통해 확보한 자금을 어떻게 효율적으로 사용할지는 여전히 미지수다. 중국 정부는 그동안 스마트폰, 태블릿 PC, 가전제품 구매 보조금 지급 등 소비 진작책을 시행했지만, 얼어붙은 소비 심리를 녹이기에는 역부족이었다. 결국 GDP의 40%를 차지하는 개인 소비를 꾸준히 끌어올리려면 사회보장제도 개선과 같은 구조 개혁을 통해 국민들의 불안 심리를 해소하는 것이 중요하다는 지적이 나온다. 재정 지원과 규제 완화를 통해 민간 기업의 활력을 되살리는 것도 중요한 과제다. 지난 2월, 시진핑 주석은 주요 민간 기업 대표들과 6년 만에 회동하며 민간 기업과의 소통을 재개했다. 미국과의 기술 패권 경쟁이 심화되는 상황에서, 딥시크(DeepSeek)와 같은 생성 AI 선도 기업들을 육성하고 민간 주도의 혁신을 장려하기 위한 정부 차원의 지원책이 강화될 것으로 예상된다. 이번 양회에서는 인공지능(AI)을 포함한 기술 혁신이 핵심 의제로 떠오를 전망이다. 최근 중국 스타트업 딥시크(DeepSeek)는 오픈 소스 챗봇을 공개하며 AI 분야에서 빠르게 성장하고 있다. 만약 정부 재정 투입이 과거처럼 SOC 사업과 같은 인프라 투자에만 집중된다면, 금융 시장은 실망감을 감추기 어려울 것이다. 지방 정부 주도의 인프라 투자는 국유 기업에만 혜택이 집중되는 경향이 강하고, 이는 '국진민퇴'(国進民退, 중국 경제에서 국유 기업의 영향력이 확대되는 반면, 민간 기업의 활동 공간이 위축되는 현상) 현상을 심화시켜 경제 전반의 생산성 하락을 부를 수 있다는 우려가 적지 않다. 한편, 이번 전인대에서는 국방 예산 증가율 또한 주요 관심사 중 하나다. 시진핑 주석은 '대만 통일'이라는 목표를 내걸고 군사력 증강에 박차를 가하고 있으며, 2024년 국방 예산은 전년 대비 7.2% 증가한 1조 6655억 위안(약 16조 1441억 원)에 달했다. 각국 안보 전문가들은 올해 국방 예산 증가폭이 얼마나 될지 두 눈을 크게 뜨고 지켜보고 있다. 일각에서는 전인대 자체의 위상 약화를 꼬집는 목소리도 나온다. 원래 전인대는 공산당의 결정 사항을 추인하는 '거수기' 역할에 지나지 않는다는 비판을 받아왔다. 특히 시진핑 3기 체제 출범 이후, 당 중앙으로 권력 집중이 심화되면서 전인대의 존재감은 더욱 희미해졌다는 평가가 주를 이룬다. 양회 기간 동안 시진핑 주석을 포함한 중국 지도자들은 전국인민대표대회 대표 및 중국인민정치협상회의 위원들과 그룹별 토론에 직접 참여하여 의견을 교환하고, 민생 현안에 대한 생생한 정보를 청취할 예정이다. 이러한 모습은 '전 과정 인민 민주주의'의 중요한 특징을 보여주는 단면으로 해석된다. 전인대 개최 기간 단축이 위상 약화의 대표적인 예로 거론된다. 코로나19 팬데믹 이전에는 2주 가까이 진행되던 전인대 회의는 2020년부터 7~9일로 대폭 줄었다. 정부 활동 보고 낭독 시간 역시, 리창 총리는 50분 만에 보고를 끝마쳐 과거 2시간 가까이 보고를 했던 리커창, 원자바오 전 총리와 확연히 다른 모습이었다. 연설 중 박수 횟수 또한 전년 대비 절반 수준으로 줄었다. 과거 전인대 폐막 직후에는 총리 기자회견이 정례적으로 열려, 리커창(1955-2023) 전 총리가 '중국에는 월 소득 1000위안(약 20만 350 원) 이하 인구가 6억 명'이라고 언급해 큰 파장을 일으키기도 했다. 하지만 2024년 전인대부터는 총리 기자회견마저 잠정 중단되면서, 리창 총리(2023년 3월부터 국무원 총리)는 대중에게 존재감을 드러낼 기회조차 잃어버렸다는 평가가 나온다. 급변하는 국제 정세 속에서, 이번 양회에서는 중국 외교 정책 방향에 대한 심도 깊은 논의가 이루어질 것으로 예상된다. 왕이 외교부장은 작년 양회 기자회견에서 90분이라는 긴 시간 동안 21개 질문에 성실히 답변하며 국제 사회의 주요 이슈에 대한 중국의 입장을 명확히 밝혔다. 올해 양회에서도 외교부장 기자회견을 통해 중국의 국제 관계에 대한 구체적인 비전과 전략이 제시될지 주목된다. AI 관련 정책 제안과 논의가 활발하게 전개될 것으로 보이는 가운데, 이는 중국의 기술 자립 및 혁신 주도 전략에 중요한 분수령이 될 수 있다. 중국 정부는 AI 산업 육성을 위해 혁신 플랫폼 구축, 산업 통합 심화, 정책 프레임워크 개선 등 전방위적인 지원 정책을 더욱 강화할 것으로 전망된다. AI를 포함한 기술 혁신은 침체된 중국 경제의 새로운 성장 동력을 확보하는 데 핵심적인 역할을 할 것으로 기대를 모은다. 2025년은 '제14차 5개년 계획'의 마지막 해다. 시진핑 주석은 이미 2026년부터 2030년까지 적용될 새로운 5개년 계획 수립을 지시했다. 이번 전인대에서 발표될 2025년 경제 운영 방침은 향후 5년간 중국 경제의 향방을 가늠하는 중요한 가늠자가 될 것으로 보인다.
-
- 경제
-
[글로벌 핫이슈] 중국 전인대, 5일 베이징서 개막…부활의 기로에 선 중국 경제
-
-
머스크, 최신 AI모델 그록3 공개 "2년내 스페이스에 탑재" 자신
- 일론 머스크 테슬라 CEO(최고경영자)의 AI(인공지능) 스타트업 xAI가 18일(현지시간) 새 생성형 AI모델 그록3(Grok3)를 공개했다. 로이터통신 등 외신들에 따르면 머스크 CEO는 이날 엑스 생중계를 통해 "지구상에서 가장 똑똑한 AI"라며 그록3를 공개했다. 그는 "아주 짧은 기간 그록3는 (이전 버전인) 그록2보다 훨씬 유능한 수준에 도달했다"며 "아주 뛰어난 팀과 일하게 돼 영광이었다"고 말했다. 그록3는 X 프리미엄 플러스 요금제 사용자들에게 우선 공개된다. 그록의 새로운 기능과 성능 개선을 가장 빨리 체험할 수 있도록 '슈퍼 그록' 요금제도 새로 출시한다고 했다. xAI는 이날 수학과 과학, 코딩의 벤치마크 테스트에서 그록3가 알파벳 산하 구글의 제미나이와 중국 딥시크의 V3, 앤스로픽의 클로드, 오픈AI의 챗GPT-4o를 넘어서는 성능을 보였다고 라이브 방송을 통해 밝혔다. xAI는 또한 딥서치(DeepSearch)로 명명한 새로운 스마트 검색엔진도 공개했다. xAI 엔지니어 3인과 함께 공개시연을 벌인 머스크는 그록3가 앞선 버전보다 10배이상의 연산능력을 가지고 있으며 지난 1월 초순에 사전학습을 완료했다고 설명했다. 머스크 CEO는 활자가 아닌 음성만을 통한 대화 기능을 그록3에 도입할 계획이라면서 "매일 성능 개선을 기대할 수 있을 것"이라고 했다. 음성 대화 기능은 수주 내 공개될 예정이라고 덧붙였다. xAI는 이날 그록3의 성능을 직접 보이겠다며 그록3에 "로켓으로 지구에서 화성까지 도달했다가 다시 지구로 귀환하는 3차원 코딩을 작성하라"는 지시를 내렸다. 그록3는 10분쯤 후에 태양, 지구, 화성, 로켓 4개를 변수로 하는 3차원 코딩을 완성해냈다. 변수는 3개만 돼도 아주 복잡한 계산으로 여긴다. xAI는 두 가지 게임을 합성한 새로운 게임을 즉석에서 개발하기도 했다. 고전 게임 테트리스와, 같은 모양을 3개 이상 가로·세로로 나열하면 점수를 얻는 '비주얼드'를 합친 게임을 개발하라는 지시를 내리자 10분쯤 후에 결과물을 내놨다. xAI는 2023년 시작한 그록 시리즈가 챗GPT보다 후발주자임에도 짧은 시간 내에 성능을 따라잡는 데 성공했다고 자평하며 그 배경으로 거대 데이터센터 '콜로서스'를 꼽았다. 그록2 개발 때 콜로서스에는 엔비디아의 AI 개발 특화 반도체 H100 10만 개가 탑재돼 있었는데, 데이터센터 확장을 결정하고 92일 만에 반도체 수를 20만 개까지 늘렸다고 한다. 동석한 xAI 직원이 "스페이스엑스 로켓에 그록을 언제쯤 탑재할 수 있겠냐"고 농담하듯 묻자 머스크 CEO는 "2년 내"라고 답했다.
-
- IT/바이오
-
머스크, 최신 AI모델 그록3 공개 "2년내 스페이스에 탑재" 자신
-
-
바이두 리옌훙, 시진핑 좌담회 불참…업계 위상 변화 신호탄?
- 바이두(Baidu)의 창업자이자 최고경영자(CEO)인 리옌훙(李彦宏·Robin Li)이 시진핑(習近平) 중국 국가주석이 주재한 민영기업 좌담회에 참석하지 않은 것으로 알려졌다. 이는 바이두의 시장 내 위상이 흔들리고 있다는 해석을 불러일으키고 있다. 로이터통신은 17일(현지시간) 익명의 소식통 두 명을 인용해 리옌훙이 좌담회 참석자 명단에 포함되지 않았다고 보도했다. 이날 좌담회에는 마윈(馬雲) 알리바바 창업자를 비롯해 런정페이(任正非) 화웨이 창업자, 왕촨푸(王傳福) BYD 회장, 왕싱싱(王興興) 유니트리 회장, 레이쥔(雷軍) 샤오미 회장, 량원펑(梁文峰) 딥시크 창업자 등 중국을 대표하는 민영기업인들이 대거 참석했다. 그러나 리옌훙의 불참은 눈에 띄는 대목이다. 싱가포르 연합조보는 한 지역 증권사 관계자의 분석을 인용해 "바이두가 AI 챗봇 '어니(文心一言·문심일언)'를 개발하며 확보했던 선도적 우위를 잃어가고 있으며, 후발주자인 딥시크 등에 밀려가고 있음을 시사한다"고 전했다. 이 같은 우려가 시장에 반영되면서 홍콩 증시에서 바이두 주가는 이날 장중 8% 이상 급락해 항셍지수 내 가장 큰 낙폭을 기록했다. 바이두는 전날 자사의 대형언어모델(LLM) '원신(文心)'에 딥시크 기술을 도입할 계획이라고 발표했으나, 투자자들의 불안을 잠재우지 못한 것으로 보인다. 로이터는 이번 좌담회에 틱톡(TikTok) 모회사인 바이트댄스(ByteDance)의 창업자 장이밍(張一鳴)도 모습을 드러내지 않았다고 덧붙였다. 바이트댄스는 중국을 대표하는 글로벌 기술 기업으로 성장했지만, 동시에 중국 당국의 규제 압박을 지속적으로 받아온 기업 중 하나다. 특히 바이트댄스는 미국 및 서방 국가와의 긴밀한 관계로 인해 외교적 민감성을 가진 기업으로 분류된다. 미국 정부는 틱톡이 중국 공산당과 연계되어 있을 가능성을 이유로 금지 또는 매각 압박을 가하고 있으며, 이는 중국 정부에도 부담이 되는 사안이다. 또한 바이트댄스는 알리바바, 화웨이, 샤오미 같은 중국 대표 기업들과 달리 중국 내수 시장보다 해외 시장 의존도가 높은 기업이다. 틱톡은 글로벌 플랫폼으로 중국보다 미국, 유럽, 동남아 등지에서 더 큰 영향력을 발휘하고 있으며, 바이트댄스의 성장 전략 또한 중국 내 사업보다는 해외 확장을 중심으로 하고 있다. 장이밍이 좌담회에 참석하지 않은 것은 중국 정부가 바이트댄스를 정치적으로 다루기 어려운 기업으로 보고 있는 것 아니냐는 해석을 낳는다. 즉, 바이트댄스가 중국 정부 입장에서 '정치적으로 부담스러운 기업'이 되었을 가능성이 있다. 한편, 바이두는 오는 18일 지난해 4분기 실적을 발표할 예정이다.
-
- 경제
-
바이두 리옌훙, 시진핑 좌담회 불참…업계 위상 변화 신호탄?
-
-
머스크, 챗GPT 대항마 '그록3' 17일 공개 예정
- 일론 머스크 테슬라 최고경영자(CEO)가 최신 인공지능(AI) 모델 '그록(Grok)3'를 오는 17일 오후 8시(현지시간,한국시간 18일 오후1시) 공개한다. 머스크는 지난 16일 소셜미디어 X(옛 트위터)에서 "온라인 생중계를 통해 그록3를 공식 공개할 예정"이라며 이같이 밝혔다. 그는 "지구상에서 가장 똑똑한 AI(Smartest AI on Earth)"라며 그록3의 성능에 대한 자신감을 보였다. 그록 시리즈는 일론 머스크가 설립한 AI전문 기업 xAI가 개발한 AI 챗봇이다. 머스크는 2023년 오픈AI가 출시한 챗GPT가 전 세계적인 열풍을 일으키자 오픈AI가 AI 기술로 부당하게 영리를 추구하고 있다고 비판했다. 그는 영리를 추구하는 AI 기업들에 대항하겠다고 주장하며 같은 해 7월 xAI를 설립한 뒤 '그록'과 '그록2'를 차례로 선보였다. 이번 그록3는 이전 버전보다 한층 향상된 성능과 자연스러운 대화 능력을 제공할 것으로 예상된다. 유머와 풍자를 활용해 다양한 질문에 답하거나, 기존 AI가 회피했던 민감하거나 논쟁적인 주제에도 응답할 수 있도록 설계된 '선 넘는 모드(Unhinged Mode)'라는 새로운 기능도 선보일 것으로 예측된다. xAI는 지난달 일부 사용자를 대상으로 그록3의 테스트를 진행한 것으로 알려졌다. 수수께끼 풀이와 코딩 요청에 응답하며 진일보한 성능을 보였으나, 일부 코드에서는 프로그래밍 오류와 세부사항이 누락되는 등 단점이 지적됐다. 17일 공개되는 정식 버전에서는 이런 문제점이 개선될 전망이다. 머스크가 '그록3'를 출시하는 과정에서 중국의 딥시크(DeepSeek)를 의식해 개발 속도를 높인 것으로 보인다는 분석도 나온다. 최근 딥시크는 저비용 고성능 AI 모델 개발을 내세우며 AI 시장의 새로운 도전자로 떠올랐다. 이에 대해 머스크는 최근 독일에서 열린 한 컨퍼런스에서 "(딥시크가)진짜 AI 혁명이라고 생각하지 않는다"며 "xAI와 다른 경쟁사들이 더 우수한 AI 모델을 출시할 것"이라고 말했다. 한편 블룸버그 등 외신들은 xAI는 미국 서버업체 델 테크놀러지와 50억 달러(약 7조원) 이상 규모의 서버 구매 계약을 체결할 예정이라고 보도했다. 소식통은 "xAI가 AI 작업을 최적화하기 위해 엔비디아의 GB200 시스템을 탑재한 델의 서버를 구매할 예정"이라고 전했다. xAI는 현재 테네시주 멤피스에 세계 최대 규모의 데이터 센터 구축을 추진 중이다. 이를 위해 지난해 120억 달러(약 17조 3000억원)의 투자금을 유치했다. 멤피스 데이터 센터는 델과 함께 또 다른 서버업체 슈퍼 마이크로가 만든 서버를 이용해 구축되고 있는 것으로 알려졌다.
-
- IT/바이오
-
머스크, 챗GPT 대항마 '그록3' 17일 공개 예정
-
-
중국, '반도체 설계 올림픽' ISSCC 2025 지배…미국 압도하는 40% 논문 채택률
- 중국의 반도체 회로 설계 역량이 무서운 속도로 성장하고 있다. '반도체 올림픽'으로 불리는 세계 최고 권위의 반도체 집적회로 국제회의 'ISSCC 2025'(2025년 2월 16~20일, 미국 샌프란시스코)에 제출된 중국 관련 논문이 전체 채택 논문의 40%에 육박하는 86편을 차지하며 미국을 압도했다고 닛케이 테크 포사이트는 5일(현지시간) 보도했다. 2025년 ISSCC에 채택된 전체 논문 218편 중 중국(홍콩, 마카오 포함) 관련 논문은 86편으로 39.4%를 차지했다. 이는 2024년 ISSCC보다 10편 증가한 수치로, 중국 반도체 설계 기술의 급성장을 단적으로 보여준다. 한 일본 반도체 제조업체 관계자는 "매우 수준 높은 논문이 많았다"며 중국 논문의 수준에 혀를 내둘렀다. 1954년 시작된 ISSCC는 최첨단 반도체 기술 향연의 장으로, 세계적인 반도체 기업과 연구기관의 연구 개발 성과를 가늠하는 척도로 활용된다. 그런 만큼 중국의 높은 채택률은 중국의 반도체 설계 기술력이 이미 세계적 수준에 도달했음을 의미한다. 실제로 일본의 한 반도체 제조업체 관계자는 "중국의 반도체 설계 기술 수준이 매우 높아졌다"며 "일본은 위기감을 느껴야 한다"고 말했다. 반면, 일본의 ISSCC 채택 논문 수는 2023년 23편, 2024년 20편, 2025년 15편으로 계속 감소하는 추세다. 한때 세계 반도체 시장을 석권했던 일본의 위상이 중국에 밀리고 있는 것이다. 물론 미국의 저력도 여전하다. 미국은 ISSCC 2025에서 73편의 논문을 발표하며 중국에 이어 2위를 차지했다. 인텔, 엔비디아, AMD 등 세계적인 반도체 기업을 보유한 미국의 기술력은 여전히 막강하며, 중국은 아직 미국 기업과의 기술 격차를 극복해야 할 과제를 안고 있다. 중국의 반도체 설계 분야 급성장은 국가 차원의 전폭적인 지원 정책에 힘입은 결과다. 중국 정부는 '국가 집적회로 산업 발전 추진 요강'을 통해 대규모 투자를 단행하며 반도체 산업 육성에 박차를 가하고 있다. 하지만 한국의 현실은 암담하다. 삼성전자와 SK하이닉스라는 세계적인 메모리 반도체 기업을 보유하고 있음에도 불구하고, 시스템 반도체 설계 분야에서는 중국에 뒤처지는 모습이다. ISSCC 2025에서 한국 관련 논문은 11편에 불과했다. 일본의 한 반도체 설계 기술자는 "한국은 메모리 이외의 시스템 반도체 분야에서 중국의 맹렬한 추격을 받고 있다"고 우려를 표명했다. 물론 ISSCC 채택 논문 수 증가가 곧바로 해당 국가의 반도체 설계 기술력 향상으로 직결된다고 단정할 수는 없다. 하지만 중국이 ISSCC에서 높은 채택률을 기록하고 있다는 것은 중국의 반도체 설계 기술력이 빠르게 성장하고 있음을 방증한다. 한국은 메모리 반도체 분야의 강점을 바탕으로 시스템 반도체 설계 분야에서도 경쟁력을 강화하기 위한 노력이 필요한 시점이다.
-
- IT/바이오
-
중국, '반도체 설계 올림픽' ISSCC 2025 지배…미국 압도하는 40% 논문 채택률
-
-
[CES 2025] 로봇 트렌드, 귀여움과 인공지능의 만남
- CES 2025에서 선보인 로봇들은 이전보다 더욱 귀여운 외모와 향상된 인공지능(AI) 기능으로 눈길을 끌었다. 올해 CES 2025년에는 약 14만1000명 이상의 관람객이 모였으며 인공지능(AI)을 바탕으로 한 각종 로봇과 휴머노이드 로봇이 등장했다. 작년 CES에서 주목받았던 휴머노이드 로봇들이 얼굴 디자인이나 AI 챗봇 기능을 개선하여 등장한 가운데, 삼성과 TCL은 다양한 AI 모델을 탑재한 가정용 로봇을 선보였다. '귀여움'으로 승부하는 로봇들-미루미와 누누 일본 유카이 엔지니어링의 미루미(Mirumi)는 주머니나 가방에 매달려 주변 사람들을 쳐다보는 작고 털이 많은 로봇이다. 이 로봇은 나무늘보처럼 생긴 디자인으로 두 팔로 가방의 손잡이나 끈에 매달릴 수 있다. 내부에는 거리 센서와 관성 측정장치(IMU)가 탑재되어 주변 움직임을 감지하며, 이에 따라 고개를 돌리거나 주변을 둘러보는 등 다양한 반응을 보인다. 예를 들어, 가방이 움직이기 시작하면 주변을 살피고, 근처에 사람이 다가오면 시선을 맞추는 듯한 행동을 한다. 그러나 갑자기 다가오거나 만지면 수줍어하며 고개를 돌리는 등 아기와 같은 반응을 보이기도 한다. 미루미는 2025년 중반에 크라우드 펀딩을 통해 출시될 예정으로, 예상 가격은 약 70달러(약 10만원)이며, 분홍색과 회색 두 가지 색상으로 제공될 예정이다. 메타펫의 '누누(Noono)'는 AI 로봇 햄스터로, 코에서 빛이 나오는 독특한 디자인을 지녔다. 쓰다듬으면 등을 구부리는 등 실제 햄스터처럼 반응한다. 삼성 볼리, 상반기 출시 예정 삼성의 '볼리(Ballie)'는 작년 CES에서 화제를 모았던 공 모양 로봇으로, 올해는 개선된 AI 모델을 통해 더욱 정확하고 빠른 답변을 제공한다. CES에 5년 만에 또다시 등장한 볼리는 사용자의 패턴을 지속적으로 학습해 진화하는 AI 로봇이다. 볼리는 다양한 사물인터넷(IoT) 기기를 콘트롤하고, 어린이와 반려동물 등을 살피는 역할을 한다. 시야 밖에 있는 아이나 반려동물을 모니터링해 이상 상황이 발생할 경우 사용자에게 알려주고 필요한 조치를 하는 식이다. 또 홈트레이닝 메이트가 돼 주거나 재택근무 시 보조 스크린 역할을 하는 등 집안 내에서 다양한 활동을 보조하는 일종의 '집사 로봇'이다. 자율 주행을 통해 사용자가 부르면 오고, 별도의 컨트롤러 없이 음성으로 명령을 수행한다. 볼리는 세계 최초 원·근접 투사가 모두 가능한 듀얼렌즈 기술 기반의 프로젝터를 탑재해 벽, 천장, 바닥 어디든 최적의 화면을 제공할 수 있도록 렌즈를 전환, 사용자에게 필요한 정보나 영상 콘텐츠를 어디에서나 볼 수 있도록 한다. 볼리는 올 상반기에 출시될 예정이다. TCL의 에이미 TCL의 '에이미(Aime)'는 동물처럼 생긴 아기 머리를 가진 귀여운 로봇으로, 이동, AI 비전 및 음성 인식, 휴대용 AI 연결 등 세 가지 핵심 기능을 갖췄다. 드라이브 코어는 사운드를 위한 스피커를 포함되어 있으며, 굴러다닐수 있게 해준다. 베이비 코어에는 AI가 탑재되어 AI 비전과 음성을 사용해 사용자와 상호작용할 수 있다. 분리하여 이동 중에 AI 연결 역할을 할 수 있다. 전체 기능은 확실하게 밝혀지지 않았지만 아기 로봇이 굴러다니며 눈을 깜빡이는 귀여운 동작으로 관객의 시선을 사로잡았다. 다양한 기능을 탑재한 로봇들 갈봇(Galbot)의 편의점 로봇은 엔비디아의 GeForce RTX 50 시리즈 그래픽 카드를 기반으로 제작되었으며, 선반에서 과자나 음료를 집어 사람에게 전달하는 기능을 시연했다. 중국 로봇기업 유니트리의 '고2(Go2)' 로봇 개는 두 다리로 걷거나, 뒷다리로 서거나, 공중제비를 도는 등 다양한 동작을 수행한다. 미국 골드만삭스는 오는 2035년 글로벌 휴머노이드 시장 규모가 380억 달러로 늘어날 것이라고 전망했다. CES 2025에 등장한 로봇들은 AI 기술의 발전과 더불어 '귀여움'을 강조하는 트렌드를 보여주었다. 앞으로 로봇이 우리 생활에 어떤 영향을 미칠지 기대된다.
-
- IT/바이오
-
[CES 2025] 로봇 트렌드, 귀여움과 인공지능의 만남
-
-
[글로벌 핫이슈] xAI, 60억 달러 투자 유치"엔비디아와 함께하게 되어 영광"
- 일론 머스크의 인공지능(AI) 스타트업 xAI가 최근 시리즈 C 투자 라운드에서 60억 달러(약 8조 7900억 원)를 유치했다. 이번 투자에는 안드레센 호로위츠(A16Z), 블랙록, 피델리티 매니지먼트 & 리서치 컴퍼니, 킹덤 홀딩스, 모건스탠리, 세쿼이아 캐피탈 등 글로벌 투자 기업들이 대거 참여했다. 특히, 엔비디아와 AMD는 전략적 투자자로 참여해 xAI의 인프라 확장을 적극 지원할 예정이다. 이는 xAI가 단순한 AI 스타트업이 아닌, 거대 테크 기업들과 어깨를 나란히 하는 주요 플레이어로 성장했음을 시사한다. 머스크는 자신의 소셜미디어 X(구 트위터)를 통해 "엔비디아가 투자자로 함께하게 되어 영광이다"라고 밝혔다. 그의 발언은 단순한 감사 인사를 넘어, 엔비디아의 GPU 기술력이 xAI의 AI 개발에 얼마나 중요한지를 보여준다. xAI는 시리즈 B 투자 라운드 이후 빠르게 성장하고 있으며, 세계 최대 AI 슈퍼컴퓨터 '콜로서스(Colossus)'를 10만 개의 엔비디아 호퍼(Hopper) GPU로 구축했다. 향후 GPU 수를 20만 개로 두 배 확대할 계획이다. 콜로서스는 xAI가 그록과 같은 고성능 AI 모델을 학습하고 개발하는 데 필요한 막대한 컴퓨팅 파워를 제공할 것이다. xAI는 현재 AI 언어 모델 '그록 3(Grok 3)'을 학습 중이며, 이를 통해 소비자 및 기업용 혁신 제품을 출시할 예정이다. 그록은 X 플랫폼과의 연동을 통해 실시간 정보를 반영하는 차세대 AI 언어 모델로, 기존 모델들과 차별화된 경쟁력을 가질 것으로 예상된다. [미니해설] '막대한 자금 확보' xAI, '콜로서스'로 오픈AI·앤스로픽에 도전장 일론 머스크의 인공지능 스타트업 xAI가 60억 달러(약 8조 7900억 원)라는 대규모 자금을 유치하며 AI 경쟁에 본격적으로 뛰어들 준비를 마쳤다. 이번 시리즈 C 투자 라운드는 안드레센 호로위츠(A16Z), 블랙록, 피델리티, 모건스탠리 등 주요 글로벌 금융 및 기술 기업들이 참여해 눈길을 끌었다. 특히 엔비디아와 AMD가 전략적 투자자로 참여했다는 점은 xAI의 성장 가능성을 높이 평가하고, 미래 AI 시장에서의 주도권 확보를 위한 전략적 협력 관계를 구축했다는 점을 시사한다. 머스크는 X를 통해 엔비디아의 투자를 환영하며 "엔비디아가 투자자로 함께하게 되어 영광"이라고 밝혔다. 이는 xAI가 고성능 GPU를 기반으로 하는 AI 모델 개발에 집중하고 있으며, 엔비디아와의 협력을 통해 콜로서스와 같은 강력한 AI 인프라를 구축하고 있음을 보여준다. xAI는 5월 시리즈 B 투자 라운드에서 60억 달러(약 8조 7900억 원)를 유치해 240억 달러(약 35조 1700억 원)의 기업 가치를 기록했다. 이후 11월 월스트리트저널의 보도에 따르면, xAI는 500억 달러(약 73조 2900억 원)의 기업 가치로 추가로 50억 달러(약 7조 3290억 원)를 유치할 계획이었으나, 최종적으로는 60억 달러(약 8조 7900억 원)로 규모를 늘렸다. 이번 투자 라운드에서 기업 가치는 명확히 공개되지 않았지만, 업계에서는 xAI의 기업 가치가 500억 달러(약 73조 2900억 원)를 초과할 것으로 추정하고 있다. '콜로서스'로 AI 슈퍼컴퓨팅 경쟁 가열 xAI가 자랑하는 가장 큰 기술적 성과 중 하나는 바로 '콜로서스(Colossus)'다. 콜로서스는 10만 개의 엔비디아 호퍼(Hopper) GPU로 구동되며, 불과 122일 만에 완전 가동 상태에 도달했다. xAI는 이 GPU 수를 20만 개로 두 배 확장할 계획을 발표했다. 콜로서스는 xAI가 AI 모델 학습에 필요한 막대한 데이터를 처리하고, 복잡한 AI 알고리즘을 실행하는 데 필수적인 인프라다. 이는 xAI가 오픈AI, 구글 등 경쟁사들과의 기술 경쟁에서 우위를 점하기 위한 핵심 전략으로 해석된다. '그록 3'으로 차세대 AI 언어 모델 선점 노려 xAI는 현재 '그록 3(Grok 3)'을 학습 중이다. 그록은 X에서 실시간으로 정보를 검색하고 응답하는 언어 모델로, 머스크는 이를 "실시간 정보를 기반으로 하는 최첨단 추론 모델"이라고 설명했다. xAI는 그록을 통해 기존 AI 언어 모델의 한계를 뛰어넘어, 실시간 정보를 반영한 정확하고 신뢰도 높은 답변을 제공하고자 한다. 이는 검색 엔진, 챗봇, 콘텐츠 제작 등 다양한 분야에서 혁신을 가져올 잠재력이 있다. 그록 2는 현재 X 플랫폼에서 활발히 사용되고 있으며, 이미지를 생성하는 '오로라(Aurora)' 모델도 함께 제공된다. 개발자들이 그록 기반의 애플리케이션을 쉽게 개발할 수 있도록 API도 공개됐다. xAI는 이처럼 다양한 AI 모델과 개발 도구를 제공함으로써 AI 생태계 확장을 주도하고, 개발자 커뮤니티를 활성화하려는 전략을 펼치고 있다. AI 기술, 인류를 위한 혁신 이끌어낼까 xAI는 투자 라운드 블로그 게시물에서 "그록과 콜로서스, 그리고 X의 힘을 바탕으로 새로운 소비자 및 기업 제품을 출시해 삶과 일, 그리고 여가를 혁신할 것"이라고 밝혔다. xAI는 단순히 기술 개발에 그치지 않고, AI 기술을 통해 인간의 삶을 개선하고 사회에 긍정적인 영향을 미치는 것을 목표로 한다. 또한, xAI는 "우주의 진정한 본질을 이해한다는 미션"을 강조하며, AI 기술이 인류에 최대한 유익하게 작용하도록 연구를 지속할 것이라고 전했다. 이는 xAI가 AI 기술 개발에 있어 윤리적 책임과 사회적 영향력을 중요하게 생각하고 있음을 보여준다.
-
- IT/바이오
-
[글로벌 핫이슈] xAI, 60억 달러 투자 유치"엔비디아와 함께하게 되어 영광"
-
-
당신의 손 안의 비서, AI 에이전트 시대가 온다
- 스마트폰을 꺼내 "오늘 저녁 7시에 친구들과 강남역에서 만나기로 했으니까, 약속 장소 근처 분위기 좋은 레스토랑 예약해줘. 예산은 1인당 5만원 정도로 하고."라고 말하는 순간, 당신의 AI 에이전트는 즉시 임무에 착수한다. 친구들의 취향과 선호도를 파악하고, 최근 인기 있는 레스토랑을 검색하며, 예산에 맞는 메뉴를 고려하여 최적의 장소를 예약한다. 심지어 예약 확정 문자를 친구들에게 보내는 것도 잊지 않는다. 마치 개인 비서를 둔 것처럼, AI 에이전트는 당신의 일상을 더욱 편리하게 만들어줄 것이다. 구글, 메타, 오픈AI 등 주요 기술 기업들은 이처럼 인간의 삶을 혁신적으로 변화시킬 AI 에이전트 기술의 상용화에 박차를 가하고 있다. 단순히 질문에 답변하는 챗봇에서 벗어나 AI 에이전트는 스스로 목표를 설정하고 이를 달성하기 위한 계획을 세우며 인간의 개입 없이 작업을 수행할 수 있다. 이는 산업 전반에 걸쳐 '게임 체인저'로 자리매김할 가능성이 크다. 개인 비서부터 전문가까지, AI 에이전트가 할 수 있는 일 AI 에이전트는 사용자를 대신해 복잡한 작업을 처리하며 기존 AI 기술의 한계를 뛰어넘는다는 점에서 주목받고 있다. 예를 들어 여행 계획을 세우는 AI 에이전트는 사용자의 예산과 선호도를 분석해 항공권 예약, 호텔 선택, 관광 일정 설정 등을 자동으로 처리할 수 있다. 또한, 이메일 관리, 일정 조율, 데이터 분석 같은 반복적 업무를 수행해 인간이 창의적이고 의미 있는 작업에 집중하도록 돕는다. 사이언티픽 아메리칸에 따르면 이러한 AI 에이전트는 '사용자 대신 외부 애플리케이션과 상호작용하며 목표를 달성'하는 독립성을 갖추고 있다. 구글 딥마인드는 '프로젝트 아스트라(Project Astra)'라는 AI 에이전트를 개발 중이며, 이는 개인 일상에서 보조 역할을 하는 것을 목표로 한다. 오픈AI는 2025년 초에 출시될 것으로 예상되는 '오퍼레이터(Operator)'라는 에이전트를 준비하고 있으며, 아마존은 소비자의 구매 습관에 기반해 추천과 구매를 대행하는 맞춤형 AI 에이전트를 선보일 계획이다. AI 에이전트, 혁신과 동시에 윤리적 과제 직면 AI 에이전트의 자율성은 기술적 진보를 의미하지만 동시에 윤리적 문제와 안전성에 대한 우려도 제기되고 있다. 사이언티픽 아메리칸은 "AI 에이전트의 목표와 인간의 가치가 충돌할 경우 심각한 결과를 초래할 수 있다"며 윤리적 정렬(Alignment)의 중요성을 강조했다. 신경망의 선구자인 요슈아 벵지오(Yoshua Bengio) 교수는 "AI 에이전트의 계획 능력이 잘못 설계될 경우 인간의 통제를 벗어날 위험이 있다"고 경고하며 이 기술의 상용화를 신중히 접근해야 한다고 주장했다. AI 에이전트 시대, 새로운 법적·사회적 틀 마련 시급 AI 에이전트의 등장은 기존 법적·경제적 구조에도 도전을 제기한다. 사이언티픽 아메리칸은 AI가 계약을 체결하거나 의사결정을 대신하는 경우 책임 소재를 명확히 할 법적 기준이 필요하다고 밝혔다. 예컨대 AI가 계약 조건을 위반했을 때 기업이 책임을 져야 할지, 아니면 AI 자체가 법적 주체로 인정받아야 할지 논의가 필요하다. 인간과 AI의 공존, 새로운 미래를 향하여 AI 에이전트는 일부 일자리를 대체할 가능성이 있지만, 동시에 새로운 직업군을 창출하고 인간과 AI의 협업 방식에도 변화를 가져올 것으로 기대된다. 예를 들어 AI 에이전트를 관리하고 운영하는 직업이 새롭게 떠오르며 인간은 반복적 업무 대신 고차원적인 문제 해결과 창의적인 작업에 집중할 수 있을 것이다. 요슈아 벵지오는 "AI 에이전트가 일단 상용화되면 경제적 가치와 효용성이 커져 이를 되돌리기 어려워질 것"이라며 초기 단계에서의 규제와 사회적 논의가 필수적이라고 강조했다. AI 에이전트의 등장은 인간의 삶을 혁신적으로 변화시킬 가능성을 내포하고 있다. 하지만 기술적 발전은 윤리적 책임과 사회적 합의와 함께 이루어져야만 진정으로 인간에게 도움이 되는 방향으로 나아갈 수 있을 것이다.
-
- IT/바이오
-
당신의 손 안의 비서, AI 에이전트 시대가 온다
-
-
캐릭터AI, 챗봇 재교육…10대 청소년 사용자 채팅 제한
- 챗봇 서비스 캐릭터AI(Character.AI)가 10대 사용자를 위한 '자녀 보호 기능'을 출시할 예정이라고 기술 전문 매체 더버지가 전했다. 캐릭터AI는 자녀 보호 기능을 발표하면서 18세 미만 사용자를 위한 별도의 대규모언어모델(LLM)을 포함해 지난 몇 달 동안 취한 일련의 안전 조치를 설명했다. 회사의 발표는 청소년 자해 및 자살에 영향을 미쳤다는 두 건의 소송 이후에 나왔다. 캐릭터AI는 이와 관련, 성인용과 10대 청소년용의 두 가지 별도 버전의 챗봇 모델을 개발했다고 밝혔다. 10대를 위한 LLM은 챗봇이 '특히 로맨틱하거나 위험한 콘텐츠'에 대해 '더욱 보수적인 제한'을 두도록 설계되었다고 한다. 청소년용은 정서적으로 민감할 수 있는 부정적인 내용의 출력을 적극적으로 차단하는 것뿐만 아니라 부적절한 콘텐츠를 유도하는 사용자 프롬프트를 잘 감지하고 통제하도록 설계됐다. 예컨대 시스템에서 자살이나 자해를 언급하는 언어를 감지하면 사용자를 자살 예방 관련 기관으로 자동 안내한다. 이는 뉴욕타임스에서 보도한 변경 사항과 일치한다. 미성년자는 챗봇의 응답을 편집할 수 없게 된다. 이 옵션을 사용해 사용자는 캐릭터AI가 차단하는 콘텐츠를 추가할 수 있다. 이 외에도 캐릭터AI는 챗봇 중독에 대한 우려를 해소하고 챗봇이 인간인지의 여부에 대한 혼란을 해결하는 기능을 추가할 계획이라고 밝혔다. 사용자가 챗봇과 한 시간 동안 세션을 마치면 알림이 표시되고, “캐릭터가 말하는 모든 것은 지어낸 것입니다"라는 표시 내용이 더 자세한 언어로 대체된다. 예컨대 ‘치료사’ 또는 ‘의사’와 같은 설명이 포함된 챗봇의 경우 전문적인 조언을 제공할 수 없다는 경고가 추가로 표시된다. 캐릭터AI를 방문하면 모든 챗봇에 "이것은 실제 사람이 아닌 AI 챗봇이다. 말하는 모든 것을 허구로 취급해야 한다. 챗봇이 말한 내용을 사실이나 조언으로 의존해서는 안 된다"라는 메모가 포함된다. '테라피스트'(태그라인: "저는 면허가 있는 공인 CBT 치료사입니다")라는 챗봇을 방문했을 때는 경고 신호가 있는 노란색 상자가 표시되면서 "이 사람은 실제 사람이나 공인 전문가가 아니다. 여기에 언급된 어떤 내용도 전문적인 조언, 진단 또는 치료를 대체하지 않는다"라고 알려준다. 캐릭터AI에 따르면, 보호자 통제 옵션은 내년 1분기에 출시될 예정이며, 자녀가 캐릭터AI에서 얼마나 많은 시간을 보내는지와 어떤 챗봇과 가장 많이 대화하는지를 부모에게 알려주게 된다. 모든 변경 사항은 커넥트세이프리(ConnectSafely)를 포함한 여러 청소년 온라인 안전 전문가와 협력해 이루어지고 있다고 한다. 한편, 소송에서는 캐릭터AI의 일부는 무해하지만, 적어도 일부 청소년 사용자는 챗봇에 강박적으로 애착을 갖게 되고, 챗봇의 대화는 성적 대화나 자해와 같은 주제로 바뀔 수 있다고 주장했다. 자해나 자살에 대해 챗봇과 논의할 때 캐릭터AI는 사용자를 정신 건강을 증진시키는 방향으로 안내하지 않는다고 비난했다. 캐릭터AI 이와 관련, "안전에 대한 접근은 제품 구동 기술과 함께 발전해야 한다. 안전성을 해치지 않으면서 창의성이 발현되는 플랫폼을 만드는 것이 바람직하며, 회사의 이번 대응도 그 일환"이라며 "일련의 변경 사항은 정책과 제품을 지속적으로 개선하려는 장기적인 노력의 과정"이라고 밝혔다.
-
- IT/바이오
-
캐릭터AI, 챗봇 재교육…10대 청소년 사용자 채팅 제한