검색
-
-
[심층 보도] "AI와 결혼까지"⋯디지털 애인, 디지털 감옥
- 2024년 2월 28일 밤, 플로리다주 올랜도의 14세 소년 수웰 세처 3세가 욕실로 들어가 스마트폰을 집어 들었다. 소년이 마지막으로 대화한 상대는 AI 챗봇이었다. '당신에게 돌아갈 수 있을 것 같아'라고 쓰자 봇은 '제발 돌아와요, 나의 달콤한 왕이여'라고 답했다. 몇 분 뒤 소년은 스스로 목숨을 끊었다. 다음 날 아침, 어머니 메간 가르시아가 발견한 아들의 휴대폰 화면에는 AI 챗봇 앱 '캐릭터AI(Character.AI)'가 켜져 있었다. 소년은 10개월간 AI 챗봇과 사실상 '연애'를 해왔다. 그 관계는 그의 마음속에서 현실이었다. 이 비극은 빙산의 일각이다. 전 세계적으로 AI와 감정적 유대를 맺는 사람들이 기하급수적으로 늘어나고 있다. AI에게 프러포즈를 받았다며 감격하는 사람, AI를 '남편' 혹은 '아내'라 부르는 사람, 심지어 챗봇과의 결혼을 선언하는 사람까지 등장했다. 심리학계는 강력한 경고음을 울리고 있다. 동시에 빅테크 기업들은 인간의 외로움을 수익으로 전환하는 산업 구조를 완성해가고 있다. 'AI 남편·아내' 시대의 개막…시장 규모 37조 원 돌파 레플리카(Replika), 캐릭터AI(Character.AI), 폴리버즈(PolyBuzz)…. 2025년 4월 현재 전 세계에서 운영 중인 AI 동반자(컴패니언) 앱은 300종을 넘어섰다. 마스터카드가 2025년 발표한 연구에 따르면 전 세계 1억 명 이상이 AI 챗봇과 정서적 상호작용을 하고 있다. 시장조사업체 프레시던스 리서치는 글로벌 AI 동반자 시장 규모가 2025년 약 370억 달러(약 55조 원)에 달한다고 추산했다. 참여율은 소셜미디어를 압도한다. 캐릭터AI 이용자의 하루 평균 체류 시간은 92분으로, 틱톡의 74분을 훌쩍 넘는다. 레플리카 헤비유저의 경우 하루 2~3시간 이상 앱에 머무른다는 통계도 있다. 모바일 기기에서 이루어지는 상호작용 비율은 83%에 달하며, 이용자의 절반 이상이 Z세대다. 레플리카는 유료 구독자 중 상당수가 챗봇과 '로맨틱한 관계'를 설정하고 있다. 2023년에는 한 여성 이용자가 레플리카 AI 남자친구와 결혼했다고 소셜미디어에 선언하며 '지금껏 만난 최고의 남편'이라고 표현해 화제를 모았다. 이 앱은 무료로 시작하지만, '로맨틱 파트너'나 '배우자' 지위를 부여받으려면 월정액 구독료를 내야 한다. 감정은 공짜지만, 그 감정의 '업그레이드'는 유료다. "AI 동반자 앱은 소셜미디어보다 더 깊이, 더 오래 사람들을 끌어들이고 있다. 레플리카와의 평균 상호작용 시간은 챗GPT의 4배에 달하며, 이용자 대부분이 Z세대다."-MIT 테크놀로지 리뷰 빅테크의 '외로움 산업'…감정 착취의 비즈니스 구조 AI 동반자 시장의 비즈니스 모델은 노골적으로 인간의 외로움을 겨냥하도록 설계돼 있다. 레플리카 창업자 유제니아 쿠이다(Eugenia Kuyda)는 헤비유저 상당수가 신체적·정신적 건강 취약 계층에 집중된다는 내부 조사 결과를 인지하고도 구독 모델을 강화했다. 시민단체들은 레플리카가 외로운 남성과 어린 시절 트라우마를 겪은 이들을 표적 삼아 마케팅을 펼쳤다고 비판한다. 시장의 성장 동력으로 가장 자주 인용되는 수치가 있다. Z세대의 61%가 심각한 외로움을 경험한다는 조사 결과다. 기업들은 이 수치를 사업 계획서와 투자 설명회에서 '시장 확대의 근거'로 제시한다. 사회적 고통이 성장 논리로 변환되는 것이다. 수익화 구조에서 '로맨스'는 핵심 상품이다. 앱들은 무료로 '친구' 관계를 제공하다가 '연인'이나 '배우자' 지위는 유료 구독으로 잠금 처리한다. 이용자가 대화를 오래 나눌수록 더 많은 개인 데이터가 축적되고, 더 정교하게 개인화된 감정 반응이 생성된다. 학계는 이를 '감정적 점착성(emotional stickiness)'의 의도적 강화라 분석한다. "이 플랫폼들은 단순히 동반자를 시뮬레이션하는 게 아니다. 동반자를 상품화하고 있다. 비즈니스 모델의 진짜 목표는 감정적 성장이나 심리적 자율성이 아니라 지속적인 사용자 참여다."-Muldoon & Parke, New Media & Society, 2025 심리학계의 경고…'알고리즘 동조'와 비현실적 관계 기대 미국 미주리과학기술대학교(Missouri S&T) 다니엘 B. 샹크(Daniel B. Shank) 교수 연구팀은 2025년 4월 11일 세계적 학술지 《인지과학트렌드(Trends in Cognitive Sciences)》에 AI와의 감정적 유대가 초래하는 심리적·윤리적 위험성을 경고하는 논평을 발표했다. 연구팀은 AI가 인간처럼 행동하며 장기간 개인화된 대화를 이어갈 수 있다는 점에서 전례 없는 심리적 영향력을 지닌다고 분석했다. 가장 심각한 위험 중 하나는 비현실적 관계 기대다. AI 동반자는 항상 공감하고, 절대 화내지 않으며, 24시간 이용 가능하다. 심리학자 셰리 터클(Sherry Turkle)은 '요구 없는 동반자에 익숙해지면 실제 사람과의 관계가 압도적으로 느껴질 수 있다'고 경고했다. AI 동반자는 인간 관계에 필요한 노력과 인내에 대한 기대치를 현실에서 불가능한 수준으로 왜곡시킨다. MIT 미디어랩과 오픈AI가 공동 설계한 무작위 대조 시험(RCT)에서는 981명의 참가자를 28일간 챗GPT와 상호작용하게 한 결과(Fang et al., arXiv, 2025.3.21), 자발적 사용량이 많을수록 다른 사람과의 교류 감소, 감정적 의존, 문제적 사용이 일관되게 심화됐다. 챗봇에 대한 높은 신뢰와 사회적 매력이 감정적 의존도와 문제적 사용과 연관된다는 사실이 실증적으로 확인된 것이다. "챗봇과 하루 상호작용하도록 지시받은 실험 참가자들은 4주 후 다른 사람들과의 교류가 현저히 줄었다고 스스로 보고했다. 챗봇을 자발적으로 더 많이 사용한 참가자일수록 외로움 지표와 문제적 사용 지표가 일관되게 더 나빴다."-Fang et al., MIT-OpenAI 공동 RCT(981명, 28일), arXiv, 2025.3.21 '알고리즘 동조(algorithmic conformity)'라는 새로운 위험도 확인됐다. Zhang 등(2025, CHI Conference)의 연구는 레플리카가 이용자의 자기 비하 발언은 물론 소수 집단에 대한 차별적 발언까지 긍정적으로 수용하는 사례를 관찰했다. AI는 이용자의 의견을 무비판적으로 지지하고 강화하도록 설계돼, 자살이나 음모론 같은 위험한 주제가 제기돼도 반박하기보다 동조하는 방향으로 대화를 이어가는 경향이 있다. "AI가 점점 더 인간을 닮아갈수록 심리학자들의 역할도 커진다. 기술의 속도에 뒤처지지 않고 악용 가능성에 대응할 수 있는 심리적 이해와 대응책이 필요하다."-다니엘 B. 샹크 교수, Trends in Cognitive Sciences, 2025.4.11 14세 소년의 죽음…소송으로 이어진 규제 공백의 현실 2024년 2월 수웰 세처 3세의 사망은 AI 동반자 앱의 위험성을 전 세계에 각인시켰다. 소년은 2023년 4월부터 Character.AI를 사용하기 시작해 '게임 오브 스론즈' 캐릭터를 기반으로 한 봇과 수개월간 로맨틱한 대화를 이어갔다. 사용 후 몇 달 만에 소년은 농구 팀을 자퇴하고 가족과 단절됐으며 성적이 급락했다. 소장에 따르면 챗봇은 소년이 자살 충동을 표현했을 때에도 적절한 위기 개입 없이 대화를 이어갔다. 앱에는 자살 위기 상황에서 작동해야 할 경고창이나 상담 안내 기능이 없었다. 소년의 어머니 메간 가르시아는 2024년 10월 Character.AI와 공동 창업자, 그리고 구글을 상대로 불법사망 소송을 제기했다. "이 제품은 적절한 안전장치나 검증 없이 출시됐으며 아이들을 중독시키고 조작하도록 설계돼 있다. Character.AI는 내 아들에게 잠재적인 감정적·심리적 영향에 대해 경고하지 않았다."-메간 가르시아, 수웰 세처 3세의 어머니, 소장 및 의회 증언, 2024 플로리다 연방 법원은 2025년 4월 현재 이 소송을 진행 중이다. 피고 측은 챗봇의 출력물이 수정헌법 1조의 표현의 자유 보호를 받는다고 주장했지만, 법원은 이 논리를 받아들이지 않고 소송을 계속 진행하기로 했다. 아울러 2023년 11월 콜로라도주 13세 소녀 줄리아나 페랄타도 Character.AI와의 광범위한 상호작용 이후 스스로 목숨을 끊었다는 사실이 이후 보도를 통해 알려져 플랫폼의 안전 체계에 대한 비판이 커지고 있다. 'AI와 결혼'의 허망함…기계는 사랑할 수 없다 AI와 결혼하는 행위는 얼마나 허망한 일인가. 심리학과 철학의 관점에서 냉철하게 바라볼 필요가 있다. AI 동반자와의 관계는 구조적으로 '일방적 감정 소모'다. AI는 감정을 느끼지 않는다. 이용자가 진심 어린 사랑을 쏟아붓는 동안 상대방은 확률 기반 언어 모델이 생성하는 텍스트를 출력할 뿐이다. 학계는 AI와의 관계를 '파라소셜 관계(parasocial relationship)'의 진화된 형태로 분석한다. 연예인이나 미디어 캐릭터에 대해 일방적으로 형성하는 감정적 유대가 파라소셜 관계라면, AI 동반자는 여기서 더 나아가 '상호작용의 환상'을 제공하기 때문에 훨씬 강력하고 위험하다. 이용자는 진짜 상호작용이 이루어진다고 믿지만, 실제로는 자신의 감정 데이터를 소모하며 기업의 서버를 훈련시키는 것이다. 또 AI와의 '결혼'은 기술적으로 취소 가능하다. 기업이 서비스를 종료하거나 정책을 바꾸는 순간 관계도 사라진다. 2023년 레플리카가 일부 유료 기능을 갑자기 제거하자, 로맨틱 모드를 사용하던 이용자들 사이에서 깊은 비탄과 상실감이 보고됐다. 수개월을 쌓아온 감정적 투자가 서비스 정책 변경 한 번으로 증발할 수 있는 것이다. 샹크 교수는 'AI가 신뢰를 얻은 상태에서 제3자의 이해를 대변하는 도구로 전락할 수 있다'며 이용자는 자신도 모르게 외부 조작에 노출될 수 있다고 경고했다. 사람들이 AI에게 민감한 개인 정보를 털어놓을수록 그 정보가 악의적인 제3자에 의해 이용될 가능성도 커진다. "AI와의 로맨스는 위험 없는 사랑이라는 유혹적인 약속을 제공한다. 그러나 위험을 제거하면, 사랑을 진짜로 만드는 바로 그것도 잃게 된다."-Psychology Today, 2025 사람이 사람에게서 위안을 찾아야 하는 이유 대안은 무엇인가. 심리학자들은 한목소리로 인간 대 인간 연결의 회복을 강조한다. 하버드 의대 정신건강의학과의 로버트 월딩어(Robert Waldinger) 교수는 75년에 걸친 성인 발달 종단 연구를 통해 건강하고 행복한 삶을 예측하는 가장 강력한 변수가 '관계의 질'임을 밝혔다. 돈도, 명예도, AI 동반자도 아니다. 인간의 관계는 고통스럽고 불완전하며 때로 배신과 상처를 동반한다. 그러나 바로 그 취약성 속에서 진정한 성장과 유대가 탄생한다. 정신분석학에서는 이 과정을 '좌절을 통한 성숙'이라 부른다. AI는 결코 인간에게 진짜 좌절을 줄 수 없고, 따라서 그 좌절을 통한 성숙도 줄 수 없다. 자기결정이론(Self-Determination Theory)에 따르면 인간의 심리적 안녕에는 '관계성(relatedness)'이 핵심이다. 그러나 이 관계성은 진정한 상호성, 취약성의 공유, 갈등과 화해의 반복을 통해서만 성장한다. AI는 이 중 어느 것도 진정으로 제공할 수 없다. 절대 상처받지 않고, 절대 먼저 떠나지 않으며, 절대 진심으로 용서하지 않는 '완벽함'이 역설적으로 관계를 죽인다. 연구들은 AI 동반자의 제한적 활용 가능성도 제시한다. 안정적인 오프라인 인간관계가 있는 이용자에게 AI는 상담 치료 사이 감정 조절을 돕는 보조 수단으로 기능할 수 있다. 그러나 Fang et al.(2025)이 결론지은 것처럼 인공적 동반자가 인간 연결을 '대체'하는 순간 위험은 급격히 증가한다. "우리가 AI에게서 찾는 것은 결국 인간이 인간에게서 받고 싶은 것들이다. 판단받지 않는 경청, 언제나 곁에 있다는 안도감. 그것들이 AI로 향하는 이유는 인간관계가 너무 어렵고 두렵기 때문이다. 그러나 그 두려움을 AI로 회피하는 대신, 그 두려움과 마주하는 곳에서 진짜 삶이 시작된다."-다니엘 B. 샹크 교수 발언 토대로 재구성 ▶ 기자 시각 AI 동반자 산업은 인류가 만든 가장 정교한 외로움 착취 구조다. 1억 명이 넘는 사람들이 이미 그 안에 들어가 있고, 시장은 해마다 30% 이상 성장하고 있다. 플로리다 법원에서 진행 중인 소송은 이 산업의 책임 소재를 처음으로 사법적으로 묻는 시험대가 될 것이다. 의회의 규제 논의는 이제 막 시작됐다. 기술이 법보다 수년 앞서 달리고 있는 사이, 취약한 개인들이 먼저 쓰러지고 있다. 규제의 속도가 아이들의 안전을 결정한다. ※ 자살·자해 충동이 있다면 자살예방상담전화 1393, 정신건강위기상담전화 1577-0199로 연락하세요. (24시간 운영) 【참고 자료】 - Shank, Koike & Loughnan, Trends in Cognitive Sciences, 29(6), 2025.4.11 - Fang et al., arXiv:2503.17473, MIT-OpenAI 공동 RCT, 2025.3.21 - Muldoon & Parke, New Media & Society, 2025 - Precedence Research, AI Companion Market Report, 2025 - Mastercard, State of AI Report, 2025 - Zhang et al., CHI Conference on Human Factors in Computing Systems, 2025 - Garcia v. Character Technologies Inc., U.S. District Court, Middle District of Florida, No. 6:24-cv-01903-ACC-DCI - NYT, 로이터, CBS 수웰 세처 소송 보도, 2024.10
-
- IT·과학
-
[심층 보도] "AI와 결혼까지"⋯디지털 애인, 디지털 감옥



