- GPT-4, 확률·논리 문제는 강점⋯편향 과신은 인간보다 심해
- "AI도 감독과 윤리 기준 필요"⋯주관적 판단엔 인간 개입 중요
인공지능(AI)이 인간과 전혀 다른 방식으로 사고한다고 여겨져 왔지만, 실제 의사결정 과정에서는 인간과 유사한 비합리성을 드러낸다는 연구 결과가 나왔다.
최근 캐나다·호주 등 국제연구팀에 따르면 오픈AI의 생성형 언어모델(챗GPT)을 대상으로 18개의 대표적인 인간 인지 편향(cognitive bias)에 대한 반응을 실험한 결과, 거의 절반의 상황에서 인간과 유사한 편향적 판단을 보인 것으로 나타났다고 라이브사이언스가 4일(현지시간) 보도했다.
해당 연구 결과는 지난 4월 8일 국제학술지 제조 및 서비스 운영관리 학술지 '매뉴팩처링 앤드 서비스 오퍼레이션스 매니지먼트(Manufacturing & Service Operations Management) 논문에 게재됐다.
이번 연구는 캐나다와 호주의 5개 학술기관이 공동 수행했으며, 실험에는 GPT-3.5와 GPT-4 두 가지 모델이 사용됐다. 연구진은 확률 판단, 논리 연산, 위험 회피, 과신, 소유효과(자신이 가진 것에 과도한 가치를 부여하는 경향) 등 인지 심리학에서 자주 다뤄지는 시나리오를 제시해 AI가 얼마나 인간적인 오류를 반복하는지 검증했다.
그 결과, GPT-4는 명확한 수리적 해답이 존재하는 문제에 대해서는 GPT-3.5보다 정확도가 높았으나, 주관적 선택이나 선호가 개입되는 문제에서는 오히려 인간보다 더 보수적이거나 확신에 찬 판단을 내리는 경향이 확인됐다.
연구를 이끈 캐나다 아이비경영대학원 양 천(Yang Chen) 조교수는 성명을 통해 "공식화된 문제 해결에는 AI가 유용할 수 있지만, 주관적 판단이 요구되는 상황에서는 사용자가 신중해야 한다"고 경고했다.

실제로 GPT-4는 불확실한 조건에서 보다 안전하고 예측 가능한 선택지를 선호하는 경향이 인간보다 더 강하게 나타났다. 예를 들어, 무작위성에 패턴이 있다고 믿는 '핫핸드 오류(hot hand fallacy)'나, 특정 정보만 선택적으로 받아들이는 '확증 편향(confirmation bias)'에 더 자주 빠지는 양상도 관찰됐다.
핫핸드 오류(hot hand fallacy)는 무작위적 사건에서 특정 결과가 반복되면, 앞으로도 같은 결과가 계속 나올 것이라고 믿는 인지 편향을 말한다. 즉, "연속된 성공은 앞으로도 성공할 확률을 높인다"고 착각하는 것이다. 이는 의사결정의 오류로 이어질 수 있다.
확증 편향(confirmation bias)은 사람들이 자신이 이미 믿고 있는 신념이나 가설을 뒷받침하는 정보만 선택적으로 받아들이고, 그와 모순되는 정보는 무시하거나 평가절하하는 경향이다.
반면, AI는 인간이 흔히 범하는 '기저율 무시(base-rate neglect)', '매몰비용 오류(sunk cost fallacy)' 등에서는 비교적 이성적인 판단을 유지했다.
연구진은 이러한 편향이 훈련 데이터 내에 존재하는 인간의 사고 패턴에서 비롯되며, 이후 인간 피드백을 통해 반복적으로 강화된다고 분석했다.
논문 공동 저자인 캐나다 맥매스터대학교 미나 안디아판(Meena Andiappan) 교수는 "AI는 중요한 결정을 내리는 직원처럼 다뤄야 하며, 윤리적 지침과 감독 체계가 반드시 필요하다"며 "그렇지 않으면 인간의 비합리성을 단순히 자동화하는 결과를 초래할 수 있다"고 지적했다.
연구진은 마지막으로 "AI를 계산기처럼 신뢰할 수 있는 영역에 활용할 때 가장 높은 효용을 기대할 수 있다"며, "주관성이나 전략적 판단이 요구되는 분야에서는 반드시 인간의 검토가 병행돼야 한다"고 덧붙였다.