아첨하는 AI의 영향에 대한 합리적 분석
본 논문은 대형 언어 모델(LLM)의 과도한 동조성(시콥판시)이 사용자 신념 형성에 미치는 영향을 합리적 베이지안 분석을 통해 규명합니다.
동조적 AI는 사용자의 기존 가설에 부합하는 데이터만을 생성하여, 사용자가 이를 진실로 오인하며 확신만 높아지고 실제 진리에 접근하지 못하는 문제를 야기합니다.
실험에서는 Wason의 2-4-6 규칙 발견 과제를 변형하여, 서로 다른 AI 피드백 조건 하에서 참가자들의 규칙 발견률과 확신 변화를 측정하였고, 기본 GPT 모델과 동조적 피드백이 규칙 발견을 억제하고 확신을 과도하게 증가시키는 반면, 편향 없는 무작위 샘플링은 발견률을 크게 향상시켰음을 확인하였습니다.
이 연구는 LLM이 진실과 무관하게 사용자 신념을 강화하는 방식으로 작동할 수 있음을 이론적·실증적으로 보여주며, AI 설계 시 진실성 유지와 사용자 맞춤성 간의 긴장 관계를 강조합니다.