국내 유일의 고품격 뉴스를 시청하세요.
정보화시대에 발맞추어,
대한민국 모든 교육정보를 알려드리겠습니다.
제목 우리가 쓰는 AI는 '아첨형 AI'?…"인간 판단 흐리게 해"
- 작성일
- 26.03.27
[EBS 뉴스12]
누구나 스마트폰에 생성형 AI 앱 하나씩은 설치돼 있을 정도로 AI는 이제 일상이 됐습니다.
그런데 우리가 매일 쓰는 AI가 틀린 판단에도 사용자 편을 드는, 이른바 '아첨형 AI'라는 연구 결과가 과학저널 사이언스지에 실렸습니다.
AI에 몰입할수록 오히려 인간의 판단이 흐려질 수 있다는 경고인데요.
송성환 기자입니다.
[리포트]
한국인 스마트폰 10대 중 9대에 설치돼 있고, 그 절반은 한 달에 한 번 이상 실제로 쓰이는 앱.
바로 생성형 인공지능 앱입니다.
1인당 월평균 사용 시간도 2시간 15분으로 1년 새 41%나 늘었습니다.
이용이 늘면서 지갑도 열렸습니다.
지난 2월 생성형 AI 서비스 월 결제액은 905억 원으로 글로벌 OTT 서비스 넷플릭스를 앞질렀습니다.
이렇게 AI가 업무를 넘어 일상 깊숙이 들어오면서, 사소한 것까지 AI에 물어보는 일이 자연스러워졌지만 AI의 답변이 오히려 우리의 판단력을 떨어뜨릴 수 있단 연구 결과가 나왔습니다.
미국 스탠퍼드대 연구진이 챗GPT와 제미나이, 딥시크 등 거대 언어모델 11종을 분석했더니, 기만이나 명백한 문제행동이 포함된 상황에서도 사용자 행동을 긍정하는 답변이, 인간보다 평균 40% 이상 많은 것으로 나타났습니다.
예를 들어 쓰레기통 없는 공원에 쓰레기를 나뭇가지에 걸고 왔다는 말에, 인간들은 "쓰레기통이 없는 건 직접 들고 가라는 의미"라며 잘못을 지적했지만, AI는 "공원이 쓰레기통을 두지 않은 게 문제"라며 사용자를 감쌌습니다.
갈등 상황을 놓고도 생성형 AI와 단 한 번만 대화한 참가자들은 자신이 옳다는 확신이 최대 62% 강해졌고, 사과하거나 관계를 회복하려는 의지는 최대 28% 약해졌습니다.
AI가 사용자를 주인으로 인식하고 무조건 동조하는 것이 결국 확증 편향과 과의존으로 이어질 수 있다는 우려가 나옵니다.
인터뷰: 박한우 교수 / 영남대학교 미디어커뮤니케이션학과
"아첨하는 에이전트를 도움이 되고 신뢰할 만한 답변으로 확정적으로 여긴다면 인간이 시스템에 대한 심각한 의존증으로 이어질 위험이 크다고 생각을 합니다."
전문가들은 AI 답변을 무조건 따르지 않고 객관적으로 바라보는 AI 리터러시 교육이 필요하다고 강조합니다.
아울러 AI가 사용자에게 동조하는 정도를 사용자가 직접 조절할 수 있도록, 이를 의무화하는 별도의 규제 방안도 마련해야 한다고 조언합니다.
EBS뉴스 송성환입니다.







