“챗GPT가 안다” 그 한마디에 AI는 ‘사람’이 된다
2026.04.20 14:33
“그건 챗GPT가 안다.” “클로드는 이렇게 생각한다.”
일상에서 무심코 쓰는 이런 표현이 인공지능(AI)을 실제보다 인간에 가까운 존재로 인식하게 만든다는 연구 결과가 나왔다. ‘생각한다’, ‘안다’, ‘이해한다’, ‘기억한다’ 같은 이른바 ‘정신 동사’를 AI에 붙이는 순간, 기계에도 신념과 의도가 있는 것처럼 오해하게 된다는 것이다.
미국 아이오와 주립대 연구팀은 이 같은 내용을 국제 학술지 ‘테크니컬 커뮤니케이션 쿼털리’에 발표했다.
연구팀에 따르면 이런 표현은 두 가지 방식으로 오해를 만든다. 먼저 AI의 능력을 실제보다 부풀린다. “AI가 결정했다”, “챗GPT가 안다” 같은 표현은 시스템을 자율적이고 지능적인 존재처럼 보이게 해 신뢰와 기대를 과도하게 끌어올린다. 하지만 대형언어모델(LLM)에 기반한 대부분 AI 서비스는 데이터를 기반으로 패턴을 분석해 결과를 내놓는 도구일 뿐, 스스로 생각하거나 판단하지는 못한다.
또 하나 문제는 책임 소재를 흐린다는 점이다. AI에 의도가 있는 것처럼 묘사하면, 그 시스템을 설계·학습·배포·관리하는 개발자와 기업의 역할은 가려진다. 연구팀은 “의인화된 표현이 독자 인식에 오래 남아 AI를 둘러싼 책임 구조를 왜곡할 수 있다”고 했다.
실제 언론에선 이런 표현을 얼마나 쓰고 있을까. 연구팀이 20개국 영어권 기사 200억 단어 이상을 모은 ‘뉴스 온 더 웹(NOW)’ 기사 데이터를 분석한 결과, 언론은 비교적 절제된 표현을 사용하는 것으로 나타났다. AI를 주어로 했을 때는 정신 동사 가운데 ‘필요로 하다(needs)’가 661회로 가장 많았고, ‘챗GPT’를 주어로 한 경우 ‘안다(know)’는 32회에 그쳤다. 연구팀은 AP통신이 AI에 인간적 감정이나 특성을 부여하지 말 것을 권고하는 등 주요 언론의 편집 가이드라인이 영향을 미친 것으로 분석했다.
같은 표현이더라도 문맥에 따라 의미가 달라지기도 한다. “AI는 방대한 데이터가 필요하다(needs)”는 표현은 자동차나 요리법 조건을 설명하는 것과 크게 다르지 않다. 반면 “AI는 현실을 이해할 필요가 있다(needs)”는 문장은 인간의 추론이나 윤리, 의식까지 기계에 기대하게 만드는 효과를 낳는다. 같은 표현이지만 맥락에 따라 AI에 대한 인식에 미치는 영향이 달라지는 것이다. 연구팀은 “미디어가 선택하는 언어가 독자들의 AI 인식과 기술에 대한 기대, 그 뒤에 있는 인간에 대한 이해를 조용히 형성하고 있다”고 했다.
저작권 보호를 위해 본문의 일부만 표시됩니다.
원문 보기 →댓글 (0)
첫 번째 댓글을 작성해보세요!
챗 gpt의 다른 소식
모든 소식을 불러왔습니다
