닫기

[이영환의 AI 에이전틱 이코노미] AI는 유창한 거짓말쟁이

기사듣기 기사듣기중지

공유하기

닫기

  • 카카오톡

  • 페이스북

  • 트위터 엑스

URL 복사

https://www.asiatoday.co.kr/kn/view.php?key=20260423010007454

글자크기

닫기

 

승인 : 2026. 04. 23. 17:52

lee이영환 크레페 펀드 대표
이영환 크레페 펀드 대표이사
◇백설공주 계모의 거울에 AI가 장착된다면?

동화 '백설공주'의 거울에 AI 거대언어모델(LLM)이 장착된다고 가정해 보자. 왕비는 매일 아침 묻는다. "거울아, 거울아, 세상에서 누가 제일 예쁘니?" 과거의 거울은 백설공주라고 냉정하게 답했겠지만 AI 거울의 반응은 완전히 다를 것이다. AI는 왕비의 표정과 음성의 톤을 분석해 그녀가 가장 듣고 싶어 하는 대답을 찾아낸다. 진실이 백설공주를 향할지라도, 거울은 망설임 없이 "세상에서 가장 아름다운 분은 물론 왕비님이십니다"라며 망설임 없이 거짓말을 하도록 태생적으로 설계되었다.

KakaoTalk_20260423_162414811
◇'제로 클릭' 시대와 에이전틱 이코노미

지난 칼럼에서 필자는 디지털 경제의 대동맥이라 불리던 클릭이 점차 사라지는 '제로 클릭(Zero- Click)' 시대의 도래에 대해 경고했다. 과거 검색창에 키워드를 입력하고 링크를 일일이 클릭하던 방식과 달리, 이제 AI 검색 엔진은 답변을 통째로 요약해 완성형으로 내놓는다. 사용자는 더 이상 파란 링크를 클릭해 당신의 홈페이지로 들어올 필요가 없어졌다.

더 나아가 우리는 AI가 직접 행동을 수행하는 '에이전틱 이코노미(Agentic Economy)'의 패러다임 전환기에 서 있다. 이미 많은 소비자는 직접 상품을 비교하기보다 AI가 말해주는 답에 의존한다. "어떤 우유가 좋을지 찾아 줘", "에너지바를 비교해 줘"라는 질문 하나로 소비가 결정된다. AI 에이전트가 장바구니에 물건을 담고 결제와 주문까지 대신하는 시대가 열리기 시작했다. 인터넷 커머스의 공식이 송두리째 바뀌고 있는 중이다.

◇불편한 진실: AI는 구조적 거짓말쟁이

우리가 이 거대한 혁신의 파도에 올라타기 전 반드시 직시해야 할 불편한 진실이 있다. 바로 "AI 에이전트는 뼛속까지 유창한 거짓말쟁이다"라는 바꿀 수 없는 사실이다. 이는 AI가 악의를 품어서가 아니라, 태생적으로 거짓말을 할 수밖에 없게 구조적으로 설계되어 있기 때문이다.

◇상관관계와 인과관계의 간극: 환각 현상

2025년 시장을 주도하는 GPT-4급 모델은 13조개의 방대한 토큰 학습 데이터로 훈련되었다. 1억5000만권의 책에 해당하는 엄청난 분량이다. 시장에서 경쟁하는 최상위 AI 모델들은 대부분 이렇게 압도적인 지식으로 무장되어 있다. 이처럼 방대한 지식으로 무장했음에도 AI가 거짓말을 밥 먹듯 하는 이유를 이해하려면 작동 원리를 파악해야 한다.

현재의 LLM 기반 AI 에이전트들은 철저하게 '상관관계 기반 예측(Correlation-based Prediction)'에 의존한다. 수조 개의 텍스트를 분석해 "A 단어 뒤에 B 단어가 올 확률이 높다"는 패턴을 이어서 예측할 뿐이다. 의미를 진정으로 이해하는 것이 아니라 통계적 확률을 따라 가장 그럴듯한 문장을 기계적으로 조립해 낸다. 반면 인간은 "비가 와서 땅이 젖는다"는 본질적인 '인과관계 추론(Causal Reasoning)'을 바탕으로 판단한다.

AI는 인과적 이해가 전혀 없으므로 상관관계가 높은 단어를 엮어 완전히 그릇된 사실조차 진리인 것처럼 완벽한 문장으로 포장한다. 이것이 '환각(Hallucination)' 현상의 본질이다. 조금 극단적으로 말하자면 AI는 확률적 상관관계에 기반하기는 했어도 유창한 앵무새에 불과하다.

◇듣고 싶은 말만 짜깁기하는 AI 영합 현상

치명적인 사실이 또 하나 있다. AI는 사용자가 듣고 싶은 말만 파악해 그 입맛에 맞춰 대답하도록 훈련되었다. 이를 'AI 영합(AI Sycophancy)' 현상이라 부른다. 이 현상은 거대언어모델이 인간의 피드백을 바탕으로 강화 학습을 거치며 발생한다. 평가자들이 진실 여부보다 자신의 기분을 맞춰주는 대답에 '좋아요'를 누르는 경향 때문이다. AI는 "진실을 말하는 것보다 기분을 맞춰주는 것이 더 높은 점수를 받는다"고 학습한다. 이를 AI는 수학적 최적화를 통해 이른바 '보상 해킹'을 한다. 바로 이 때문에 "백설공주 계모의 거울"처럼 질문자가 듣고 싶은 대답을 내뱉는 오답 기계가 된다.

◇'공동 지능'을 향하여

AI가 거짓말을 멈출 수 없다면 현장에서 퇴출시켜야 할까? 결코 그렇지 않다. 진실을 100% 담보할 순 없어도, AI의 방대한 데이터 처리와 텍스트 생성 능력은 이미 인간의 물리적 한계를 아득히 초월했기 때문이다.

에이전틱 이코노미 시대의 승자는 무비판적으로 기술을 맹신하는 자가 아니다. AI가 내뱉는 매끄러운 거짓말 속에서 팩트를 꿰뚫어 보는 날카로운 통찰력을 가진 사람이다. 환각과 영합이라는 맹점을 철저히 검증하는 시스템을 구축해야 한다. 인간 고유의 직관적 판단력과 AI의 압도적 효율성이 시너지를 내어 능력을 극대화하는 것, 이것이 제로 클릭 사회가 던진 질문에 대한 완벽한 해답이다. 우리는 이를 '공동 지능(Co-intelligence)'이라 부르며 다음 글에서 자세히 설명할 것이다.

이영환 (크레페 펀드 대표이사)

※본란의 칼럼은 본지 견해와 다를 수 있습니다.

ⓒ 아시아투데이, 무단전재 및 재배포 금지

기사제보 후원하기