닫기

AI 검색의 ‘그럴 듯한 거짓말’…日기업 피해 현실화

기사듣기 기사듣기중지

공유하기

닫기

  • 카카오톡

  • 페이스북

  • 트위터 엑스

URL 복사

https://www.asiatoday.co.kr/kn/view.php?key=20260510010002096

글자크기

닫기

최영재 도쿄 특파원

승인 : 2026. 05. 10. 13:07

존재않는 서비스 만들고 멀쩡한 백화점 폐점처리…기업 브랜드 리스크 확산
clip20260510130318
생성형 인공지능(AI)을 활용한 검색 서비스가 빠르게 확산되면서 AI가 사실과 다른 정보를 그럴듯하게 제시하는 '환각' 문제가 일본 기업의 현실적 피해로 번지고 있다. /이미지=생성형AI
생성형 인공지능(AI)을 활용한 검색 서비스가 빠르게 확산하면서 AI가 사실과 다른 정보를 그럴듯하게 제시하는 '환각' 문제가 일본 기업의 현실적 피해로 번지고 있다. 단순한 검색 오류를 넘어 존재하지 않는 서비스를 실제 서비스처럼 설명하거나, 영업 중인 백화점을 폐점 예정으로 표시하는 사례까지 나오면서 기업의 브랜드 이미지와 고객 대응에 부담이 커지고 있다.

요미우리신문은 10일 생성형 AI 검색의 오답이 기업의 평판과 영업활동에 영향을 주는 사례가 잇따르고 있다고 보도했다. AI의 정확도는 해마다 높아지고 있지만, 검색 결과 상단에 AI가 요약한 답변이 먼저 제시되면서 이용자가 개별 사이트를 직접 확인하지 않고 잘못된 정보를 사실로 받아들이는 위험이 커졌다는 것이다.

대표적 사례는 간사이전력이다. 간사이전력은 자사를 사칭해 개인정보 등을 요구하는 의심스러운 전화와 이메일이 잇따르자 홈페이지에서 주의를 당부하고 있다. 문제는 사기성 권유에 등장한 실재하지 않는 서비스명까지 AI가 실제 서비스처럼 설명했다는 점이다.

요미우리는 기자가 구글에서 존재하지 않는 '간덴 e서포트'에 대해 묻자, AI는 "간사이전력이 제공하는 전기요금 재검토나 설비 문제 발생 때의 출동 서비스 등의 총칭"이라고 답했다고 보도했다. 실제로는 그런 서비스가 없는 것으로 알려졌다. 간사이전력에는 '하피 e 생활지원'이라는 비슷한 이름의 서비스가 있어 AI가 이를 혼동했을 가능성이 제기됐다.

AI가 사실에 근거하지 않은 내용을 진실처럼 만들어내는 현상은 '할루시네이션'(hallucination), 즉 환각으로 불린다. 기존 검색은 이용자가 여러 사이트를 비교해 정보를 찾는 방식이었지만, AI검색은 질문에 대해 AI가 정보를 조사·요약해 곧바로 답을 만든다. 편리하지만, 답변이 틀릴 경우 오히려 잘못된 정보가 더 빠르고 권위 있게 퍼질 수 있다.

기업 피해는 전력회사에 그치지 않는다. 미에현 쓰시에 있는 백화점 '쓰마쓰비시'는 지난해 고객 문의를 통해 구글 AI검색 결과에 "2026년 2월 말 폐점한다"는 잘못된 표시가 나온 사실을 파악했다.

실제 폐점 예정인 곳은 나고야시의 다른 백화점이었는데, 관련 뉴스에서 두 백화점이 함께 다뤄지면서 AI가 정보를 혼동했을 가능성이 있다. 쓰마쓰비시는 홈페이지에 폐점 정보가 사실이 아니라고 공지하고 구글에 정정을 요구했지만, 한때 개선됐다가도 잘못된 내용이 다시 표시되는 상황이 이어졌다. 고객 문의도 10건 이상 들어왔다.

◇AI 답변이 곧 기업 평판이 되는 시대
일본 기업들의 위기감은 커지고 있다. 도쿄의 마케팅 회사 PLAN-B 마케팅 파트너스가 지난해 기업 마케팅·홍보 담당자 180명을 대상으로 조사한 결과, 80% 이상이 AI에서 자사나 타사에 관한 잘못된 정보가 표시된 경험이 있다고 답했다. AI가 이용자의 첫 번째 정보 창구가 되면서 기업 입장에서는 검색결과 관리뿐 아니라 AI가 어떤 정보를 인용하는지까지 관리해야 하는 상황이 된 것이다.

이에 따라 기업들은 인터넷 공간에 정확한 정보를 더 체계적으로 남기는 방식으로 대응하고 있다. 인터넷 감시 서비스 업체 시엔프레는 입소문 사이트 등에 올라온 취업환경이나 사업 내용 관련 평가에 대해 각 기업의 공식 견해를 소개하는 사이트를 운영하고 있으며, 약 600개사가 이용하고 있다.

광학기기 제조업체 도치기니콘도 사내 제도 등에 관한 부정확한 게시글이 보여 지난해부터 이 서비스를 이용하기 시작했다. 인재 확보 측면에서도 잘못된 정보가 퍼지는 것을 방치할 수 없다는 판단에서다.

한국 기업과 언론에도 남의 일이 아니다. 네이버, 구글, 마이크로소프트, 챗GPT형 검색 서비스가 확산되면 이용자는 기업 홈페이지나 언론 기사 원문보다 AI가 요약한 답변을 먼저 보게 된다. AI가 없는 서비스명을 만들어내거나, 정상 영업 중인 회사를 폐업 처리하거나, 기업의 채용·복지·상품 정보를 잘못 요약하면 소비자 신뢰와 주가, 채용 경쟁력에까지 영향을 줄 수 있다.

언론도 마찬가지다. AI검색이 기사 내용을 요약하는 과정에서 맥락을 잘못 잡거나 과거 정보를 현재 사실처럼 제시하면, 독자는 언론사 원문을 확인하기 전에 왜곡된 정보를 접하게 된다. AI 시대의 팩트체크는 단순히 기사를 정확히 쓰는 데서 끝나지 않는다. 기업과 언론 모두 AI가 읽기 쉬운 구조로 공식 정보를 정리하고, 오류가 발견되면 즉시 정정 요구와 공개 설명에 나서야 한다.

일본에서 벌어지는 AI검색 오답 논란은 생성형 AI가 더 이상 기술업계 내부 문제가 아니라는 점을 보여준다. AI의 거짓말은 이제 화면 속 오류가 아니라 기업의 고객센터를 움직이고, 브랜드 신뢰를 흔들며, 실제 매출과 채용에도 영향을 주는 사회문제가 되고 있다.
최영재 도쿄 특파원

ⓒ 아시아투데이, 무단전재 및 재배포 금지

기사제보 후원하기