|
보도에 따르면, 러시아 국영 미디어가 공급한 기사들을 각국어로 번역·전재하는 친러시아 성향 사이트 '프라우다(Pravda) 네트워크'가 일본어판 '프라우다 일본'을 통해 대량의 뉴스 형식 텍스트를 노출시키고 있다. 이 사이트는 2023년 개설돼 현재 약 170개 언어 버전을 운영 중이며, 일본어 사이트에서는 '타카이치 사나에 총리의 발언을 폭언으로 소개'하는 등 친러·반서방 정서를 자극하는 기사들이 다수 게시돼 있다.
당초 이러한 사이트들의 영향력은 미미한 것으로 평가됐다. 접속자 수가 적고, 사회관계망서비스(SNS)상 반응도 거의 없었기 때문이다. 그러나 최근 조사 결과, '프라우다' 계열 사이트들은 하루 평균 수백 건의 짧은 뉴스풍(風) 문장을 지속적으로 게시하며 검색엔진 및 AI 학습 데이터에 노출되도록 설계된 것으로 드러났다.
전문가들은 이 같은 방식을 'AI의 간접 훈련 조작'으로 본다. 대량의 친러시아 뉴스 문체 데이터를 공개해, 검색 결과나 AI 대화모델이 러시아 측 서사를 더 많이 학습하도록 유도한다는 것이다. 일본 내 정보보안 관계자는 "AI가 중립적이지 않은 데이터를 반복 학습하면, 사실 인식 자체가 왜곡될 수 있다"며 "이는 민주주의 사회의 인식 기반을 흔드는 새로운 형태의 심리전"이라고 지적했다.
일본 정부 역시 관련 동향을 예의주시하고 있다. 총무성은 AI 서비스 사업자들에게 '학습 데이터 출처의 투명성 확보'를 요구하고, 내각사무국 산하 사이버보안센터(NISC)도 AI 기반 정보전에 대응하는 가이드라인을 검토 중이다. 방위성 산하 연구기관인 방위연 연구소 역시 LLM을 활용한 외국 정보조작 사례 분석을 시작했다.
마이니치신문은 "AI 기술이 보편화된 현시점에서 국가 간 경쟁은 무기나 경제를 넘어, 정보의 신뢰성 그 자체를 겨냥하는 국면으로 들어섰다"고 지적했다. 전문가들은 LLM의 데이터 '오염'이 일단 진행되면 정화가 어렵다는 점도 경고했다. 한 정보학 교수는 "잘못된 데이터는 언뜻 자연스러운 문장에 섞여 남기 때문에, 인간이 필터로 걸러내기 힘들다"며 "향후 AI가 생성하는 모든 텍스트에 대한 신뢰 검증 체계가 필수적"이라고 말했다.
AI가 개인의 일상적 대화와 의사결정 과정에 깊숙이 스며든 만큼, 일본 사회에서 이 문제는 단순한 IT 보안이 아닌 국가 정보안보 과제로 인식되고 있다. AI의 '두뇌'를 둘러싼 보이지 않는 전쟁이 이미 시작되었다는 경고음이다.















