닫기

목소리·뉴스…네이버의 ‘연구목적’ 데이터 수집 논란

기사듣기 기사듣기중지

공유하기

닫기

  • 카카오톡

  • 페이스북

  • 트위터 엑스

URL 복사

https://www.asiatoday.co.kr/kn/view.php?key=20230413010007836

글자크기

닫기

정문경 기자

승인 : 2023. 04. 13. 20:37

엄마의 목소리를 부탁해 네이버
네이버 '클로바 더빙' 캠페인 '엄마의 목소리를 부탁해'./클로바 더빙 페이지 갈무리
네이버가 생체 정보인 목소리와 지적 재산권(IP)인 뉴스 콘텐츠 등 데이터를 수집하는 과정에서 연구 목적이라는 명분으로 동의를 받아 데이터 활용시 용도 논란이 일 것으로 보인다. 연구 목적이라는 명목하에 개인·단체에게 동의를 얻고 있지만 수익 창출 극대화가 목적인 기업에서 과학적 연구와 상업적 목적의 기준선이 모호해 향후 상업적으로 활용될 여지가 많기 때문이다.

13일 업계에 따르면 네이버는 생체 정보인 개인 음성에 대해 음성 합성 기술 연구 및 개발을 위한 활용 목적으로 개인 동의 하에 정보를 수집하고 있다. 사용자의 녹음된 음성을 가지고 AI 목소리로 만들어주는 '클로바 더빙'은 '보이스메이커' 프로젝트를 통해 신청자를 받는다. 보이스메이커 개인정보 처리방침에는 프로젝트 참여자로 선정된 자의 동의 하에 5년간 연구 목적으로 데이터를 활용할 수있다는 고지를 하고 있다.

AI 보이스
클로바 더빙 보이스 메이커 녹음 참여 동의서 일부.
더구나 클로바 더빙은 지난해 10월 '엄마의 목소리를 부탁해'라는 캠페인으로 가족의 목소리로 AI 보이스를 만들어주는 캠페인을 진행했다. 신청자를 받아 100명을 선정해 실제 목소리를 토대로 AI 보이스로 만든 뒤 이를 공개하는 캠페인이다. 캠페인에서는 신청 시 가족의 목소리를 샘플 문장을 읽는 목소리를 녹음해 제출하도록 안내했다. 신청 시에 동의를 받고 신청자와 그의 가족 목소리를 수집한다. 다만 캠페인 안내문에는 개인정보 수집 시 이용자 동의·활용 목적·파기 고지 등에 대한 안내는 따로 없었다.

여기에 네이버는 뉴스콘텐츠의 연구 목적 활용에 대해서도 논란이 일고 있다. 지난달 30일 뉴스 서비스 제휴 언론사를 대상으로 통보한 '뉴스 콘텐츠 제휴 약관 개정안'에는 서비스 개선·개발 연구 목적으로 동의 없이 모든 계열사까지 뉴스를 이용할 수 있도록 하는 조항(8조)이 포함됐다. 네이버는 이 개정안을 5월 1일부터 시행한다고 안내했다. 한국기자협회는 "뉴스가 자사의 서비스 개발에 도움이 될지 아닐지를 네이버가 판단하는 것은 통상적인 정보활용 범위로 볼 수 없다"고 지적했다.

주요 저작물과 개인정보를 연구 목적으로 수집하는 배경에는 IT업계의 기술 화두인 AI와 연관이 있다. 업계에서는 오픈AI의 '챗GPT' 처럼 생성형 AI 기술·서비스로의 기술 중심이 이동할 것으로 보는 가운데, 생성형 AI와 같은 고도화된 서비스는 대규모 데이터 학습이 필수적이다. IT업계에서는 '데이터 확보가 곧 기술 경쟁력'이라 강조하기도 한다. 한 IT업계 관계자는 "AI 기술 근간에는 데이터 학습이 중요하기에 비용을 내고서라도 데이터를 수집·확보하고자 한다"며 "각 기업들이 어떤 유의미한 데이터를 가지느냐에 따라 경쟁력이 달라지기에 데이터의 중요성 또한 부각되고 있다"고 강조했다.

개인의 고유성을 가진 목소리의 경우는 데이터가 쌓일 수록 음성 인식과 분석, 합성 등 기술의 정확성을 높일 수 있는 기반이 된다. 또 정확성과 신뢰성을 기반으로한 문자, 사진, 영상 정보를 담은 뉴스 콘텐츠는 AI 학습을 위한 기반 자료로 활용도가 높아진다.

네이버는 AI 서비스 기반이 되는 자체 대규모 언어모델(LLM) '하이퍼클로바 X'를 계열사와 협업해 고도화하는 작업을 진행 중이며, 뉴스 등 다양한 디지털 콘텐츠로 학습시킨 AI를 기반으로 한 기업 간 거래(B2B) 서비스 확대도 네이버클라우드 등 자회사를 통해 추진하고 있다.

이런 배경으로 정보 활용을 연구 목적으로 명시해도 사실상 상업적 목적의 연장선으로 분석된다. 한 IT업계 전문가는 "영리를 추구하는 회사이기 때문에 연구를 해도 상업적으로 하는 것"이라며 "단순 연구 목적이고, 상업적으로 활용되지 않는 다는 것은 논리상 맞지 않다"고 설명했다.

권헌영 고려대 정보보호대학원 교수는 "향후 챗GPT 등 생성형 AI와 관련해 전반적인 규제 정립이 형성될 것"이라며 "정보의 집중과 편향 문제가 불거지면, 알고리즘 투명성 등 조치와 대책이 마련되면서 환경이 조성될 것"이라고 진단했다.
정문경 기자

ⓒ 아시아투데이, 무단전재 및 재배포 금지

기사제보 후원하기