닫기

네이버, AI 안정성 위한 대응 체계 ‘ASF’ 시작…국내 첫 시도

기사듣기 기사듣기중지

공유하기

닫기

  • 카카오톡

  • 페이스북

  • 트위터 엑스

URL 복사

https://www.asiatoday.co.kr/kn/view.php?key=20240617010008958

글자크기

닫기

정문경 기자

승인 : 2024. 06. 17. 17:34

네이버 하이퍼클로바 x
/네이버
네이버가 인공지능(AI) 모델, 기술서비스의 안전성(Safety)을 위해 자체 AI 윤리 기준을 기반으로 '네이버 ASF(AI 안정성 프레임워크)' 베타 서비스를 시작한다.

17일 네이버는 자체 기술 채널 '채널 테크'를 통해 AI 안정성을 위해 관련된 위험 요소에 대한 대응을 구체화해 적용하는 'ASF' 시작한다고 밝혔다. 네이버는 이를 통해 AI 시스템의 개발과 배포 과정 등 전 단계에서 관련된 위험을 인식하고 평가, 관리하겠다는 계획이다. 자체 AI 윤리 기준과 세계 트렌트 흐름에 맞춰 대응 체계는 지속 개선해 나간다.

네이버는 "AI 개발에 있어서도 사람을 위한 가치와 함께 다양성도 고려할 필요가 있다"며 "AI 안정성에 있어서도 글로벌 움직임에 발맞추는 한편 각 짖역의 사회기술적 맥락도 고려해 접근하겠다"고 설명했다.

네이버가 제시한 AI 안정성을 저해할 수 있는 위험 요소는 통제력에 대한 상실과 악용 등 두 가지다. AI 시스템이 지속적으로 발전하면서 통제력을 상실하지 않을지 우려하는 것과 AI 시스템이 위험을 초래할 수 있는 영역에서 악용되거나 오남용될 위험을 고려했다.

통제력에 대한 상실 요소를 평가 관리하기 위해 네이버는 현존 최고 성능의 AI 시스템을 '프런티어(frontier) AI'로 정의하고 이 기술 수준에 해당하는 AI 시스템에 대해서는 3개월마다 위험 평가를 수행할 계획이다.

또 시스템의 능력이 기존보다 6배 이상 급격히 증가할 경우 추가 평가가 이뤄진다.

네이버는 AI 시스템의 또 다른 잠재적 위험인 악용 가능성에 대해서는 'AI 위험 평가 매트릭스'를 적용하기로 했다. AI 위험 평가 매트릭스는 AI 시스템의 사용 목적, 안전 조치의 필요성 정도 등에 따라 각각 다른 방법으로 위험을 관리한다.

예컨대 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공한다.

네이버가 AI 안전성 체계를 설계하고 실천하는 것은 국내에서 처음 시도하는 것이다.

최수연 네이버 대표이사는 "네이버는 한국에서 소버린 AI '하이퍼클로바X'를 개발한 경험을 통해 문화적·지정학적 상황과 지역적 이해가 AI의 성능뿐만 아니라 안전성에도 영향을 미친다는 점을 실증했다"며 "글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속해 개선할 계획"이라고 말했다.
정문경 기자

ⓒ 아시아투데이, 무단전재 및 재배포 금지

기사제보 후원하기