국제 기준 등 참고…"AI 보안 사항 글로벌 수준으로 정립"
|
과학기술정보통신부는 한국인터넷진흥원(KISA)와 외부의 사이버 위협으로부터 AI 모델·서비스를 보호하기 위해 기업과 국민이 참조할 수 있는 'AI 보안 안내서'를 마련했다고 10일 밝혔다.
이전 정부가 발간해온 지침과 가이드라인이 AI 생성물, 추론 과정 등에 대한 신뢰성 및 윤리적 활용의 관점에서 다뤄진 내용만을 담으면서 외부 위협을 예방·대응하는 보안 관점에서의 상세한 가이드 또는 기준은 제시되지 않았었다.
이에 과기부에서는 산·학·연 전문가들과 함께 국내?외 AI 보안 정책 관련 사례 등을 분석하고 관계기관·업계 대상으로 의견 수렴을 거쳐 AI 모델 개발자, 서비스 제공자, 이용자 등이 보안 측면에서 참고할 수 있는 안내서를 마련했다는 설명이다.
AI 보안 안내서는 AI 모델·시스템에 대해 보안 3대 요소(기밀성, 무결성, 가용성)을 기반으로 개발자, 서비스 제공자 대상 AI 생애주기 전 단계 보안 요구사항과 이용자의 보안 수칙 등 총 113개의 항목으로 구성됐다.
구체적으로는 모델 개발 단계에서 AI 모델 위험 관리, 데이터 암호화, 실시간 모니터링 등 보안 내재화(Secure by Coding)를 실현하기 위한 보안 요구사항을 제시했다. 또 서비스 제공 단계에서는 서비스 이상 행위 탐지, API·인터페이스 보안, 백업시스템 구축 등 서비스 복원력 관점에서의 보안 요구사항을 담았으며 중요 정보 입력금지, AI 악용 금지 등 이용자를 위한 구체적인 보안 수칙을 제시했다.
이번 보안 안내서는 국제 기준 및 가이드라인 등을 참고, AI 보안 요구사항을 글로벌 수준으로 정립했다. 이를 통해 국내 모델뿐만 아니라 해외 모델에도 적용할 수 있도록 범용성과 글로벌 규범 간 호환성을 확보했다는 설명이다.
임정규 과기부 정보보호네트워크정책관은 "이번 AI 보안 안내서는 고도화되는 사이버 위협 속에서 AI를 안전하게 개발·활용할 수 있도록 하는 중요한 이정표가 될 것"이라며 "AI에 대한 새로운 보안 위협을 모니터링해 반영하는 등 보안 안내서를 지속 업데이트해나갈 예정"이라고 말했다.















