현장 ‘책임 공백’ 우려 확산
‘AI-인간 협력’ 필요성 커져
|
15일 정부 등에 따르면 보건복지부가 추진하고 있는 복지 행정 AI 도입과 관련해 데이터 관리에 대한 우려가 지속되고 있다. 복지 데이터의 경우 소득, 건강, 가족관계 등 민감한 정보가 결합된 형태로 활용되는데, 이 정보들을 AI가 어디까지 관여할 수 있으며, 잘못된 판단으로 인한 책임은 누가 지는가에 대한 명확한 기준이 없기 때문이다. 현재 구조에서는 AI는 참고 도구로 활용되지만 실제 행정 판단과 결과 책임은 공무원에게 남아있게 된다.
최근 복지부는 한국사회보장정보원과 복지행정 전 단계에 AI를 적용하는 계획을 공개했다. 민원 응대와 서류 접수를 지원하는 'AI 안내도우미', 급여 적정성 판단을 사전 검토하는 '업무지원 AI'를 도입해 반복 업무를 줄이고 현장 공무원이 사례관리에 집중하도록 하겠다는 구상이다. 동시에 고독사·고립 대응을 위한 AI 심리케어 등 총 7개 과제를 선정했다. 이밖에 AI로 정신건강도 챙길 예정이다. 정부는 '제3차 정신건강 복지 기본계획(2026~2030)'을 통해 온라인 자살 유발 정보를 24시간 모니터링하고, 상담 데이터 분석을 통해 위기 신호를 조기에 탐지하는 체계를 구축하기로 했다.
그럼에도 복지행정의 핵심 기반인 데이터 관리에 대한 우려는 가라앉지 않고 있다. 정부도 이런 상황을 해결하기 위해 보안특별위원회를 신설했지만 이는 거버넌스 구조 개편일 뿐, 복지 현장에서 당장 작동할 개인정보 보호 기준이나 알고리즘 오류 시 책임 귀속 규정이 아니라는 문제를 안고 있다.
현장에서는 기술 적용 방식에 따른 구조적 한계를 제기된다. 최병호 고려대 휴먼 인스파이어드 AI연구원 연구교수는 "행정 시스템은 폐쇄망이라 유출 위험이 크지 않지만, 요즘은 성능 때문에 클라우드 모델을 같이 쓰다 보니 문제가 생기고 있다"며 "공무원이 입력한 민감 정보가 그대로 외부로 넘어갈 수 있다는 게 가장 큰 리스크"라고 말했다.
이어 "데이터를 변환하거나 암호화해서 보내는 기술도 논의되고 있지만 완벽하게 막으려면 시간이 걸리고 검증도 필요하다"며 "최근에는 기존 보안 체계를 우회하는 공격 방식까지 나오면서 상황이 더 복잡해졌다"고 덧붙였다.그러면서 "AI 도입은 효율성 때문에 불가피한데, 결국 보안을 어떻게 관리할 거냐가 가장 어려운 문제"라고 강조했다.










