|
그러나 AI의 빠른 발전은 편향성, 개인정보 보호, 일자리 대체, 안전 및 보안 위험과 같은 윤리적 문제와 남용 또는 의도치 않은 결과의 가능성과 같은 우려를 야기한다. 이러한 이유로 AI 규제는 이러한 위험을 최소화하고 AI 개발이 사회적 가치 및 윤리 원칙과 일치하도록 보장하는 데 필수적이다.
미국과 유럽연합(EU)은 AI 규제에 대해 상반된 접근방식을 취하고 있으며, 이는 글로벌 AI 기술 패권 경쟁의 중요한 변곡점이 되고 있다. 미국은 규제 완화를 통해 AI 산업 경쟁력 강화를 추구하는 반면, EU는 안전과 윤리를 우선시하는 포괄적인 규제를 통해 AI의 위험을 관리하고자 한다. 이러한 차이점에도 불구하고, 양측은 AI 산업을 성장시키면서 규제 균형을 맞추려는 공통된 목표를 가지고 있다.
트럼프 행정부는 AI 분야에서 미국의 주도권을 강화하기 위해 규제 철폐와 대규모 인프라 투자를 추진하고 있다. '스타게이트 프로젝트'를 통해 4년간 5000억 달러를 AI 인프라에 투자하는 등, AI 혁신을 위한 규제 완화에 집중하고 있다. 2025년 1월에는 AI 혁신을 우선시하는 행정 명령을 발표하여 규제 장벽을 줄이고 있다. 또한 미국 정부는 주요 기술 기업들과 AI 규제에 대한 합의를 통해 AI 산업의 새로운 전환점을 모색하고 있다.
EU는 세계 최초로 포괄적인 AI 규제법인 'AI 법'을 통해 AI 시스템의 위험 수준에 따라 차등 규제를 적용하고 있다. AI 법은 사회적 점수 시스템이나 실시간 생체 인식과 같이 용인할 수 없는 위험을 초래하는 AI 시스템을 금지하고 있으며, 고위험 AI 시스템에 대해서는 엄격한 규제 요건을 적용한다. 2025년 2월부터는 AI 시스템 운영에 필요한 요구 사항이 시행되고 있으며, 8월부터는 규정 위반에 대한 벌금 부과가 시작될 예정이다. 하지만 최근에는 프랑스를 중심으로 규제 완화에 대한 논의가 이루어지면서 정책 변화의 가능성이 보이고 있다.
미국과 EU는 AI 규제에 대해 서로 다른 비전을 제시하고 있지만, AI의 글로벌 경쟁력을 강화하려는 방향으로 나아가고 있다. G7 국가들과 함께 AI 행동 강령을 만들어 AI 정책 분야에서 협력을 모색하고 있으며, 이는 국제적인 AI 거버넌스 구축에 중요한 발걸음이 될 수 있다. 하지만 미국은 EU의 규제가 미국 IT 기업에 부담이 된다고 비판하며, 과도한 규제가 혁신적인 산업을 저해할 수 있다고 주장한다.
한편 세계 각국의 AI 규제에서는 안전과 혁신 사이의 균형을 맞추는 것이 우선 과제로 자리 잡았다. 이는 기술 발전의 혜택을 누리면서 잠재적 위험을 최소화하는 데 필수적이다. AI 규제는 윤리적 기준을 설정하고 공정한 경쟁을 장려하며, 사회적 가치와 조화를 이루는 방향으로 나아가야 한다.
AI 등 첨단 과학기술을 기반으로 하는 디지털 경제의 핵심 목표는 혁신이다. 그런데 세계적으로 혁신을 추구하는 과정에서 예상치 못했던 많은 문제가 생기지만 이를 관리하기 위한 규제는 쉽지 않다. 급속한 기술 혁신이 이루어지는 동안 언제 무엇을 혁신할 것인지, 그리고 어떻게 디지털 제품과 서비스를 시장에 내놓을 것인지 등 많은 결정은 정부보다 기술기업들의 손에 의해 이루어지기 때문이다.
혁신에 의한 경제 성장을 부인할 수 없지만, 데이터 시스템과 알고리즘의 대량 확산은 무허가 혁신의 모습으로 사회에 광범위한 해악을 미치기도 했다. 또한 정보기술(IT) 등 혁신에 초점을 맞춘 분야에 대한 규제의 어려움은 국가적 해결 과제로 떠올랐다. 이에 따라 새로운 규제기관, 즉 미국의 경우 연방거래위원회(FTC)와 같은 기관의 역할이 확대되고 있다.
AI 규제는 혁신을 저해하지 않으면서 안전을 보장하는 균형점을 찾아야 한다. 한 가지 접근 방식은 위험 기반 프레임워크를 채택하여 규제 자원을 효율적으로 할당하고 위험도가 낮은 영역에서의 혁신을 허용하는 것이다. EU의 AI 법은 AI 시스템을 위험 수준에 따라 분류하여 차등 규제를 적용하는 대표적인 예시이다. 또한 AI 규제는 기술 변화에 적응할 수 있도록 유연하고 적응성이 뛰어나야 하며, 기술 전문가, 정책 결정자, 관련 분야 학자 간의 광범위한 협력이 필요하다.
AI 규제는 기술 발전을 장려하는 동시에 윤리적, 안전 및 사회적 우려를 해결해야 하는 복잡한 과제이다. 규제가 혁신을 저해한다는 주장이 있지만, 윤리적 지침은 개발자들이 책임감 있게 혁신하도록 장려할 수 있다. 규제 샌드박스는 기업들이 규제 감독하에 통제된 환경에서 혁신적인 AI 애플리케이션을 테스트할 수 있도록 허용하며, 이는 규제 기관이 새로운 기술에 대해 배우고 기업이 책임감 있게 혁신할 수 있도록 한다. 또한 AI 기업들은 자발적인 안전 기준과 투명성 조치를 채택하여 산업 내 자체 규제를 장려하고 법률 제정 전 위험을 제한할 수 있을 것이다.
박재형 (재미 정치학자)
※본란의 칼럼은 본지 견해와 다를 수 있습니다.