알림마당

AI규제, 급물살 탄 국제 협력...“새 모델 출시 전, 위험성 검증”
2023-11-14

영국 인공지능 안전성 정상회의
미국 행정명령 발효 잇따라

내년 미대선 앞두고
딥페이크 피해 등 우려
“군수물자처럼 출시 전 철저히 검증”ᅳ

한국은 기업 경쟁력 명분
‘우선허용 사후규제’ 원칙
예측가능성 낮춰 혁신 저해

안전하고 신뢰할 수 있는 인공지능을 위한 글로벌 규제 논의가 급물살을 타기 시작했다. 지난 1일 영국에서는 역사상 첫 인공지능 안전성 정상회의가 열렸고, 이보다 이틀 앞서 미국의 바이든 대통령은 강력한 규제를 담은 행정명령에 서명했다. 주요 7개국(G7)도 인공지능 개발에 관한 ‘국제 지침’과 ‘행동 규범’에 합의해, 인공지능 규제를 위한 국제공조가 본격화하고 있다.


2015년 개봉된 영화 ’이미테이션 게임’에서 앨런 튜링(베네딕트 컴버배치 분)이 암호 해독을 하는 장면. 이 비밀 기지가 있던 블레츨리 파크 저택은 현대 컴퓨터 과학의 발상지로서 지난 1일 역사상 첫 인공지능 안전성 정상회의가 열렸다. 영상 갈무리
2015년 개봉된 영화 ’이미테이션 게임’에서 앨런 튜링(베네딕트 컴버배치 분)이 암호 해독을 하는 장면. 이 비밀 기지가 있던 블레츨리 파크 저택은 현대 컴퓨터 과학의 발상지로서 지난 1일 역사상 첫 인공지능 안전성 정상회의가 열렸다. 영상 갈무리
■ 첫 AI 안전성 정상회의

영국 블레츨리 파크 저택에서 열린 인공지능 안전성 정상회의에서는 “고도의 능력을 갖춘 인공지능에 의해 재앙에 가까운 피해가 발생할 수 있기에 포괄적 방식의 국제 협력이 필요하다”는데 합의하며 ‘블레츨리 선언’을 발표했다. 블레츨리 파크 저택은 제2차 세계대전 당시 현대 컴퓨터 과학의 아버지로 불리는 앨런 튜링의 주도하에 암호 해독이 이루어진 비밀 기지다. 컴퓨터 과학의 발상지라는 상징성이 깃든 곳에서 거대기술기업 간 인공지능 개발을 둘러싼 ‘군비경쟁’이 보다 안전하고 책임감 있는 방향으로 대전환해야 한다는 기대가 담겨있다.

이번 선언에서 특히 눈길을 끈 것은 “뜻을 같이하는 정부와 인공지능 기업들이 새로운 인공지능 모델이 출시되기 전후에 국가 안보 및 사회적 해악을 포함한 여러 위험을 테스트하는 데 협력하기로 합의”한 대목이다. 인공지능이 공개되기 전에 위험성을 검증해서 걸러내야 한다는 것으로 강력한 규제 의지가 담겨있다. 이 ‘테스트 협약’에는 구글, 오픈에이아이, 마이크로소프트, 메타 등 거대기술기업들도 동의했다.

또한 인공지능의 잠재적 위험을 파악하기 위해 '인공지능 과학현황 보고서'를 발간하기로 합의했다. 첫 번째 작성은 딥러닝의 최고 권위자인 요슈아 벤지오 캐나다 몬트리올대학 교수가 맡기로 했다. 기후위협이라는 거대한 위협에 대처하기 위해 국제사회가 기후변화에 관한 정부 간 협의체(IPCC)를 만들어 대응하는 것에서 영감을 얻은 시도로 인공지능의 위험성에 대한 과학적 근거와 정책방향을 제시하려는 조처다.

 

■ 규제 고삐 죄는 미국

 

바이든 미국 대통령도 10월 30일 행정명령에 서명해, 기업들이 국가 안보·경제·공중보건 등에 심각한 위험을 초래하는 인공지능 모델을 테스트하고 그 결과를 정부에 제출하도록 했다. 또한 딥페이크 피해를 줄이기 위해 인공지능으로 생성된 콘텐츠에 식별 장치를 삽입하는 기준을 제정하기로 했다. 백신이나 군수용품처럼 인공지능 서비스도 출시 전부터 철저히 검증해 사회에 미칠 위험성을 최소화하겠다는 의지다. “역대 가장 광범위한 인공지능 규제”라는 평가가 나올 정도로 규제의 범위와 수위가 세졌다. 기업 혁신을 명분으로 자율방임 정책을 취해온 미국도 규제의 고삐를 죄기 시작한 것이다.

 

이같은 급격한 기류변화는 내년 미국 대선을 앞두고 생성형 인공지능으로 제작된 딥페이크와 허위정보 확산이 선거에 중대한 영향을 미칠 수 있다는 우려 때문이다. 최근 공개된, 서점에서 치매 관련 책을 고르는 바이든 대통령의 딥페이크 처럼 대선 직전 허위정보가 퍼질 경우 선거 판세를 흔들 수도 있다. 이미 지난 1월, 바이든 대통령이 성 소수자를 향해 거침없이 폭언을 내뱉는 가짜 영상이 공개되어 충격을 안긴 바 있다. 바이든 대통령은 “나도 내 딥페이크를 보고 놀랐다. ‘내가 언제 저런 말을 했지’ 하고 생각했을 정도다”고 말한 것으로 전해진다. 미래 인류 문명에 발생할 재앙도 두렵지만 인공지능에 의해 당장 선거와 정치가 흔들릴 수 있다는 현실적, 실질적 위험이 기류변화의 트리거가 된 셈이다.

 

 

 

■ 사후규제에 머문 한국

 

생성형 인공지능은 여러 산업에 걸쳐 있는 범용 기술로, 예측이 어려워 사전 예방이 중요하다. 최근에는 텍스트는 물론 말이나 이미지까지 다룰 수 있는 멀티모달로 진화하면서 규제 필요성이 더욱 커지고 있다. 유럽연합은 생성형 인공지능을 별도로 규율하는 ‘인공지능법안’을 지난 6월 통과시킨 바 있다.

 

초거대 인공지능에서 세계 2~3위권으로 평가받는 한국은 어떨까? 지난 2월 국회 소위를 통과한 ‘인공지능산업 육성 및 신뢰 조성에 관한 법률(안)’은 관련 분야 7개 법안을 통합한 최초의 단일 법안으로, 인공지능 발전의 대원칙으로 ‘우선 허용, 사후 규제’ 원칙을 명문화하고 있다. 국내 거대기술기업 육성을 통해 글로벌 경쟁력을 확보해야 한다는 명분이 규제 요구를 누르고 있는 셈이다.

 

지난 7월 한국행정연구원이 발간한 ‘인공지능 규제정책과 인공지능 법안의 쟁점’ 보고서를 작성한 유승익 한동대 교수는 “인공지능은 대량의 고품질 데이터에 따라 성패가 좌우되며, 알고리즘에 의한 자동화된 의사결정이 야기하는 문제가 크다”며 “인공지능의 도입과 활용에서 인권의 문제를 포함한 법적 윤리적 문제가 중요하다”고 말했다. 이러한 이유로 “인공지능 정책은 선제적 사전적 규제방식과 친화적”이다. 한국은 향후 진행될 인공지능 안전성 정상회의 공동 주최국이기도 하다. 정부는 “인공지능과 디지털 관련 글로벌 규범 구축을 국제적으로 주도하겠다”는 의지를 밝히고 있다. 하지만 정부가 취해온 사후규제 방식은 규제에 대한 예측가능성을 떨어뜨려 오히려 혁신을 저해할 수도 있다는 지적도 나온다. 규제와 혁신은 둘 중 하나를 선택하는 문제가 아니라 합리적인 규제를 통해 더 큰 혁신으로 도약할 수 있다.

 

 

한귀영 사람과디지털연구소 연구위원 [email protected]


한겨레에서 보기 : https://www.hani.co.kr/arti/economy/it/1116005.html