유럽, AI 훈련에 사용된 저작권 리스트 공개 요구
생성형AI의 확산세가 사그라들지 않는 가운데 세계 각국이 정부 통제 밖에서 빅브러더가 될 수 있는 AI를 규제하고 나섰다.
로이터 등에 따르면 유럽연합(The European Union)은 연내(2023년) 세계에서 첫 번째로 인공지능(AI)에 대한 포괄적인 규제 법안을 제정하는 지역이 될 것으로 보인다.
EU의 규제 기관(European Commissioner for Competition) 최고 책임자인 마르그레테 베스타저(Margrethe Vestager)는 현지 언론에 4월 30일 이 같은 내용을 밝혔다.
보도에 따르면 유럽 의회 의원들은 2023년 4월 27일, 오는 5월 11일 위원회 투표로 EU의 AI 법 초안을 통과시키는데 합의한 것으로 알려졌다. 유럽 의회는 법으로 제정되기 전 EU 회원국 및 유럽 위원회와 법안의 최종 세부 사항을 논의할 예정이다.
[유럽 생성형AI에 등급 부여, 저작권 공개 요구]
27일 논의된 초안에는 챗GPT와 같은 생성형AI툴을 유럽에 서비스하기 원하는 기업들은 반드시 시스템 개발에 쓰인 작품 중 저작권이 있는 작품 리스트를 모두 공개해야 한다.
AI툴은 위험 수준에 등급이 매겨진다. 제한적인 능력을 가진 최소 AI에서부터 고도의 지능이나 수용할 수 없는 능력이 탑재한 솔루션까지 ‘AI가 할수 있는 능력 별로’ 분류될 예정이다.
EU가 우려하는 AI의 부작용은 생체 인식 감시, 오남용 정보 유통, 차별적 언어 등의 포함이다. 이런 부작용들은 엄격히 규제될 것으로 보인다. 특히, 고위험 AI를 사용하지 못하기 하기 보단, 그들의 적용과 사용에 모든 정보를 완전히 투명하게 공개하라는 조건이 붙을 것으로 예상된다.
저작권 보유 작품 공개 조항으로 챗GPT와 이미지 생성 미드저니(Midjourney) 등 생성형AI의 유럽 내 시장 확대가 상당한 제약을 받을 것으로 보인다.
시스템 개발에 사용되는 저작권이 있는 자료가 공개될 경우 저작권 보상 이슈가 쟁점으로 부상할 수 밖에 없기 때문이다. 워싱턴포스트가 구글의 생성형AI 개발에 사용되는 Google’s C4 data set을 분석한 결과 이 대량 언어모델(large language models)은 영어만 약 1,500만 개의 웹사이트를 참조하는 것으로 알려졌다.
하지만, 당초 생성형AI를 완전 금지해야 한다는 주장도 있었던 만큼, 어느 정도의 타협에 성공했다는 평도 있다. ‘저작권 공개 조항’은 가장 최근 추가된 것으로 알려졌다. 일부 위원회 멤버들은 처음에는 AI를 훈련시킬 때 저작권이 있는 작품의 사용을 금지하겠다고 했다가 나중에 ‘투명성 조항’을 넣는 것을 전제로 후퇴한 것으로 전해졌다.
유럽 의회 부대표 스벤자 한(Svenja Hahn)은 언론 인터뷰에서 “좌파 진영에서 AI에 대한 더 많은 규제와 제재가 있어야 한다”며 “하지만, 의회는 AI를 규제하는 동시에 시민의 권리와 혁신을 촉진하고 경제를 활성화시킬 수 있는 타합안을 찾았다”고 말했다. 이에 대해 맥쿼리의 애널리스트는 로이터와의 인터뷰에서 “EU의 접근은 일부가 주장했던 우선 금지의 접근법이 아니어서 매력적”이라고 설명했다.
오픈AI가 지난 2022년 11월 생성형AI 챗GPT를 공개한 이후 전세계는 놀라움과 걱정에 빠졌다. 챗GPT는 당시,불과 몇 주만에 월간 활성 이용자(MAU)가 1억 명을 넘을 정도로 선풍적인 인기를 끌었다.
규제 기관들의 우려도 인기와 함께 상승했다. 일론 머스크 등 일부 전문가들은 비영리단체(Future of Life Institute)와 연대해 AI개발을 (규제가 만들어질) 6개월 정도 중단해야 한다고 주장하기도 했다. 이들은 유럽 의회에도 서한을 보내 AI를 규제해달라고 요청했다. 하지만 머스크는 이 문서에 사인한 뒤 자신의 AI 회사를 런칭할 것이라고 밝히기도 했다.
베스타저 위원장은 일본 다카사키에서 4월 30일 주요 7개국(G7) 디지털 장관 회의 후 기자회견에서 “EU AI 법안은 급 부상하는 새로운 기술로 부터 사회적 피해 위험을 완화시키기 위한 친혁신”이라고 말했다.
베스타저는 “전세계 규제 기관들은 견제 없이 급부상하고 있는 AI기술의 혁신을 막지 않고 위험을 최소하는 가드레일(guardrails)을 만들기 위해 노력하고 있다”며 “이는 AI에 의한 잘못 사용으로 인해 투입되는 사회적 비용은 AI의 사용보다 훨씬 더 많이 들고 사회에 주는 손상도 클 것이기 때문”이라고 덧붙였다.
[전망, 중요한 것은 미국]
EU의 AI법안이 올해 통과되더라도, 실제 이 법이 실행되려면 몇 년이 걸릴 수도 있다. 그러나 베스타저 위원장은 법안의 존재만으로도 기업들이 새로운 법안의 의미를 고려하기 시작할 것이라고 주장했다. 기업들이 이 법안 실행에 앞서 ‘자체 규제’를 만들 수 있다고 말했다.
그녀는 “AI가 전 영역에 광범위하게 적용되고 있기 때문에 필요한 논의들을 가속시키기 위해 법안이 통과되기를 주저하고 기대릴 필요가 없다”고 주장했다.
유럽 위원회와 유럽 의회는 AI에 대한 규제 초안인 ‘AI 법안(Artificial Intelligence Act)’을 2021년 만들었다. 그러나 이 법안은 현재 안에 완전히 뒤집힌 것으로 알려졌다. 생성형AI의 적용 범위가 매우 넓고 사실상 인간처럼 대화하는 AI에 대한 더 강력한 가이드라인이 필요했기 때문이다.이전 규제안이 챗GPT가 나오기전인 2021년에 만들어졌기 때문에 개인 정보 악용, 얼굴 도용 등 단순한 AI범죄에만 초점이 맞춰졌다.
EU와 함께 미국도 연방표준위원회와 FTC를 중심으로 AI 규제안을 검토 중이다.미국 상무부는 2023년 4월 11일(화 미국시간)는 ‘진화하는 AI시스템 어떻게 규제(감사)할지에 대해 여론을 들어보기로 했다고 밝혔다.
미국 상무부 알란 데이비슨(Alan Davidson) 상무부 차관보는 피츠버그 대학(University of Pittsburgh) 강의에서 감사 프로세스(auditing process)와 관련한 계획을 밝혔다. 감사 시스템이란 지금 AI가 편향되어 있는지 또 의사소통을 왜곡해 잘못된 정보나 허위 정보를 퍼뜨릴 수 있는지를 평가하는 시스템이다.
미국 연방공정거래위원회(The Federal Trade Commission) 역시 생성형AI가 만들어 낼 수 있는 범죄 가능성을 조사하고 있다. 위원회는 2023년 2월 블로그에서 AI 기반 기술과 관련해 기만적인 진술을 하고 있는 기업들을 조사하고 있다고 말했다. 샘 레빈(Sam Levine) FTC소비자 보호 국장은 “AI가 사기 범죄를 악화시킬 수 있는 가능성이 있다”며 “생성형 AI의 발전은 많은 새로운 위기를 가져다주고 있다”고 전했다.
그러나 아직은 AI를 규제할 적절한 방법이나 어떤 기관이 이를 맡아야 할 지에 대한 방안이 나오지는 않은 상태다. 미국에서는 NIST에 AI 규제 기구로 부상하고 있다.
미국 연방 연구소 국립 표준 기술 연구소(National Institute of Standards and Technology, NIST)는 최신 기술에 대한 국가 표준을 개발하는 기관이다. 2022년10월 미국에서 유일한 AI에 대한 정부 가이드라인 AI 규제 초안을 내놓기도 했다. 이 연구소는 AI 책임감 있게 사용하는 방법에 대한 정부 프레임워크(framework)를 개발에 착수한 상태다. 하지만, 현재까지는 AI의 발전 속도가 각국 정부들의 규제 움직임에 비해 빠르게 진행되고 있다. 구글이나 마이크로소프트 등 빅테크들의 정부 대상 로비도 강해지고 있는 상황이다.
[시민단체들도 AI규제 압박]
미국 싱크탱크들도 백악관을 압박하고 있다. 2022년 10월 만든 ‘AI 규제 초안(Blueprint for an AI Bill of Rights)에 실행 가능한 행정 조치를 포함하라는 주장이다. 2022년 10월 공개된 AI규제 초안은 알고리즘 차별 방지와 데이터 보호까지 테크놀로지를 적용할 때 반드시 만들어야 하는 국가의 기본 원칙을 제시한다. 그러나 이 자료는 강제성이 없으며 AI가 계속 확장되어도 규제할 권한이 없다.
미국의 대표적인 정치 이익단체인 센터 오브 아메리칸 프로그레스(The Center for American Progress, CAP)는 백악관에 AI 규제를 위한 행정 명령을 내려달라고 요청했다.
요청 사항에는 AI와 관련 백악관 내 위원회를 만들고 모든 AI 규제에 대한 권한과 정부 역할을 NIST의 ‘AI 리스트 매니지먼트 프레임워크(NIST’s AI Risk Management Framework)로 모아달라고 요청했다. 또 연방 기관 또는 거래 기관이 발표한 모든 AI 도구도 NIST의 AI 위험 관리 프레임워크에 따라 평가하도록 요구했다. 아울러 실업률 등 AI로 인해 발생할 수 있는 경제적 영향을 해결하기 위한 국가 차원의 계획을 준비해달라고 주문했다.
AI 권리 장전(AI Bill of Right)의 초안은 알론드라 넬슨(Alondra Nelson) 전 백악관 과학 기술 정책 보좌관( former acting director of the White House Office of Science and Technology Policy) 대행이 이끌었다.
현재 그녀는 CAP의 석좌 선임 연구원(distinguished senior fellow)으로 일하고 있으며 그녀 역시 최근 글에서 AI권리장전 실행을 위한 행정 명령을 요구했다.
넬슨은 사이트에 쓴 4월 11일 포스트에서 “AI발전의 엄청나게 빠른 속도는 새로운 기술을 사회에 이익이 되는 길로 이끌 수 있는 방법이 어떤 것도 없다는 것을 의미하지 않는다”라며 빠른 시기 내에 미국 의회와 정부가 움직여야 한다고 주문했다.
그녀가 쓴 글의 제목은 AI가 빠르게 발전하고 있다. 정책 입안자들은 행동할 기회를 낭비할 수 없다AI is Having a Moment—and Policymakers Cannot Squander the Opportunity to Act)였다.
아담 코너 CAP 기술 정책 부대표(vice president for technology policy)는 악시오스와의 인터뷰에서 “새로운 AI 행정 명령의 진정한 힘 중 하나는 미국 정부가 AI를 사용해 가치를 구현하고 사는 방법을 선택할 수 있다는 것”이라고 말했다.
그러나 AI규제의 마지막 단계는 의회의 행동일 수 밖에 없다. CAP는 미 의원들을 관련 입력 뿐만 아니라 행정부가 자신들이 이미 가지고 있는 권한을 행사도록 의회가 압박하도록 독려할 계획이다.
사실 기본 발의된 법 중 AI 관련 규제가 포함된 법안도 있다.
미국인 데이터 보안과 보호 법안(The American Data Privacy and Protection Act)에는 AI언어를 규제 대상에 포함하고 관련한 가드레일(guardrails)을 만들 수 있는 조항이 담겨져 있다.
2022년 하반기 발의된 미국인 데이터 보안과 보호 법안(the American Data Privacy and Protection Act)’은 10대 인터넷 사용자들을 보호하는 것이 골자이며 미성년자를 대상으로 한 타깃 광고를 금지하는 내용을 담고 있다. 물론 이 법안을 AI 규제에 적용하려면 일부 조항 개정이 필요할 수도 있다.