챗GPT를 품는 기업, 외면하는 법률

.
.


미국 모든 사이즈 테크 기업들은 최근 자신들의 제품에 AI를 적용시키기 위해 서두르고 있다. 인간처럼 말하고 친구처럼 대화하는 생성형AI(Generative)가 테크 비즈니스를 장악하고 있기 때문이다. 챗GPT 등 생성형 AI는 놀랄만한 수준의 기술과 함께 눈에 띄는 단점 모두 갖췄다.

챗GPT(ChatGPT) 등 생성형 AI는 모든 영역에 적용되고 있다. 스타트업 피칭에서부터 소매와 고객을 위한 마케팅 챗봇, 고객 서비스까지 적용 범위는 매우 다양하다. 특히, 챗GPT와 같은 기술들과 달E2(Dall-E 2)나 스테이블 디뷰즌(Stable Diffusion)와 같은 이미지 생성기는 엔터테인먼트 산업을 넘어 사람들의 상상력까지 사로 잡고 있다.

[챗GPT를 적극적으로 받아들이는 테크 기업들]

마이크로소프트는 오픈AI의 챗GPT의 가장 강력한 우군이다. 검색엔진 빙(Bing)과 검색 브라우저 엣지에 챗GPT를 통합할 계획을 밝히고 있다. MS는 윈도우 11 등 OS에도 AI를 접목시키겠다고 공개했다. 검색에 AI가 통합되면 기존 검색의 경계를 무너뜨릴 가능성이 있다. 유수프 메흐디 마이크로소프트(MS) 임원은 2023년 2월 22일 악시오스와 인터뷰에서 "현재 검색 엔진을 통한 100억 건의 질문 중 절반이 답이 없거나 적어도 좋은 답변이 아니다”라고 말했다.

AI의 검색 엔진 포함과 관련 마이크로소프트는 2023년 2월 7일(미국 시간) 상세한 내용을 내놨다. 마이크로소프트는 챗GPT를 검색용으로 변환했고 내부적으로는 AI툴을 빙의 검색 결과를 개선하는데 사용하고 있다. AI를 탑재한 빙은 검색(Search)와 대화(chat)으로 원하는 정보를 얻을 수 있다. 대화는 챗GPT가 탑재된 생성AI가 질문에 답을 한다. 엣지 브라우저 역시, 웹 페이지 요약과 작문 어시스턴트를 지원한다.

챗GPT의 검색 시장 진출은 ‘구글 제국’을 위협할 수 있다. 구글의 검색 비즈니스는 질문에 답을 제공하고 다양한 링크를 제시하면서 크게 성장했다. 구글은 시스템 구축에 상당한 돈이 들었지만 유료 검색 광고로 세상을 제패했다.

AI가 검색 시장에 들어온다는 이야기는 사용자들의 행태가 검색이 아니라 대화로 전환된다는 의미다.

생성형AI의 등장은 마이크로소프트에게 분명한 기회다. 이번이야 말로 구글을 이길 수 있는 절호의 찬스인 셈이다. 마히디 부사장은 악시오스와의 인터뷰에서 “우리는 보다 더 혁신적으로 파괴적인 비즈니스를 구축할 수 있다”고 강조했다.

하지만,  AI 대화 시스템을 개발하고 유지하기 위해서는 상당한 자금이 투입된다. 마이크로소프트의 기업 부사장이자 소비자 최고 마케팅 책임자 메흐디(Mehdi)는 “인공지능을 사용, 어떤 종류 질문에 대답하는지 선택함으로써 비용을 어느 정도 통제할 것”이라고 답했다.  오픈AI 역시 월 20달러의 AI챗봇을 유료화를 시도하고 있다.

챗GPT와 다르게, 마이크로소프트는 답과 함께 인용문(citations)을 제공한다. 사용자들이 AI가 작성한 답변이 정확한지를 팩트 채킹할 수 있는 기능이다. 신뢰할만한 기사나 자료를 보유한 언론사들이 선호할 수 있다. 메흐디와 마이크로소프트는 또한 챗GPT에 비해 보다 신뢰할 수 있는 답을 만들기 위해 빙의 막대한 웹 지식을 사용하고 있다. 챗GPT가 가장 가까운 기간에 짧은 형태의 답을 주로 제공하고 오류 가능성도 높다.

메타(Meta)

메타는 과거 AI에 많은 투자를 했고 실험을 해왔다.

그러나 마이크로소프트, 구글에 비해서는 AI기술을 제품이 투입하는데 소극적이었다. AI기술이 세상을 장악하고 있는 지금, 더 이상 2선에 머무르지 못할 것으로 보인다.

결국 메타는 2023년 2월 생성형 AI시장 진출을 밝히고 신규 조직 구성도 밝혔다. 페이스북과 인스타그램 등 메타의 소셜 미디어 서비스에 AI 등 기술을 적용시키는 것을 주력으로 하는 조직이다.

이 조직은 VR과 메타버스도 담당한다. 또 대규모 언어 모델(large language models, LLaMA)을 기반으로 하는 AI 기술을 오픈 소스로 공개하겠다고도 밝혔다.

마크 저커버그 AI 관련 투자 의지

저커버그 CEO는  2023년 2월 27일 페이스북을 통해 “우리는 AI영역에서 우리의 작업을 가속화할 수 있는 생성형 AI기술을 개발하는 최고의 팀을 구성했다”며 “단기적으로 우리는 창의적이고 빠른 툴을 개발하는데 집중할 것이다. 장기전에 있어서 우리는 인간을 다양한 방식으로 도울 수 있는 AI 인격체(AI personas)를 만드는 것이 목표”라고 설명했다.

이어 저커버그는 “우리는 텍스트(왓츠앱과 메신저 채팅), 이미지(인스그램 필터, 광고 포맷), 비디오, 멀티 모드 경험을 통해 새로운 경험을 실험 중”이라고 덧붙였다.

메타는 AI의 협업 생태계를 고려 중이다. 메타 연구자들이 만들어낸 언어나 이미지들이 메타버스 뿐만 아니라 인스타그램이나 페이스북 제품에서 보다 적용될 수 있는데 집중할 계획이다. 또 메타는 이 제품팀을 넘어 다양한 형태 AI 제품을 만드는 장기 업무에 투입할 연구진을 계속 고용할 예정이다. 대학교 연구진과도 협업해 학술 논문 등을 내외부에 공유할 계획이다.

구글은 마이크로소프트가 오픈AI에 대한 투자를 강화에 앞선 2023년 2월 6일 자체 대량 언어 모델, 생성형AI 바드(Bard)를 공개했다.  바드는 정확히 챗GPT의 대항 모델이다. 구글 역시 검색 엔진에 바드를 적용시킬 계획이다.

스냅(Snap)

동영상 공유 소셜 미디어 스냅챗(Snapchat)도 2023년 2월 27일 자체 AI 실험 챗봇 ‘마이 AI(My AI)’를 공개했다. 스냅챗 구독 모델 스냅챗+를 3.99달러(월)에 구독하는 250만 명(2023년 2월 현재) 사용자들을 위한 서비스다. 소소한 질문에 답하고 하이쿠를 쓰며 여행 계획을 짜주는 등의 역할을 한다.

스냅은 블로그 포스트에서 현재는 상당히 부족한 부분이 많아 미리 죄송하게 생각한다”며 “MY AI의 모든 대화는 저장되어 향후 프로그램 성능 업그레이드를 위해 사용된다”고 설명했다. 중소 기업 사이에서도 AI열풍이다. 기업 여행 전문 업체 트립액션스(TripActions)는 나반(Navan)이라고 사명을 바꾸며 AI 이용용 여행 예약과 비용 지출을 점검하는 시스템을 도입하겠다고 밝혔다.

[AI는 이제 흥미를 넘어 수익으로]

흥미를 넘어 비즈니스 수익은 다른 문제다. 구글이나 빙과 같은 검색 엔진 역시, 과거 광고처럼 생성형 AI의 수익이 필요하다. 지속 가능한 비즈니스가 되기 위해서라면 더욱 그렇다. 지금까지 이야기되는 수익 모델은 구독(챗GPT)이나 종량제 혹은 Saas 방식으로 프로그램 사용료를 받는 것이다. 물론 더 다양해 질 수 있다. 마이크로소프트는 오픈AI와의 거래 일환으로, 오픈AI 기술을 자사의 아즈라 클라우드 서비스와 함께 제공하는 번들링과 재판매 모델도 도입했다. 또 기업 파트너십도 수익 사업으로 고려할 수 있다.

오픈AI와 베인앤 컴퍼니는 2023년 2월 챗GPT의 기업 적용 확대를 위한 파트너십을 맺었다.  양사는 고객사를 위한 차세대 고객 센터  마케팅 캠페 개발 실험을 계획하고 있다.  기업 협업 솔루션 노션(Notion)은 최근 월 10달러 AI적용 버전을 내놨다. 노션 AI는 자동 요약, 완성, 브리핑을 해준다.

수익 모델이나 초기 버그가 해결됐다고 해도 법적 문제는 여전하다. 저작권 침해 논란은 가장 이슈다. AI가 기본적으로 저작권이 있는 콘텐츠를 기반으로 학습을 통해 새로운 창작물을 만들어내는 형태이기 때문이다. 또 AI가 만든 콘텐츠의 저작권 누구에게 있는 지와 AI가 명예훼손이나 문제가 있는 작품을 만들어냈을때 누구에게 책임지 있는 지도 관건이다.

[챗GPT를 받아들이지 못하는 법률]

AI에 특화된 법률 체계는 아직 정립되지 않았다. 유럽은 AI와 관련한 법안 초안을 작업 중이다. 때문에 지금은 AI를 둘러싸고 발생하는 다양한 이슈들이 현행 법률에 의해 다뤄질 수 밖에 없다. 미국 백악관은 AI를 연구하는 AI리서치 오피스를 설치하고 2022년 10월 ‘AI권리 장전(AI Bill of Rights)’을 발표한 바 있다.

AI 저작권과 보상 논란은 매우 뜨거운 감자다.

‘AI개발자들이 트레이닝 데이터에 저작권료를 내야 하는가’, 즉 트레이닝 과정이 이른바 공적 이용(Fair Use)에 해당하느냐 아니냐 여부는 가장 큰 화두다. 이미지 저장 공유 플랫폼 게티 이미지(Getty image)는 오픈 소스 AI이미지 생성기 스테블 디퓨즌(Stable Diffusion)을 고소했다. 디퓨즌이 자신들의 저작권 이미지 120만 개를 허락 없이 무단으로 사용했다는 주장이다.

언론사들도 AI를 경계하고 있다. CNN과 월스트리트저널은 오픈 AI의 챗GPT가 만든 텍스트들이 자신들의 기사의 저작권을 침했다고 주장해 법적 대응에 나섰다. 이들 언론사는 오픈AI가 기사 콘텐츠 사용료를 내야 한다는 입장이다. 더 나아가 언론사들은 챗GPT가 자신들의 일자리를 뺏어 갈까봐 우려하고 있다. 또 잘못된 정보를 양산해 오남용정보가 확산될 것이라는 우려도 있다. 씨넷이나 멘스 저널은 이미 AI가 쓴 기사의 많은 오류를 인정하고 대거 수정해야 했다.

AI가 만든 작품이 오픈 소스 라이선스를 위반하는지도 정립되지 않았다. 코딩하는 AI 코파일럿(CoPilot)를 소송한 깃허브(GitHub)는 자신들의 오픈 소스를 이 회사가 위반했다고 주장했다. 코파일럿은 마이크로소프트와 오픈 AI가 공동으로 설립한 회사다.

요즘 많은 생성형 AI 엔진은 하나의 특정 작품이나 식별 가능한 여러 개의 코드, 글, 이미지를 베끼는 경향도 있다. 이 경우 저작권 침해 요소가 다분하다. 그러나 생성형 AI의 작품이 저작권을 가지는 지는 논란이다.

기계가 만든 작품은 기본적으로 저작권을 가질 수 없다.

하지만, 인간과 AI의 공동 작품으로  탄생한 작품의 권리 관계는 불투명하다. AI툴을 쓰지만 기본적으로 인간이 개입한 작품인 만큼 저작권을 인정해야 한다는 주장도 많다.   로이터는 미국 저작권국(The US Copyright Office)는 2023년 2월 AI 이미지 엔진 미드저니(Midjouney)에서 만들어져 만화에 사용된 이미지들이 저작권 보호를 받지 못한다고 판결했다고 보도했다.

AI가 명예를 훼손하거나  누군가를 비방하는 문제도 발생할 수 있다.

AI 시스템은 사람이 아니다. 이에 누군가를 비방하거나 명예를 훼손할 수 없다. 그러나 AI를 이용하는 크리에이터들은 잠재적으로 명예훼손 범죄를 저지를 수 있다.  일부 법률 전문가들에 따르면 AI로 인한 명예훼손이 발생하면 창작자가 책임질 수 있다. 또 조작하는 사람에 따라 AI는 다른 결론을 도출하기 때문에 문제를 표준화하기도 어렵다. 전통적인 앱이나 웹사이트와는 달리, 생성형 AI시스템은 매번 완전히 다른 결과를 도출할 수도 있다.

플랫폼 면책 조항 섹션230 적용?

법원은 통신품위유지법(DCA) 내 플랫폼 면책 조항인 ‘섹션230’에 대해서도 결론을 내야 한다. 인터넷 시대에 만들어진 섹션 230은 플랫폼 내에 유통되는 콘텐츠가 문제가 있더라도, 플랫폼이 이를 방지하기 위한 시스템을 갖췄다면 ‘콘텐츠로 인한 처벌에서 면제’되는 조항이다. AI시스템의 경우에도 섹션 203을 적용해야 한다는 주장도 있다.

여기서의 관건은 AI 시스템을 정보나 콘텐츠 제공자(information content provider)로 봐야 하는지 여부다. 미국 닐 고르수치 연방대법관(Supreme Court Justice)은 챗GPT가 만든 콘텐츠를 섹션230이 보호할 것인지에 대해 회의적인 견해를 보이기도 했다.

AI시스템이 개인 정보를 왜곡하고 위험한 가짜 뉴스를 양산할 때 누가 책임을 지는 지도 화두가 될 수 있다. 마이크로소프트나 구글, 오픈AI와 같은 AI 기업들은 생성형 AI 프로그램의 정확도를 개선시키기 위해 많은 노력을 하고 세부 사항도 상세히 공개했다. 또 고객들에게 AI엔진이 왜곡되거나 잘못된 정보를 제공할 수도 있다는 경고도 하고 있다. 개인 정보는 생성형 AI엔진에 의해 노출될 수도 있다.

AI의 발전 속도가 빨라지는 만큼 의회나 법원의 중요성도 커질 수 밖에 없다.  법원은 기존 법을 적용하려고 할 수 밖에 없지만 AI 특성을 보다 더 잘 반영한 법을 만들고 시행하라는 압력이 거세질 수 밖에 없다.

한편, 방송인 존 올리버는 ‘ Artificial Intelligence: Last Week Tonight with John Oliver에서   “현재 AI의 문제는 똑똑하지 않다는 것이 아니다. 우리가 항상 예측할 수 없는 방식으로 멍청하는 것이 문제”라고 지적했다.

Newsletter
디지털 시대, 새로운 정보를 받아보세요!
작가와 대화를 시작하세요
인사이트 Store