AI와의 관계 설정에 고심하는 뉴스룸
주어진 명령에 따라 텍스트, 비디오, 오디오를 만드는 생성AI(Generative AI)는 뉴스룸과 경쟁 관계일 수 밖에 없다. 콘텐츠를 만드는 역할이 주된 임무라는 점에서 갈등이 없을 수 없다.
생성AI가 자신들을 훈련하기 위해 언론사의 콘텐츠를 (허락 없이) 사용할 수 있다는 점에서 미디어와 생성AI 기업 간 긴장 관계도 이어지고 있다. 언론사들은 인터넷 초기와 마찬가지로 AI로부터 정당한 권리(수익)을 받길 원한다.
주요 언론 미디어 기업들은 뉴스룸에서 AI를 어떻게 다룰 지에 대한 가이드라인을 발표하고 AI회사들과 콘텐츠 사용과 관련한 라이선스 계약에 속속 돌입하고 있다.
생성AI의 갑작스러운 등장은 언론사들에게 새로운 도전을 강요하고 있다. AI 홍수 속 대중의 신뢰를 보호해야 하는 임무와 새로운 기술을 실험하고 법적 권리를 보존하는 역할이다. 또 AI를 어떻게 활용하는 지에 대한 윤리적 선택도 미디어에게는 매우 중요한 과제로 떠올랐다.
[주요 언론사들의 AI활용]
대부분 언론 미디어들은 AI를 콘텐츠 제작에 사용하고 있다. 그러나 AI가 초기 제작을 담당하고 편집과정에서 사람이 개입하는 형태로 쓰고 있다. 또 많은 언론들이 AI의 뉴스 생산을 막고 AI 제작 그래픽이나 비디오도 엄격히 제한하는 가이드라인을 가지고 있다. 이번 기사 내용은 악시오스의 보도를 기반으로 추가 정리한 것이다.
AP(The Associated Press)-AI뉴스는 중간 생산물, 사람의 손길은 필수
AP는 2023년 8월 16일 AI사용 가이드라인을 내놨다. 뉴스 기사 제작 시 AI를 쓰는 방법과 기준에 대한 내용이다. 가이드라인에 따르면 AI툴을 이용한 모든 결과물은 (최종이 아닌) 공개되지 않은 소스 물질로 취급해야 한다.(Any output from a generative AI tool should be treated as unvetted source material) AP는 사진이나 비디오, 오디오를 변형하는데 AI를 사용하지 않을 계획이다.
그러나 뉴스 스토리와 관계가 있다면 라벨을 부착해 생성AI이미지를 발간한다. 또 보안 관계상 민감한 정보를 AI에 탑재하지 말라는 조항도 있다.
가디언(The Guardian)-작업의 퀄리티를 높일 때만 사용
영국 가디언(The Guardian)은 2023년 6월 AI를 이용해 만든 뉴스 콘텐츠는 사람의 감독하에 만들고 독자들의 알아볼 수 있도록 명확한 표식을 하겠다는 내용의 가이드라인을 공개했다.
생성 AI 제작물에 대해 서는 공통적으로 ‘흥미롭지만 신뢰할 수 없다(exciting but unreliable)’라고 표시할 예정이다. 가디언은 AI를 사용할 때 작업의 퀄터리를 높이는데 집중하겠다고 밝혔다.
신뢰하기 어려운 팩트를 만드는데 AI를 쓰지 않고 퀄러티를 향상시키는데만 쓰겠다는 이야기다. 예를 들어 기자들이 엄청난 양의 데이터를 분석하거나 마케팅 캠페인 아이디어를 만들고 시간이 많이 투입되는 업무에 AI를 쓰겠다는 전략이다.
인사이더(Insider)-챗GPT는 기자가 아니다
독일 기반 경제 미디어 인사이더는 2023년 4월 AI를 뉴스룸에서 사용하는 실험을 하겠다고 기자들에게 공개했다. 그러나 챗GPT는 기자가 아니라는 것을 명확히 했다.
인사이더는 기자 및 직원들에게 “당신은 모든 스토리에 쓰이는 단어에 정확성, 명확성, 원본, 품질을 담아야 한다”고 강조했다. 4월부터 인사이더는 AI가 쓰는 텍스트 기사를 실험하고 있다.
또 인사이더는 스토리 아웃라인을 만들거나 오타를 줄이고, 검색을 위한 최적화된 제목 생성, 인터뷰 질문 작성 등에 AI를 실험하고 있다. 아울러 민감한 이슈를 걸러내는 실험도 하고 있다.
로이터(Reuter)-AI 윤리 원칙 수립(AI Ethics Principles)
로이터는 AI기사 생산에서 신뢰도와 책임에 집중하는 AI원칙을 세웠다. 그렇지만 기술 발전에 따른 유연성도 뉴스룸에 반영하기로 했다. AI를 이용한 여러 실험을 하겠다는 이야기다.
또 AI가 생산하는 콘텐츠의 경우 인간의 체크 과정을 추가하기로 했다. AI 뉴스 생산과 데이터 개발 시 쓰이는 데이터의 경우 보안과 개인 정보 보호에 집중하기로 했다.
뉴스코퍼레이션(News Corp)-AI와의 대가 산정에 집중
뉴스 코퍼레이션의 CEO 로버트 톰슨(Robert Thomson)은 2023년 2분기 실적 발표에서 투자자들에게 회사가 IP관리와 우리의 개별 콘텐츠 가치 수립을 위해 협상을 진행 중이라며 IP가 AI의 미래에 결정적 역할을 할 것이라고 말했다.
이외 미디어들의 연대
빅테크가 주도하는 AI 알고리즘에 대응하기 위해 연대하는 언론 미디어 회사들도있다. 서로 연대해 AI트레이닝에 자신들의 콘텐츠가 무단으로 쓰는 것을 막기 위해서다.
미디어 거물 밸리 딜러(Barry Diller)가 이끄는 미디어 IAC는 기술 회사들이 미디어 기업에 정당한 댓가를 지불할 수 있도록 촉구하는 언론 연대를 구축하고 있다. 진보와 보수 미디어가 나눠져 있어 공동 이익을 추구하는 것은 쉽지 않지만, 기술과 싸우는 전선에는 힘을 합칠 수 있다.
딜러와 IAC CEO 조이 레빈(Joey Levin)은 악셀 스프링거(Axel Springer)와 뉴스 코퍼레이션(New Corp) 등 다양한 미디어들과 연대를 추진하고 있다. 미디어 AI연합은 뉴욕타임스도 언제가 복귀할 것이라고 보고 있다.
동시에 언론사들은 콘텐츠 제작 효율화와 관련 AI개발사들과 다양한 실험을 하고 있다. AI를 빼고는 콘텐츠 시장을 이해하기 어렵기 때문이다. AI는 2023년 7월 메이저 언론사 중 처음으로 오픈AI(OpenAI)와 AI모델 훈련 시 AP콘텐츠를 쓸 수 있도록 하는 계약을 체결했다.
오픈AI는 1985년 이후 AP기사를 인공지능 훈련에 사용할 수 있게 됐다.
그러나 동시에 오픈AI는 향후 2년 동안 AP가 AI를 이용해 새로운 뉴스 콘텐츠를 만드는 기술을 개발하는 도움을 주기로 했다. 언론에서의 첫 협업인 만큼 오픈AI와 AP의 협업은 다른 뉴스 미디어들에게도 큰 영향을 줄 것으로 보인다.
[AI 사용에 대한 현재 합의는 ‘공개’]
동시에 AI와 뉴스룸 간 갈등도 이어지고 있다. NPR은 뉴욕타임스가 오픈AI를 상대로 한 소송을 검토하고 있다고 보도했다. 오픈AI의 챗GPT가 사용 허락 없이 뉴욕타임스의 기사를 수집해 훈련에 사용했다는 이유다.
이후 뉴욕타임스는 2023년 8월 사용자 약관(terms of service)을 업데이트해 AI 시스템을 이용해 머신러닝이나 AI를 훈련 시키는 것을 원천적으로 금지했다.
뉴욕타임스 CEO 메러디스 코빗 레비엔(Meredith Kopit Levien)은 2023년 6월 칸 라이언 페스티벌에 참석해 “테크 회사들은 신문이 생산한 방대한 결과물을 이용하기 위해서는 정당한 대가를 지급해야 한다”고 말했다.
당시 레비엔 CEO는‘권리 보호(protecting our rights)’의 중요성을 언급하며 AI시대 콘텐츠 가치를 인정 받기 위해 최선을 다할 것’이라고 강조했다.
이렇듯, AI사용 범위와 기준을 둘러싸고 언론사들의 입장은 아직 다양하다. 그러나 지금까지 공통적으로 논의되는 내용은 공표다. AI를 사용해 작성된 결과물에 대해선 ‘AI마크’를 탑재하는 것이다. 또 기사나 콘텐츠 작성에 AI가 쓰였다는 것을 명확히 밝힌 필요가 있다.
AI 기사를 작성했다가 이를 제대로 공개하지 않아 낭패를 본 언론도 있다.
시넷(CNET)은 올해(2023년) 초 AI가 만든 기사를 검증과 표식 없이 게재했다가 큰 곤혹을 치뤘다. 오류가 담긴 상태로 텍스트가 게재 된 것이다. AI 사용 공개는 언론사의 신뢰도와도 연관이 있다.
AI시대 독자들의 신뢰를 유지하고 회복하는 것은 공통 미션이다. 의견과 팩트 사이에 명확한 경계를 만들고 AI 작성의 경계를 정하는 노력은 가이드라인 만큼 중요하다는 것이 미디어들의 생각이다.