이제는 AI 검색이다(It's AI search now)
As OpenAI, Microsoft, and others enter the traditional search market with AI search engines, negotiations between news organizations and these AI companies are heating up. This is because they need news content to answer real-time queries.
AI search companies are exploring deals to pay news media to use their content. In particular, AI search engine startups such as Perplexity are making efforts to coexist with news media by introducing new 'revenue sharing models' or 'advertising models'.
Negotiations between the tech industry and news media around generative AI have traditionally focused on providing data for training large-scale language models (LLMs).
But now, the conversation is shifting to addressing specific use cases. It's more detailed. LLMs study massive texts of almost any kind. But to accurately answer questions about current events, they need access to a smaller pool of information that is verified in real time. This gives news organizations a greater say in the negotiations.
오픈AI, 마이크로소프트들이 AI검색 엔진을 내놓고 전통적인 검색 시장에 뛰어들자 뉴스미디어와 이들 AI기업 간 협상도 활발해지고 있다.
실시간 질의에 답변하기 위해선 뉴스 콘텐츠가 필요하기 때문이다. AI검색 기업들은 뉴스 미디어의 콘텐츠를 쓰는 댓가를 지급하는 계약을 검토하고 있다.
특히, 퍼플렉서티 등 AI검색 엔진 스타트업들은 뉴 ‘수익 공유 모델’이나 ‘광고 모델’을 도입하는 등 뉴스미디어와의 상생 노력에 나서고 있다.
[AI검색 엔진의 등장, 언론의 주도권 시작]
기존 생성AI를 둘러싼 테크 업계와 뉴스 미디어 간 협상은 주로 대규모 언어 모델(LLM) 학습을 위한 데이터 제공에만 초점을 맞춰 왔다. 하지만 지금은 세부적인 사용 사례를 다루는 방향으로 논의가 전환되고 있다. 보다 디테일해진 것이다. LLM은 거의 모든 종류 방대한 텍스트에 대해 학습한다.
하지만 최신 시사에 대한 질문에 정확하게 답변하려면 실시간으로 검증된 소규모 정보 풀에 액세스할 수 있어야 한다. 이 경우 뉴스 언론들이 협상에 보다 더 큰 주도권을 가질 수 있다.
대량언어모델이 특정 데이터를 기준으로 답을 제공하는 프로세스는 검색 증강 생성(retrieval-augmented generation, RAG)이라고 부른다. RAG는 LLM의 정확도를 높이고 환각이나 지어낸 오답을 줄이는 데 도움이 된다. 하지만 이런 부작용을 완전히 제거할 수는 없다.