인공지능이 전 세계 출판계의 규칙을 전례 없는 속도로 재편하고 있다: 악셀 슈프링거가 Upday의 이탈리아어 편집부 전체를 해고하고 ChatGPT로 대체하는 한편, 일 포글리오 같은 언론사들은 는 AI가 완전히 작성한 부록 덕분에 판매량이 60% 증가했습니다 을 기록하고 있다. 하지만 이면에는 더 복잡한 진실이 드러난다: 많은 '혁신적인 AI 솔루션'들은 진정한 혁신과 정보 생태계의 체계적 조작 사이를 오가는 운영 현실을 숨기고 있다.
연구자들이 아이러니하게도 '가짜 자동화(fauxtomation)'라고 명명한 이 현상은 기술 산업이 종종 저품질 자동화를 고급 인공지능으로 위장하여 활용하는 방식을 드러낸다.
뉴스가드의 연구는 폭발적인 현상을 포착합니다: 16개 언어로 운영되는 1,200개 이상의 자동화된 가짜 뉴스 사이트. 이 생태계는 6년 안에 4배로 성장할 시장(현재 260억 달러에서 2030년 약 1,000억 달러로)을 타고 있습니다.
번영하는 자와 쇠퇴하는 자의 차이는 무엇인가? 새로운 핵심 역량을 통해 인공지능을 존재적 위협에서 경쟁 우위로 전환하는 능력이다: 기계가 진정 기계일 때, 기계에게 무엇을 물어봐야 하는지 아는 것.
2024-2025년은 출판 업계에 결정적인 전환점을 마련했다. 한편으로는 역사적인 편집국들에 해고 물결이 닥쳤다: 비즈니스 인사이더는 직원 21%를 감축했고, 더 메신저는 문을 닫으며 300명의 기자를 실직 상태로 내몰았으며, CNN과 로스앤젤레스 타임스는 수백 개의 직위를 없앴다. 가장 큰 타격을 입은 직종은 카피라이터, 주니어 에디터, 번역가 등 자동화가 용이한 직무들이었습니다.
반면, 새로운 기회의 생태계가 등장하고 있다. 워싱턴 포스트는 최초의 'AI 전략 및 혁신 담당 수석 편집자' 직책을 신설했으며, 뉴스위크는 속보 전문 AI 팀을 출범시켜 월간 1억 3천만 세션 달성에 기여했습니다. 미디어 업계의 AI 관련 직무 채용 공고는 124% 증가했으며, 시니어 프롬프트 엔지니어의 연봉은 최대 33만 5천 달러에 달할 수 있습니다.
이 변혁의 핵심은 전략적 접근법에 있습니다. Thomson Reuters는 연간 1억 달러 이상을 AI에 투자하며 특정 작업에 다양한 모델을 활용합니다: 콘텐츠 생성을 위한 OpenAI, 복잡한 법률 문서 분석을 위한 Google Gemini, 고감도 워크플로우를 위한 Anthropic Claude 등이 대표적입니다. 이러한 다중 공급업체 접근법은 편집 품질에 대한 통제력을 유지하면서 비용과 성능을 최적화할 수 있게 했습니다.
"기계에게 무엇을 물어봐야 할지 아는 것"은 단순한 슬로건이 아니라, 기자라는 직업을 재정의하고 있는 신흥 전문 역량이다. 미국, 영국, 독일의 정보 전문가 134명을 대상으로 한 조사에 따르면, AI 콘텐츠 검증은 "때로는 수동 작성보다 더 많은 시간이 소요된다"고 합니다. 이 역설적으로 보이는 데이터는 근본적인 진실을 숨기고 있습니다: AI는 기자를 대체하지 않으며, 새로운 형태의 편집 감독을 요구한다는 점입니다.
전통적인 역량은 사라지지 않고 더 정교한 형태로 진화합니다. 정보원과의 관계, 편집적 판단력, 맥락화는 여전히 대체 불가능합니다. 한 영국 편집부 관리자가 강조하듯: "쓰레기 같은 콘텐츠를 쏟아내는 버즈피드나 CNET이 되고 싶지 않습니다. 우리는 제대로 된 일을 해야 합니다."
인공지능에 효과적인 질문을 하는 것은 단순한 정보 요청을 넘어섭니다. 이는 알고리즘 편향을 이해하고, 복잡한 요청을 구조화하며, 점점 더 정확한 결과를 얻기 위해 반복하는 능력을 요구합니다. 생산적인 AI 대화는 다음과 같아야 합니다: 필요한 배경을 제공하여 맥락을 설정하고, 원하는 형식을 명시하며, 출처에 대한 투명성을 요구하여 윤리적 기준을 설정하고, 대상에 맞게 어조를 조절해야 합니다.
역설적으로, 인공지능 시대는 사실 확인을 더욱 중요하게 만들었다. 기자들은 인공지능이 검증의 대상이자 도구가 되는 보조적 사실 확인을 위한 새로운 방법론을 개발 중이다. 도전 과제는 더 이상 진실과 거짓을 구분하는 데 그치지 않고, 자동 요약의 질을 평가하고, 중요한 누락 사항을 식별하며, 인공지능이 서사에 미묘한 편향을 도입하는 시점을 인지하는 데까지 확대되었다.
인공지능의 책임 있는 사용은 지속적인 윤리적 성찰을 요구한다. 대중에게 인공지능 사용에 대한 투명성은 언론 신뢰성의 핵심 기둥이 된다. 이러한 환경 속에서 새로운 하이브리드 인물이 등장한다: 인간과 디지털 소스의 교향곡을 지휘하여 고품질 정보를 생산하는 '기자-지휘자'이다.
AdVon Commerce의 역사는 논란의 대상이던 기술이 합법적인 비즈니스 솔루션으로 진화하는 과정을 완벽히 보여줍니다. Sports Illustrated와 USA Today의 스캔들 중심에 있던 AdVon은 '자동화된 저널리즘'을 수백만 달러 규모의 사업으로 탈바꿈시켰습니다. 그 규모는 놀라웠습니다: 수백 개 매체를 통해 AI로 생성된 프로필 사진과 완전히 가상의 기자들을 활용해 90,000건의 기사를 게시했습니다.
퓨처리즘이 입수한 내부 교육 영상은 운영 현실을 드러냈다: 직원들이 "AI가 작성한 기사를 생성하고 이를 다듬는" 모습이었다 뉴스룸에서 저널리스트들이 AI 도구를 활용하는 12가지 방법 - Twipe. 전략은 단순하지만 효과적이었습니다: 초기에는 계약직을 고용해 제품 리뷰를 작성하게 한 후, 이 자료를 언어 모델 훈련에 활용하며 점차 자동화로 진화하는 방식이었습니다. 이는 인간 노동에서 '실제 AI'로의 전환 사례로, 인간 노동자들이 점진적 대체 과정을 통해 기계를 훈련시키는 구조를 보여줍니다.
AdVon은 현재 Flywheel Digital(Omnicom에 인수됨)의 일부로, 포춘 500대 기업을 대상으로 "AI 기반 SEO 및 사용자 중심 콘텐츠 솔루션" 공급업체로 자리매김하고 있습니다. 논란의 여지가 있는 언론사 대상 콘텐츠 팜에서 이커머스 기업용 엔터프라이즈 도구로의 전환은 기술 스타트업의 전형적인 진화 양상입니다: 동일한 기술, 다른 시장, 다른 윤리 기준.
AdVon 사례는 동일한 기술이 합법적인 시장(전자상거래)과 문제적인 관행(가짜 저널리즘)을 동시에 지원할 수 있음을 보여준다. 콘텐츠 팜에서 엔터프라이즈 소프트웨어로 진화한 이 모델은 기술 혁신이 시간이 지남에 따라 더 윤리적인 적용처를 찾을 수 있음을 보여준다.
대형 기술 기업의 복잡성을 가장 상징적으로 보여주는 사례는 다음과 같은 연대기에서 드러난다: 2024년 3월 5일, 구글은 "대규모 콘텐츠 악용"에 대한 대책을 발표했다. 2024년 4월 1일, 구글 클라우드는 AdVon과 파트너십을 맺고 AdVonAI를 출시한다고 발표했다. Futurism이 이에 대한 설명을 요청하자 구글은 완전한 침묵으로 답했다.
가장 유력한 설명은 조직 구조에 있습니다: Google Cloud는 별도의 사업부로 운영되며 자체적인 상업적 목표를 가지고 있으며, AdVonAI는 Target이나 Walmart 같은 소매업체를 위한 B2B 도구로 포지셔닝되어 있으며, 언론 콘텐츠 생산을 위한 도구가 아닙니다. Techdirt의 칼 보드(Karl Bode)가 지적한 바와 같이: "무능한 경영진들은 여전히 AI를 저널리즘을 개선하는 수단이 아닌, 자동화된 광고 참여 기계(advertising engagement machine)를 만드는 지름길로 취급하고 있습니다."
CNET은 저널리즘에서 AI를 구현하지 말아야 할 방식을 보여주는 최초의 대규모 사례 중 하나를 제공하며, '가짜 자동화(fauxtomation)'의 위험성에 대한 완벽한 사례 연구가 되었습니다. 이 저명한 테크 사이트는 '내부 AI 엔진"을 활용해 2022년 11월부터 게시된 77개의 기사를 작성했으며, 이는 동일 기간 게시된 전체 콘텐츠의 약 1%를 차지합니다.
CNET은 AI가 생성한 77개 기사 중 41개에서 오류를 수정해야 했습니다. 이는 자동 생성된 콘텐츠의 절반 이상에 해당합니다. 복리 이자에 관한 한 기사는 연 3% 이자로 1만 달러를 예금하면 300달러가 아닌 1,030달러가 된다고 주장했는데, 이는 3,333%의 오류로 해당 조언을 따랐다면 누구든 재정적으로 파탄에 이를 수 있는 수준이었습니다.
후속 조사에서는 또한 다른 곳에 이미 발표된 논문들과의 구조적 표절 증거도 드러났다. 워싱턴 앤 리 대학교의 제프 샤튼 교수는 여러 사례를 검토한 후 봇의 행동을 "명백한" 표절이라고 규정했다. "학생이 출처를 밝히지 않은 채 기존 문서와 유사한 수준의 유사도를 보이는 에세이를 제출한다면, 학생 윤리 위원회에 회부될 것이며, 이러한 행동이 반복된 성격임을 고려할 때 거의 확실히 대학에서 퇴학당할 것입니다."
CNET 사례는 콘텐츠 팜의 논리가 역사적인 언론사에도 침투했음을 보여준다. The Verge가 보도한 바에 따르면, Red Ventures(CNET 소유사)의 주요 전략은 구글 상위 노출을 위해 정교하게 설계되고 수익성 높은 제휴 링크로 가득 찬 방대한 양의 콘텐츠를 게시하는 것이었다. CNET은 결국 "AI로 강화된 수익 창출용 SEO 기계"로 변모했다.
핵심 교훈: 인공지능은 "잘 알려진 경향으로 왜곡되고 유해하며 사실과 다른 콘텐츠를 생성하는 경향이 있다"이라는 점을 요구하며, 단순한 표면적 편집이 아닌 전문적인 인간의 감독이 필요합니다.
한편, 완전히 자동화된 콘텐츠 팜의 더욱 정교한 세대가 등장하고 있다. 뉴스가드(NewsGuard)는 "인간 통제가 거의 또는 전혀 없이 운영되며 대부분 또는 전적으로 봇이 작성한 기사를 게시하는" 사이트들을 확인했는데, 이들의 이름은 iBusiness Day, Ireland Top News, Daily Time Update 등 일반적인 명칭을 사용하고 있다.
수치는 경각심을 불러일으킵니다: 2023년 4월 NewsGuard가 49개 사이트를 확인한 이후, 그 수는 2024년 8월 1,000개 이상으로 급증했습니다.
전 세계적으로 진정한 지역 신문사들이 동시에 쇠퇴하고 있는 점을 고려할 때, 지역 뉴스를 다루는 웹사이트가 가짜일 확률은 50%를 초과합니다.
OkayNWA (아칸소): 초현실적인 이름의 "AI 기자"인 "Benjamin Business"와 "Sammy Streets"를 보유한 최초의 완전 자동화 "지역 신문". 이 사이트는 웹에서 지역 행사를 수집해 AI 가명을 사용해 재게시하며, AdVon 모델의 최종 진화 형태를 보여줍니다.
Celebritydeaths.com: 바이든 대통령이 사망했으며 해리스 부통령이 그의 직무를 승계했다고 허위로 보도했습니다 분석가들, AI 생성 뉴스 사이트 확산 경고 - 통제되지 않은 자동화가 위험한 허위 정보를 생성할 수 있는 사례입니다.
홍콩 애플 데일리: 전 민주주의 신문사의 도메인이 세르비아 사업가에 인수되어 AI 생성 콘텐츠로 채워졌다 분석가들, AI 생성 뉴스 사이트 확산 경고 2021년 신문 강제 폐간 이후 - 특히 냉소적인 디지털 점유 사례.
인공지능(AI) 생성 사이트는 일반적으로 유료 구독 장벽이 없으며 실제 기자 채용 비용을 부담하지 않아 프로그램 기반 광고 수익을 더 쉽게 창출할 수 있습니다 주의: AI '뉴스' 사이트가 증가하고 있다 - 뉴스가드. 이는 파괴적인 악순환을 초래합니다: 이러한 사이트들이 광고 수익을 흡수하는 동안, 지역 언론사들은 생존을 위해 더욱 고군분투하게 되어 인력과 자원의 추가 감축으로 이어집니다.
뉴스가드는 구글이 이들 사이트 광고의 90%를 차지하고 있음을 발견했습니다 분석가들, AI 생성 뉴스 사이트 확산 경고. 보이스 오브 아메리카(VOA)가 해명을 요구하자 구글은 뉴스가드가 사이트 목록을 공유하지 않기 때문에(당연히 공유하지 않을 것이며, 이는 그들의 주요 상업적 자산이기 때문) 확인할 수 없다고 답변했습니다.
경제 데이터는 심대한 혼란의 이야기를 전하고 있다:
임금에 미치는 영향도 마찬가지로 극심하다. 인공지능(AI) 역량을 요구하는 직무는 미국에서 최대 25%의 임금 프리미엄을 받는다. 아마존의 AI 콘텐츠 매니저는 6만2000달러에서 9만5000달러를 벌 수 있는 반면, 시니어 프롬프트 엔지니어는 33만5000달러의 연봉을 받는다. 반면, 기자의 58%는 기업 지원 없이 스스로 AI를 학습하고 있다.
이 체계적인 기만과 숨겨진 자동화의 풍경 속에서, 일 포글리오의 실험은 급진적 투명성의 모범 사례로 빛난다. 이 신문은 한 달 동안 인공지능이 완전히 작성한 부록을 게재했으며, 첫날 판매량이 60% 증가하고 국제적인 언론 보도를 얻었다.
클라우디오 체라사 신문 편집장은 한계를 솔직히 인정한다: "이것은 AI가 제대로 작동하지 않는 사례 중 하나"라고 독창성에 관해 말하지만, 근본적인 교훈을 강조한다: "중요한 것은 무엇을 더 할 수 있는지, 무엇을 덜 할 수 있는지가 아니라 무엇을 더 할 수 있는지 이해하는 것이다."
Il Foglio의 성공은 콘텐츠 팜의 현실과 비교할 때 더욱 의미 있는 차원을 띠게 된다. Cerasa가 독자들에게 AI 사용의 모든 측면을 공개하며 투명하고 윤리적인 실험을 진행하는 동안, 전 세계 수천 개의 사이트들은 가짜 저널리즘 정체성 뒤에 자동화된 본질을 숨기고 있다.
뉴스 코프 오스트레일리아: 투명한 산업 모델
뉴스 코프 오스트레일리아는 이미 Data Local 프로젝트를 통해 주당 3,000건의 AI 기사를 생산하고 있습니다를 통해 주당 3,000건의 AI 기사를 생산하고 있지만, 중요한 차이점이 있습니다: 체계적인 편집 감독과 완전한 공개입니다. 산업적이지만 투명한 이 접근 방식은 윤리적 기준을 유지하면서 자동화를 대규모로 구현할 수 있음을 보여줍니다.
Il caso di EXPRESS.de 의 사례는 AI가 기자들의 진정한 파트너가 될 수 있음을 보여줍니다. 그들의 시스템 '클라라(Klara)'는 현재 기사 작성의 11%를 담당하며, 성수기에는 전체 트래픽의 8~12%를 차지합니다. 이는 주로 효과적인 제목 생성 능력 덕분입니다.
영향력은 측정 가능합니다: 이 인간-AI 파트너십은 AI가 사용자의 관심사에 기반해 기사를 선별할 때 클릭률을 50~80%까지 크게 증가시켰습니다. 직원들은 감독자 역할을 수행하며 각 기사를 검토하고 출처를 확인하며 저널리즘의 무결성을 보장합니다.
RCS의 비즈니스 디지털 디렉터인 파비오 나폴리는 회사가 인공지능(AI) 기반 서비스를 확장하기 위해 새로운 테마별 앱을 개발하고 L'Economia와 같은 기존 플랫폼을 개선할 계획이라고 밝혔다. 목표는 AI와 데이터 분석을 활용해 더 개인화된 콘텐츠를 제공함으로써 독자들이 RCS 플랫폼에 더 깊이 몰입하고 더 많은 시간을 보내도록 하는 것이다.
EUEU AI 법안는 2024년 8월에 발효된 유럽 대륙 차원의 최초의 체계적인 인공지능 규제 시도입니다. 이 법안은 인공지능으로 생성된 콘텐츠에 대한 라벨링 의무를 부과함으로써 인간이 생성한 콘텐츠와 자동화된 콘텐츠를 구분하기 위한 법적 기반을 마련합니다.
파리 파리 인공지능과 저널리즘 헌장, 노벨상 수상자 마리아 레사가 의장을 맡은 이 협약은 저널리즘에서 윤리적인 인공지능을 위한 10가지 핵심 원칙을 제시했습니다. 이 문서는 "기술 혁신이 본질적으로 진보를 가져오는 것은 아니다: 윤리에 의해 주도되어야 한다"고 강조합니다.
핵심 원칙에는 다음과 같은 사항이 포함됩니다: AI 사용의 투명성, 민감한 콘텐츠에 대한 필수적인 인간 감독, 출처 다양성 보호, 그리고 명확한 편집 책임. IFJ 및 EFJ와 같은 단체들은 AI 훈련에 사용된 콘텐츠에 대한 공정한 보상과 알고리즘 투명성을 보장하기 위해 노력하고 있습니다.
출판계에서 논란이 되는 사례 중 하나는 이스라엘 스타트업 '스파인스(Spines)'로, 자동화된 출판 서비스를 제공하며 출판 기간을 6~18개월에서 3주로 단축하고 가격은 1,200달러에서 5,000달러 사이로 책정해 작가들이 저작권을 100% 보유할 수 있도록 한다.
플랫폼은 편집, 교정, 표지 디자인 및 서식 설정에 인공지능을 활용하지만, 각 도서마다 인간 프로젝트 매니저를 배정해 관리합니다. 비판은 품질에 집중됩니다 - "인공지능은 작가로서 재능이 부족하다는 것이 잘 알려져 있다" - 반면 지지자들은 이전에는 고가였던 서비스에 대한 접근성 확대를 강조합니다.
해당 스타트업은 신뢰할 수 있는 투자자들로부터 2,250만 달러를 유치했으며, CEO 예후다 니브는 탄탄한 실적을 보유하고 있습니다. 이 모델은 기존 서비스의 산업화를 의미하며, 반드시 '혁신적'이라고 할 수는 없지만 출판 접근성 측면에서 잠재적으로 중요할 수 있습니다.
"AI in Journalism Futures" 프로젝트가 제시한 2025-2030년 시나리오는 급진적 변화와 지속성 사이를 오간다. "중간에 있는 기계들(Machines in the Middle)" 시나리오는 인공지능이 본질적으로 편집부 역할을 수행하며 대부분의 저널리즘 정보를 처리하고 배포하는 모습을 그린다.
전문가들은 사용자들이 더 이상 출판사 사이트를 방문하지 않고, 콘텐츠를 요약하는 인공지능 에이전트를 통해 뉴스에 접근하는 '포스트 링크 현실'을 예측합니다. 이러한 시나리오는 정보 통제권이 대형 기술 기업들의 손에 더욱 집중되는 결과를 초래할 것입니다.
성공적인 편집국들은 전통적인 워크플로를 유지하면서 실험을 가능하게 하는 '투 스피드(two-speed)' 모델을 채택하고 있다. 중앙 집중식 AI 인프라로 지원되는 자율적인 팀들로 구성된 '연방형' 구조가 등장하고 있다. 핵심은 기술적 효율성과 저널리즘적 가치—정확성, 공정성, 책임성, 공공 서비스—사이의 균형이다.
그러나 출판계 커뮤니티의 의견에서 위안이 되는 진실이 드러난다: 시장에는 사기에 대한 자연적인 방어 메커니즘이 존재한다는 것이다. 한 업계 베테랑이 지적하듯: "사기는 항상 존재하지만, 지속적인 영향을 미친 사기는 본 적이 없다."
이유는 단순하지만 강력합니다: 발견 알고리즘(아이러니하게도 진정한 AI입니다)은 독자의 참여도와 만족도를 보상합니다. 콘텐츠 팜이 시장을 넘쳐흐를 수 있지만, 품질은 항상 두각을 나타냅니다. 독자들은 인간이 만들든 AI가 만들든 저품질 콘텐츠의 첫 페이지를 넘기지 않습니다.
인공지능은 저널리즘의 미래가 아니다. 그것은 혼란스럽고 모순적인 현재다. 진행 중인 변혁은 처음 예상했던 것보다 훨씬 더 깊은 분기점을 드러내고 있다: 단순히 기자를 기계로 대체하는 문제가 아니라, 윤리적 자동화와 약탈적 '가짜 자동화' 사이의 싸움이다.
일 포글리오(Il Foglio)와 수천 개의 자동화된 콘텐츠 팜(content farm) 사이의 대조는 상징적이다. 한쪽에는 인공지능(AI) 사용을 공개적으로 선언하고, 인간 감독에 투자하며, 기술을 활용해 직업의 미래를 탐구하는 투명한 실험이 있다. 다른 쪽에는 저질 콘텐츠를 진정한 저널리즘으로 위장해 정보 생태계를 오염시키는 산업적 기만 시스템이 존재한다.
AI 편집자 시대의 성공에는 다섯 가지 핵심 요소가 필요합니다:
번창하는 편집국은 일 포리오(Il Foglio)처럼 인공지능(AI)을 활용해 기자들을 반복적인 업무에서 해방시키고, 기계가 할 수 없는 일에 집중하도록 도전하는 곳이다: 신뢰 관계를 구축하고, 복잡성을 맥락화하며, 인간의 영혼을 울리는 이야기를 전하는 일이다.
역설은 파괴적이면서도 해방적이다: 자동화가 극에 달한 시대에 정직함은 혁명적인 행위가 된다. 기계에게 무엇을 요구해야 하는지 아는 것은 단순한 기술적 역량이 아니다—체계적인 기만을 보상하는 생태계에 대한 저항의 행위다.
그러나 출판계 커뮤니티의 지혜와 시장의 회복력이 보여주듯, 독자들은 분별력을 지니고 있다. 이탈리아 언론사들은 기술 이상의 선택에 직면해 있다: 자동화된 콘텐츠 팜의 바닥을 향해 달려가는 경쟁에 동참할 수도 있고, 일 포리오(Il Foglio)의 사례를 따라 투명성을 경쟁 무기로 활용할 수도 있다.
이 '가짜 자동화' 시대에 진정한 저널리즘은 어떤 기계도 결코 모방할 수 없는 마지막 형태의 자동화, 즉 신뢰의 자동화가 된다. 그리고 신뢰는, 훌륭한 기자라면 누구나 알고 있듯이, 한 기사 한 기사, 한 독자 한 독자, 한 진실 한 진실을 쌓아가며 얻어지는 것이다.
생존과 번영의 차이는 인공지능(AI) 도입 여부에 있지 않다. 주변 모두가 자신의 자동화 기술이 실제보다 더 정교한 척하는 가운데, 진정성을 유지할 수 있는 능력에 있다. 미래는 기술을 기만의 도구가 아닌 진실의 도구로 전환할 줄 아는 이들의 것이다.
출처:
시장 조사 및 데이터:
사례 연구와 스캔들:
콘텐츠 팜과 자동화:
글로벌 파트너십 및 이니셔티브: