인공지능(AI)이 콘텐츠의 창작 및 배포 방식을 재정의하는 맥락에서, 미디어 세계는 깊은 긴장으로 가득 차 있다. 윤리, 진실, 표절, 정보의 질 등의 개념이 충돌하며, 저널리즘의 미래와 정보에 대한 신뢰에 관한 근본적인 질문을 제기하고 있다. Google Discover와 AI가 생성한 “기생 사이트”에 대한 최근의 논의는 전통 언론 전문가들 사이에서 커져가는 우려를 반영하며, 급변하는 현실에 대한 적응 거부를 보여준다.
AI와 저널리즘 : 기회와 위협 사이
리베라시옹에 실린 기사, 제목은 “가짜 필자, 진짜 이익: 인공지능이 정보를 기생하는 방법”은 AI가 생성한 콘텐츠의 강력한 증가를 조명한다. 기자 플로리안 구티에르와 자크 페제는 “기생성”의 증가를 비판하며, 수백 개의 사이트가 AI가 생성한 기사를 배포하고, 종종 표절하거나 허구로 된 기사를 Google의 Discover 시스템의 허점을 이용해 유포하고 있다고 주장한다. 이러한 관행은 정보의 무결성을 위협한다고 그들은 전한다.
이러한 시각은 경고적이지만, 다소 구체적인 설명이 필요하다. “수백 개의 사이트”를 언급할 때, 이들의 실제 영향력은 청중의 관점에서 미미하다. 이러한 플랫폼의 대다수는 방문객을 거의 유치하지 않으며, 미미한 수익을 창출한다. 그러나 이들의 존재는 중심 질문을 제기한다: AI는 기자를 대체할 수 있는가, 아니면 인간을 돕는 보조 도구로 인식되어야 하는가?
신뢰성의 도전
AI에 대한 비판 중 하나는 종종 정보의 “비인간화”가 강조된다. 전통적인 기자들은 진실의 수호자로 자리매김하며, 이 역할이 자동화된 콘텐츠 생성기의 사용에 의해 위협받고 있다고 주장하는 이들이 있다. 하지만, 사람의 실수는 미디어에서 비일비재하며, AI의 “환상”은 문제가 있지만 인간 편견과 본질적으로 다르지 않다.
사실, AI는 단지 훈련받은 데이터, 주로 인간의 출처로부터 발생한 데이터를 재생산하고 있을 뿐이다. 따라서 AI의 답변에 있는 모든 오류나 부정확성은 그 정보의 한계를 반영한다. 문제의 핵심은 AI가 스스로의 결함을 인식하지 못하고 명백한 권위를 가지고 콘텐츠를 생성할 수 있는 능력에 있다. AI의 응답에서 “나는 모른다”는 부재는 그 배포의 주요 윤리적 도전 중 하나로 남아 있다.
표절인가 재창조인가?
AI에 대한 표절 혐의는 지식 재산권 및 정보의 독점성에 관한 질문을 제기한다. AI가 기사를 다시 쓰는 것과 기존 소스에서 영감을 받은 기자가 기사를 다시 쓰는 것은 어느 정도 다를까? 전통 언론이 특정 정보에 대한 독점을 주장하는 반면, 저널리즘 접근 방법의 질에 관한 논의는 확장된다: 원래 콘텐츠의 질인가, 아니면 그것을 다루는 방식이 기사의 가치를 형성하는가?
미디어의 진정한 과제는 AI가 재현할 수 없는 깊이와 감성을 지닌 인간적 작문을 평가하는 능력에 있는 것 같다. 그러나 AI가 현재의 왜곡에 대한 유일한 책임이 있다고 믿는 것은 순진하다. 기자들이 경제적 모델의 취약성에 직면하면서, 때때로 SEO 최적화 과다 사용이나 대량 콘텐츠 생산과 같은 논란이 있는 관행을 통해 가시성을 유지해야 할 때가 있다.
Google Discover : 검열자 또는 촉진자?
AI가 생성한 콘텐츠의 확산을 촉진한다고 종종 비난받는 Google Discover는 사실상 전통 미디어 대기업에 의해 지배되고 있다. 전문가들에 따르면, 전통 미디어는 이 플랫폼에서 최대 90%의 가시성을 확보하며, 독립 사이트나 “기생사이트”는 청중의 일부분에 불과하다. 그러나 Discover는 동시에 또 다른 현실도 조명한다: 이 채널에서 효과적인 정보는 대부분 “영속적“이며, 즉시성과는 관계없이시 의존하지 않는다.
Google에 대한 비판은 진정한 불공정 경쟁보다는 콘텐츠의 규제 및 필터링에 더 무게가 실리고 있다. AI 사이트는 때때로 보일 수 있지만 대개는 일시적이며, 플랫폼의 알고리즘에 의해 빠르게 삭제되거나 페널티를 받을 수 있다. 문제는 이러한 사이트의 존재가 아니라, 전통 미디어가 계속 진화하는 디지털 환경에 자신의 모델을 적응시키는 데 실패하는 데 있다.
언론의 자아 성찰
기자들이 AI의 영향에 대해 제기한 우려는 보다 깊은 문제를 드러낸다: 전환하는 구조적 변화에 대해 스스로를 재발견하는 어려움이다. “GenIA”가 즉각적인 위협이 아니라면, 이는 편집 과정을 개선할 수 있는 기회로 인식될 수 있으며, 투명성과 윤리성을 가지고 사용된다면 더욱 그렇다. 그러나 언론은 또한 현재의 경제적 및 편집적 모델의 한계를 인정하는 등, 자신의 책임을 다해야 한다.
한나 아렌트는 “진실은 공적 논의를 밝힌다”고 썼지만, 그러기 위해서는 그 논의가 정직하고 건설적이어야 한다. 인간 정보의 지지자들과 AI가 생성한 콘텐츠 비판자 간의 분열은 미디어에 대한 더 넓은 신뢰 위기를 반영한다. 정보의 다양성이 민주주의를 유지하는 데 필수적인 지금, 전통 언론은 그들의 역할을 기반으로 한 가치들을 재확인하는 동시에 혁신에 열려 있어야 한다.