언론산업의 생성형 AI 활용 : 뉴스 보도에 대한 최종 의사결정은 언론인의 책무
언론산업의 생성형 AI 활용 : 뉴스 보도에 대한 최종 의사결정은 언론인의 책무
  • 김세아 기자
  • 승인 2023.07.31 14:31
  • 댓글 0
이 기사를 공유합니다

양날의 검 : 생산성 향상과 법적·윤리적 차원의 문제
최종 의사결정은 대체할 수 없는 인간 언론인과 편집자의 역할

언론산업은 생성형 AI 기술을 활용하여 뉴스 콘텐츠 제작의 생산성을 향상시킬 수 있으나 저작권 침해, 프라이버시 침해, 허위정보 확산, 혐오·차별 확산 등 다양한 법적·윤리적 문제를 유발할 가능성이 있어 언론인의 주의가 요구된다. 생성형 AI를 활용하여 뉴스를 제작하더라도 최종 의사결정을 AI에 맡겨서는 안 되며 인간 언론인이 결과물에 책임을 져야 한다는 것이 해외 언론과 학계의 목소리다.

한국언론진흥재단(이사장 표완수)은 지난 27일 이 같은 내용을 담은 <미디어정책리포트> 제3호 ‘언론산업의 생성형 AI 기술 활용 가능성과 법적·윤리적 쟁점’을 발간했다. 이번 보고서는 언론사의 생성형 AI 기술 활용 가능성과 그에 수반되는 법적·윤리적 문제점 검토를 통해 언론사의 경쟁력을 강화하면서 사회적 역기능을 최소화할 수 있는 방안을 모색해보고자 하였다.

언론사들은 자연어처리 기술에 기반한 챗지피티(ChatGPT), 미드저니(Midjourney) 등의 생성형 AI 기술을 다음과 같은 다양한 영역의 생산성 향상을 위해 활용할 수 있다.

콘텐츠 제작을 위한 뉴스기사 및 보고서 내용에 대한 요약, 이미지와 인포그래픽 생성 등의 작업을 빠르고 효율적으로 처리할 수 있을 뿐만 아니라 이용자들의 선호도, 검색 기록, 이용 패턴 등을 분석하고 개인 맞춤형 기사, 동영상, 콘텐츠를 추천할 수 있다. 데이터 분석 필요시, 소셜미디어 트렌드, 콘텐츠 소비 패턴 등 빅데이터를 분석하고 비즈니스 전략에 대한 인사이트를 도출할 수 있다. 이러한 빅데이터를 통해 딥페이크(조작되거나 합성된 미디어 콘텐츠)를 탐지하는 기술이 개발되고 있으며, 기술 개발이 고도화되면 정보의 출처를 확인하고 허위조작정보를 탐지하는 팩트체크 과정에도 활용할 수 있다.

생성형 AI 기술 이용은 확산 추세에 있으나, 이에 수반된 법적·윤리적 이슈들이 새로운 위험요인으로 부상하고 있다. 개인 이용자 맞춤형으로 기사를 작성·배포하거나 추천 알고리즘을 정교화하는 과정에서 과도한 개인정보 수집 및 이용으로 프라이버시 침해 위험이 있다. 또한, 뉴스 제작 과정에서 생성형 AI가 저작권 있는 콘텐츠를 라이선스 없이 이용하게 되면 뉴스에 의한 저작권 침해 이슈가 제기 될 뿐만 아니라 허위정보를 확산할 우려가 있다. 이로 인한 근거로 AI 언어모델은 사회에 존재하는 편견을 포함한 기존 데이터를 통해 학습되므로, 인간 편집자의 검수가 없으면 뉴스가 혐오와 차별을 더욱 확산시킬 수 있다.

생성형 AI를 통해서 뉴스 생산 과정의 효율성과 생산성을 향상시킬 수 있다. 이때 중요한 것은 저널리스트들의 추가적인 편집과 팩트체크 등 인간 언론인의 개입과 감독 과정, 그리고 뉴스 제작에 생성형 AI를 활용하는 방식과 범위에 대해 독자들에게 투명하게 공개하는 것이다. 생성형 AI 활용이 일반화되는 시대에도 어떤 뉴스를 어떻게 보도할 것인지에 대한 최종 의사결정은 대체될 수 없는 인간 언론인과 편집자의 역할로 남게 될 것이다.