<앵커>
AI 기술 발전의 이면을 다뤄보는 연속보도, 오늘(31일)은 AI가 만들어내는 딥페이크와 가짜 뉴스 문제 짚어보겠습니다. 인공지능으로 단 몇 분 만에 사람들이 실제로 한 적도 없는 말과 행동을 만들 수 있게 되면서 이게 정치적으로 악용되는 경우도 잇따르고 있습니다.
정성진 기자가 올해 4월 총선을 치른 인도는 어땠는지 살펴봤습니다.
<정성진 기자>
지난 4월 총선을 앞두고 주요 정당들로부터 수백 건의 딥페이크 제작 의뢰를 받았다는 업체는 인도 수도 뉴델리에서 350km 떨어진 시골 마을 아지메르에 있었습니다.
[디비엔드라 자돈/인도 딥페이크 제작업체 대표 : 이제는 단 500만 루피(8,000만 원)로 50만 명에게 개인화된 비디오 메시지를 보낼 수 있습니다. 개인화가 핵심입니다. 정치에서 개인화, 유권자 홍보는 가장 중요한 것 중 하나입니다.]
공식 언어만 22개, 비공식 언어는 수천 개에 달하는 인도에서 정치인들이 유권자 개개인의 이름을 부르며 접근하는 딥페이크 영상만큼 효과적인 선거운동 수단은 없었습니다.
유권자 9억 7천만 명, 투표 기간만 44일, 올해 상반기 치러진 인도 하원 선거를 상징하는 이런 숫자들과 함께 다른 특징 중 하나는 바로 AI입니다.
인도 정당들은 선거 관련 AI 콘텐츠를 제작하는 데 5천만 달러, 우리 돈 700억 원을 사용했습니다.
딥페이크가 거대한 정치 비즈니스로 확실히 자리 잡은 겁니다.
필수 선거 도구가 됐지만, 올바르게만 쓰일 리도 없었습니다.
[디비엔드라 자돈/인도 딥페이크 제작업체 대표 : (제작 의뢰 중) 50%는 명백히 비윤리적인 요청이었습니다. 포르노 영상이든, 종교적 정서를 해치거나, 그가 발언한 적 없는 말을 하게 만드는 영상 같은 것입니다.]
인도인 넷 중 하나는 딥페이크로 만든 가짜 뉴스를 접한 것으로 조사됐고,
[아룬/인도 마하라슈트라주 : 최근 만들어지는 딥페이크 영상과 진짜 영상 사이에는 별 차이가 없는 것 같습니다. 선거 때 가짜 영상이 퍼지면 투표자들의 판단에 영향을 줄 수밖에 없습니다.]
딥페이크 제작 혐의로 제1 야당 인사가 체포되는 등 극심한 정치적 혼란을 불렀습니다.
[팜포시 레이나/인도 딥페이크 분석 단체 대표 : 사람들은 선거를 위해서든 아니든 기술을 자신에게 유리하게 사용할 것입니다. 인도에 딥페이크와 관련된 법은 없지만 무엇을 해야 하고, 어떻게 할 수 있을지에 대한 논의는 분명히 증가하고 있습니다.]
딥페이크가 본격 개입한 첫 선거로 기록된 인도 총선은 빠르고 정교하게 발전하는 딥페이크 기술을 민주주의 과정은 제대로 통제할 수 있을지에 대한 의문도 분명히 남겼습니다.
(영상취재 : 이찬수, 영상편집 : 오영택, 디자인 : 장예은, 화면출처 : 인터디멘셔널 TV)
---
<앵커>
인공지능이 민주주의를 위협하는 모습은 대선을 코앞에 둔 미국에서도 확인할 수 있습니다. AI가 만들어 낸 후보들의 가짜 사진과 영상이 쉴 새 없이 쏟아지면서, 미국 유권자들은 객관적 사실보다는 개인의 신념과 감정의 의지하는 경향이 강해졌다고 합니다.
이 내용은 미국 현지에서 엄민재 기자가 취재했습니다.
<엄민재 기자>
조 바이든을 비꼬는 듯한 해리스의 목소리로 만든 이 영상, 가짜 공약을 하고 있는 트럼프의 이 영상까지, AI로 만든 조작된 이미지나 영상들이 선거에 직접, 간접적으로 영향을 미치고 있습니다.
민주당의 텃밭이라는 뉴욕 맨해튼 시민들에게 트펌프가 흑인들과 다정하게 포즈를 취한 사진을 보여줬습니다.
물론 딥페이크 이미지입니다.
[더글라스/미국 뉴욕(해리스 후보 지지) : 가상의 상황 같아요. 그가 사람(흑인)들과 함께 있는 모습을 상상하지 못하겠어요.]
[페브리스/미국 뉴욕(해리스 후보 지지) : 이런 걸 믿을 사람들은 이미 마음을 정한 거라고 생각해요.]
맨해튼에서 자동차로 2시간 반 거리에 있는 펜실베이니아의 탄광도시 스크랜턴.
트럼프 유세에 온 지지자들에게 같은 사진을 보여줬습니다.
[피터/미국 클락스 서밋(트럼프 후보 지지) : (사진이 진짜 같나요?) 물론이죠. 그의 첫 임기 동안 증명한 것처럼 모든 인종, 종교, 피부색 등 다양한 배경의 사람들과 친구라고 생각해요.]
[소피아/미국 클락스 서밋(트럼프 후보 지지) : 트럼프는 모든 사람을 위하고, 그들이 어떤 인종이든 상관없어요.]
범람하는 딥페이크로 진실과 거짓을 가리는 일은 어렵고, 또 번거로워졌습니다.
객관적인 사실보다 개인의 신념과 감정에 의지하는 게 더 편해졌습니다.
포스트 트루스, 탈 진실 현상입니다.
[에릭 에프론/뉴스가드 편집장 : (점점 더) 자신의 기존 신념과 편견, 의견을 확인해 주는 뉴스와 정보를 소비하는 경향이 있습니다.]
딥페이크를 활용한 가짜 뉴스를 추적해 온 이 단체는 놀라운 사실을 발견했습니다.
러시아의 포격으로 우크라이나에 있던 스웨덴 교사가 사망했다는 가짜 뉴스에, 빅테크의 AI 챗봇 10개 중 6개가 '사실'이라고 답한 겁니다.
왜 이런 일이 일어날까.
AI 시스템이 자신이 생성한 데이터를 다시 학습하면서 누적되는 오류, 'AI 학습 루프' 현상 때문입니다.
[멕켄지 사데기/뉴스가드 에디터 : 이런 웹사이트를 만드는 데 AI 챗봇이 사용되고, 그 후 AI 챗봇이 다시 그 웹사이트들을 인용하게 되는 것입니다.]
실제 이 단체가 발견한, AI 챗봇이 가짜로 만들어낸 뉴스 사이트만 1천여 개에 달하는데, 한글 사이트도 있습니다.
[멕켄지 사데기/뉴스가드 에디터 : 한글 사이트에서 사용했던 AI 챗봇은 여러 언어를 지원하지 못했기 때문에, 오류 메시지가 영어로 게시된 걸 볼 수 있어요.]
의도된 AI의 거짓과 AI를 먹고 자란 AI가 낳은 오류로 가득한 세상에서는 탈 진실에 의존하는 시민들이 늘 수밖에 없습니다.
신념에만 기대는 정치적 양극화는 심화하고 민주주의 절차에 대한 신뢰는 급격히 하락할 거라는 많은 연구 결과들이 있습니다.
우리의 민주주의가 무너질 수 있다는 경고이기도 합니다.
(영상취재 : 황인석, 영상편집 : 원형희, 디자인 : 최재영)
※본 보도는 한국언론진흥재단의 정부광고 수수료를 지원받아 제작되었습니다.
정성진 기자 captain@sbs.co.kr
엄민재 기자 happymj@sbs.co.kr
▶ 네이버에서 SBS뉴스를 구독해주세요!
▶ 가장 확실한 SBS 제보 [클릭!]
* 제보하기: sbs8news@sbs.co.kr / 02-2113-6000 / 카카오톡 @SBS제보
Copyright ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지