#123 LLM이 프로파간다를 만났을 때

#123 위클리 딥 다이브 | 2025년 12월 24일

💡
이번주 뉴스레터에는 이런 내용을 담았어요!
  • LLM을 활용한 프로파간다 사례를 소개합니다.
  • 반대로 LLM을 활용해 프로파간다를 탐지하는 전략을 알아봅니다.
  • LLM이 잠재적으로 프로파간다에 어떤 영향을 미칠 수 있는지 정리했습니다.
A/B 테스트 제목: “무엇이 진실인지 알기 어려운 세상을 만들어라”
설명: 프로파간다와 관련된 다양한 LLM 연구를 소개하고 미래를 전망합니다.

LLM이 프로파간다를 만났을 때

안녕하세요, 에디터 배니입니다.
어느새 연말입니다. 내일이면 크리스마스, 다음주면 이제 새해를 맞이하는데요. 새로운 시작이 기다리고 있는 동시에 모든 것이 마무리되는 시기이기도 합니다. 저는 올해 하반기에 핀란드로 유학을 와 있었습니다. 이곳 핀란드도 AI 분야에 투자가 많이 이뤄지고 있고, 학문적으로도 진취적인 연구를 많이 진행하고 있습니다.
제가 관심을 가지고 있는 사회과학 분야에서도 AI를 접목한 학제간 연구가 다양하게 이뤄지고 있습니다. 그중 가장 인상 깊었던 것은 프로파간다(Propaganda)와 관련된 내용입니다. 일반적인 프로파간다라고 한다면 중앙 집권적인 단체에서 시행하는 의도적인 대규모 설득 과정 정도로 설명할 수 있을 것 같습니다. 우리말로 보통 ‘선전(宣傳)’으로 번역합니다. 우리나라에서는 과거에 광고(Advertisement)를 종종 ‘선전’이라고 부르기도 했었죠. 선전을 어떻게 정의하느냐에 따라 광고를 선전이라고 볼 수도 있지만, 학문적으로 받아들이는 좁은 의미의 선전은 광고와 다릅니다. 학술적 논쟁은 차치하고, 우리나라에서 ‘선전’ 또는 ‘프로파간다’라는 개념이 다소 생소한 것은 사실인 것 같습니다.
핀란드는 러시아와 역사적으로 크게 얽혀 있습니다. 프로파간다 연구에서 러시아 사례가 많이 제시되기 떄문에 제가 공부했던 핀란드에서는 그리 낯선 개념이 아니었습니다. 프로파간다에 대한 인식은 보통 부정적입니다. 보통은 정부에서 진실을 숨기고 국민들을 호도하기 위해 사용됐기 때문입니다. 주로 1900년대 사례가 많이 언급되기 떄문에 혹자는 프로파간다가 이제는 사장된 개념이라고 여길 수도 있습니다. 그러나 프로파간다 전략을 깊이 들여다보면 현대에도 여전히 유효합니다. 오히려 AI 기술과 융합되면서 더욱 교묘하고 복잡한 방식으로 새로운 문제들을 만들어 내고 있는데요. 이번 뉴스레터에서는 LLM이 프로파간다와 어떤 관련이 있는지 다양한 연구를 소개합니다.

프로파간다에 LLM을 활용한 방법

미국 대통령 선거에 러시아가 개입했다는 얘기를 들어보신 적이 있으신가요? 음모론 같은 이야기지만 일부는 사실로 밝혀져 많은 연구가 이뤄지고 있습니다. 그중 대표적인 사례가 2022년부터 러시아 정부의 지원으로 시작된 ‘도플갱어(Doppelgänger)’ 캠페인입니다. 도플갱어 캠페인은 수백 개의 가짜 뉴스 사이트와 SNS 계정을 통해 러시아에게 유리한 정보를 대규모로 유포한 작전입니다.
미 정보당국과 OpenAI의 조사에 따르면, 도플갱어 운영자들은 ChatGPT 계정을 여러 개 개설하여 영어·프랑스어·러시아어로 기사, 이미지 등을 생성하고 플랫폼의 웹사이트와 SNS 계정에 게시했습니다. 바이럴을 위해 댓글까지 생성하고 이를 2000여 개의 가짜 계정으로 공유했는데요. SNS뿐만 아니라 유명 언론사를 모방하여 허위 언론사 사이트를 만들어 선동 기사를 양산하면서 실제 인간의 행동처럼 보이도록 만들었죠.
2023년 11월 10일자로 게시된 ‘도플갱어’ 기사들로, 우크라이나 언론 UNIAN을 사칭한 사례.
왼쪽 기사의 제목은 ‘그들이 또다시 우리를 바보로 만들려고 한다.’, 오른쪽 기사의 제목은 ‘돈이 바닥났다’는 의미로 우크라이나의 현 상황을 부정적으로 조명한다. 가짜 UNIAN 도메인은 주황색으로 강조되어 있다.
출처: 가짜 UNIAN (왼쪽, 오른쪽) / 이미지 편집 및 캡션: Insikt Group <Obfuscation and AI Content in the Russian Influence Network “Doppelgänger” Signals Evolving Tactics>
2023년 11월 10일자로 게시된 ‘도플갱어’ 기사들로, 우크라이나 언론 UNIAN을 사칭한 사례. 왼쪽 기사의 제목은 ‘그들이 또다시 우리를 바보로 만들려고 한다.’, 오른쪽 기사의 제목은 ‘돈이 바닥났다’는 의미로 우크라이나의 현 상황을 부정적으로 조명한다. 가짜 UNIAN 도메인은 주황색으로 강조되어 있다. 출처: 가짜 UNIAN (왼쪽, 오른쪽) / 이미지 편집 및 캡션: Insikt Group <Obfuscation and AI Content in the Russian Influence Network “Doppelgänger” Signals Evolving Tactics>
다행히 그 영향력은 크지 않았습니다. 2023년 11월, 사이버 범죄를 연구하는 Insikt Group이 발표한 보고서에는 도플갱어 캠페인의 성과를 분석한 내용이 담겨 있습니다. 보고서 내용에 따르면 조회수, 좋아요, 공유, 댓글 등 모든 지표가 무시할 수 있을 정도로 낮은 수준이었다고 합니다. 아무리 양적으로 가짜 정보를 확산시킨다고 하더라도 AI의 생성물들이 일반 사용자들이 볼 때 확연히 구분할 수 있는 수준이었기 때문에 큰 효과가 없다고 본 것입니다.
혹시 LLM 성능이 부족했기 때문이었을까요? 꼭 그렇지는 않습니다. 보고서가 발표된 이후에도 계속 LLM이 발전하면서 ChatGPT와 같은 서비스를 활용하여 의도적으로 가짜 정보를 양산하는 사례가 지속적으로 발견됐는데요. 이 때문에 미국에서는 2024년에 치뤄질 미국 대통령 선거에 LLM을 포함한 AI가 큰 영향을 미칠 것이라는 공포감이 존재했습니다. 그러나 지금까지 학계의 중론은 그런 걱정은 기우였다는 것입니다. 2024년 미국 대선을 두고 AI를 활용한 프로파간다 전략이 여론을 크게 뒤집은 사건은 없다고 본 것입니다. 즉, LLM으로 프로파간다를 실현하는 것은 가능하지만 아직까지는 그 영향력이 미미하다고 보고 있습니다.
인간이 보기에 프로파간다를 구분하는 게 쉬운 문제라면, 반대로 LLM을 활용해 프로파간다를 탐지할 수도 있지 않을까요? 공격하는 방법을 안다는 것은 어떻게 수비해야 하는지 안다는 것과도 같으니까요. 그리고 사람이 직관적으로 프로파간다적 특성을 판단할 수 있다면 그 정보를 LLM이 학습하도록 만들 수 있겠죠. 하지만 언제나 공격보다 수비는 조금 더 어려운 법입니다. 공격의 의도와 패턴을 사전에 간파해야 하는데 공격 당하기 전까지 어떤 형태로 나타날지 파악하기 어렵기 떄문입니다. 또한, LLM을 활용해 탐지하기 위해서는 프로파간다가 무엇인지 보다 더 구체적으로 정의해야 합니다. LLM이 프로파간다 여부를 판단할 수 있도록 예시를 제공하거나 학습 데이터에 레이블링을 해야 하기 때문입니다.

LLM으로 프로파간다를 탐지할 수 있지 않을까?

이탈리아의 DISA-MIS 연구진은 이러한 문제 의식을 바탕으로 <Towards a LLM-based Intelligent System for Detecting Propaganda within Textual Content> 논문을 발표했습니다. 이 연구는 단순히 뉴스 기사의 프로파간다 여부를 구분하는 것을 넘어 프로파간다가 어디에서, 어떤 방식으로 작동하는지까지 함께 파악하도록 실험을 설계했습니다. 다시 말해, 프로파간다를 획일적으로 판단하기보다 특정한 맥락 안에서 구체적인 기법과 위치를 갖고 드러나는 현상으로 본 것입니다.
연구진은 이를 위해 프로파간다를 18개의 기법으로 세분화했습니다. 연구진은 LLM에 프로파간다 기법의 짧은 정의와 함께 뉴스 기사를 입력하고 ‘어떤 부분(Span)’이 ‘왜(Reason)’ 프로파간다에 해당하는지 설명하도록 프롬프트를 구성했습니다.
💡
대표적인 프로파간다 기법들
1937년 11월, 컬럼비아 대학 교수 Clyde R. Miller는 <How to Detect Propaganda>를 발표하며 7개의 대표적인 프로파간다 기법을 소개했습니다. 이 연구는 프로파간다 분석의 고전으로 꼽히는데요. 어떤 기법이 소개됐는지 몇 가지만 살펴보도록 하겠습니다.
첫째, 이름 붙이기(Name Calling)는 특정 인물이나 집단을 모욕적 표현으로 규정해 부정적 이미지를 고착시키는 방식입니다. 예를 들어, 상대의 정책을 논리적으로 비판하는 대신 상대를 “무능한 엘리트”나 “위험한 사회주의자”로 반복 호명하는 경우가 여기에 해당합니다.
둘째, 미사여구의 남용(Glittering Generalities)은 자유, 정의, 애국과 같은 긍정적이지만 모호한 가치를 앞세워 메시지에 동의하도록 유도하는 기법입니다. 구체적 내용 없이 “진정한 자유를 지키기 위한 선택”이라는 표현만 강조하는 캠페인이 대표적입니다.
셋째, 편승 효과(Bandwagon)는 “모두가 이미 지지하고 있다”는 인상을 주어 개인이 비판 없이 다수에 합류하도록 만드는 방식입니다. “국민이 선택한 후보”라는 문구는 지금도 선거와 광고에서 반복적으로 사용됩니다.
Miller 교수의 논문 발표 이후, 기술이 발전하고 다양한 선동 전략이 연구되면서 현재는 이보다 훨씬 더 많은 기법이 개발됐습니다.
연구진이 사용한 18개의 프로파간다 기법과 정의
출처: <Towards a LLM-based Intelligent System for Detecting Propaganda within Textual Content> (Gaeta et al., 2025)
연구진이 사용한 18개의 프로파간다 기법과 정의 출처: <Towards a LLM-based Intelligent System for Detecting Propaganda within Textual Content> (Gaeta et al., 2025)
연구진은 프로파간다 탐지 연구에 주로 사용되는 SemEval 2020 Task 11 데이터셋을 활용하여 실험을 진행했습니다. 해당 데이터셋은 뉴스 기사를 토대로 인간이 직접 특정 부분을 프로파간다라고 판단하여 레이블링한 데이터입니다. 실험 결과, 상업 모델(Proprietary Model)인 GPT-4o와 GPT-3.5 Turbo는 정밀도에서는 0.72 수준으로 높은 값을 기록했지만, 재현율은 각각 0.21과 0.13에 그쳤습니다. 그밖에도 대부분의 모델에서 정밀도(Precision)는 비교적 높지만 재현율(Recall)은 현저히 낮은 경향을 보였습니다. 이는 모델이 프로파간다라고 판단한 경우에는 비교적 정확하지만, 실제 존재하는 프로파간다 사례 상당수를 놓치고 있다는 것을 의미합니다.
LLM 기반 프로파간다 탐지 실험 결과. 대부분의 모델은 정밀도(Precision)는 비교적 높은 수준을 보였으나, 재현율(Recall)은 전반적으로 낮게 나타났다. 이 둘의 조화평균인 F1 점수 역시 제한적인 수준에 머물렀으며, 실험 설정이 달라져도 이러한 경향은 일관되게 유지된다. 이 결과는 LLM이 자동 탐지기라기보다, 프로파간다 신호를 명확하게 식별하는 보조적 분석 도구에 가깝다는 점을 시사한다.
출처: <Towards a LLM-based Intelligent System for Detecting Propaganda within Textual Content> (Gaeta et al., 2025)
LLM 기반 프로파간다 탐지 실험 결과. 대부분의 모델은 정밀도(Precision)는 비교적 높은 수준을 보였으나, 재현율(Recall)은 전반적으로 낮게 나타났다. 이 둘의 조화평균인 F1 점수 역시 제한적인 수준에 머물렀으며, 실험 설정이 달라져도 이러한 경향은 일관되게 유지된다. 이 결과는 LLM이 자동 탐지기라기보다, 프로파간다 신호를 명확하게 식별하는 보조적 분석 도구에 가깝다는 점을 시사한다. 출처: <Towards a LLM-based Intelligent System for Detecting Propaganda within Textual Content> (Gaeta et al., 2025)

LLM과 프로파간다, 그 미래는?

지금까지 내용을 종합하면, LLM으로 프로파간다를 만들기도 어렵고 반대로 탐지하기도 쉽지 않다고 말할 수 있습니다. 그렇다면 앞으로는 어떨까요? 다양한 관점으로 LLM을 활용한 프로파간다 기법을 분석할 수 있을 텐데요. 다양한 연구 논문 내용을 기반으로 미래의 프로파간다를 좌우할 키워드를 몇 가지 짚어보겠습니다.
첫째, LLM 그루밍(LLM Grooming)입니다. 이는 LLM 자체를 프로파간다 도구로 길들일 수 있는 새로운 방법을. 예를 들어, 악의적인 세력이 웹상의 공개 데이터에 거짓 정보를 대량 심어 놓으면 훗날 LLM이 웹에서 수집한 데이터를 학습하면서 왜곡된 지식을 사실로 받아들이게 됩니다. LLMㅇ이 훈련 단계에서 오염되어 버리면 그 모델이 생성하는 텍스트 곳곳에 편향된 내러티브가 배어 나오게 될 수도 있다는 관점입니다.
둘째, Firehose of Falsehood입니다. 이는 사실처럼 보일 수 없다면, 차라리 무엇이 사실인지 알 수 없도록 거짓 정보들을 대량으로 쏟아부어 버리는 전술입니다. 소방호스에서 물이 마구잡이로 쏟아지는 것처럼, 끊임없이 모순된 주장과 음모론을 쏟아내 혼란을 조장하는 이 방법으로 대량의 정보를 빠른 속도로 퍼뜨려 ‘진짜 뉴스’를 압도해버립니다. LLM은 한 명의 프로파간디스트가 하루에 만들어낼 수 있는 것보다 훨씬 많은 가짜 뉴스 기사, 댓글, 영상을 순식간에 대량 생산할 수 있기 때문에, 개인적으로는 가장 위협적으로 느껴집니다.
마지막으로, 멀티모달과의 결합입니다. 이미 정치권에서 딥페이크와 AI 생성 이미지를 경계하는 움직임은 오래 전부터 보여왔는데요. LLM으로 프로파간다적 텍스트를 생성하고 이를 가짜 영상 등과 결합하여 누구나 가짜 정보를 진짜인 것처럼 퍼뜨릴 수 있습니다. 시각적 정보가 가미되면서 프로파간다적 특성을 더욱 강화하는 것입니다.

몇 년 전부터 계속 ‘무엇이 진실인지 알기 어려운 세상’이라는 생각을 줄곧 해왔습니다. 이는 프로파간다를 생성하는 입장에서는 더 없이 반가운 일일 텐데요. 사실상 가짜 정보로 독자를 설득시키기보다는 정보의 홍수를 일으켜 진실을 찾기 어렵게 만드는 것입니다. 혼란스러운 상황에서 설득의 효과는 커지기도 하면서 동시에 사실과 거짓이 뒤섞인 홍수 속에서 사람들은 모든 정보에 회의적이 되어버릴 수 있습니다. 이를 ‘무장한 회의주의(Weaponised Skepticism)’라고 합니다. 즉 의도적으로 불신을 조장하는 전략인 것입니다. “지금 읽고 있는 이 글에는 거짓 정보가 숨겨져 있을지도 모릅니다.”라고 하는 순간 모든 문장들이 의심스러워 보이겠죠. (저는 최대한 진실을 전달하고자 합니다.)
이제는 어떤 것이 AI로 생성한 것이고, 어떤 것이 사람이 생성한 것인지 구분하기 어려운 지경에 이르렀습니다. 이미 ‘죽은 인터넷’이라는 말이 나올 정도로 AI 생성 콘텐츠가 범람하고 있기도 하고요. 계속되는 창과 방패의 싸움 속에서 점차 위기에 몰리고 있는 기분입니다. 이대로라면 LLM은 아포칼립스를 불러올까요? 아니면 언제나 그랬듯, 우리는 답을 찾을 수 있을까요?