🧠 정치인의 '탓하기 정치'는 어떻게 작동할까?
— Blameocracy: 정치 수사에서 원인 귀속 분석
정치인들의 말에는 언제나 의도가 숨어있습니다. 누군가를 탓하고, 공을 챙기고, 때로는 그저 감정을 드러내기도 하죠. 그런데 최근 정치 수사에서 중요한 흐름 하나가 있습니다. 바로 "원인 귀속(causal attribution)", 즉 어떤 결과가 왜 생겼는지를 정치인이 자신이나 타인에게 귀속시키는 방식이 점점 더 중요해지고 있다는 것입니다.
2025년 발표된 논문 〈Blameocracy〉는 미국 정치인의 트위터 데이터를 바탕으로 이 흐름을 정교하게 측정해냅니다. 그리고 그 결과, 2016년 트럼프 당선 이후 미국 정치 수사에서 '탓하기(blame)'와 '공치사(merit-taking)'의 비중이 확연히 달라졌다는 것을 보여줍니다.
1️⃣ 왜 '원인 귀속'이 중요한가?
— 정치인의 말에서 "누구 덕?", "누구 탓?"이 핵심이 되는 이유
사람은 태생적으로 *이유(reason)*를 찾는 존재입니다. 무언가 나쁜 일이 벌어졌을 때, 우리는 반사적으로 "이게 누구 탓이지?"를 묻습니다. 좋은 일이 일어나도 마찬가지죠. "이거 누구 덕분이지?"라고요.
심리학자들은 이런 성향을 인지적 본능이라고 설명합니다. 사람은 단순한 정보보다 "이야기(narrative)"를 좋아하고, 이 이야기가 어떤 사건의 원인을 설명해줄 때 훨씬 더 신뢰하고, 잘 기억하고, 강하게 반응한다는 겁니다(Lombrozo, 2012; Sloman & Lagnado, 2015; Chater & Loewenstein, 2016).
경제학자들도 최근에는 **"내러티브 경제학(narrative economics)"**이라는 이름으로 이 현상을 연구하고 있어요. Shiller (2017)는 사람들이 숫자나 통계보다 “이야기”를 통해 세상을 이해한다고 주장했고, Alesina et al. (2023)은 이민과 재분배에 대한 인식이 '팩트'보다도 '내러티브'에 의해 더 강하게 영향을 받는다고 보여줬습니다.
또한, Hüning et al. (2022)의 실험에서는 논리적 설명이 들어간 내러티브가 사람들의 정책 선택에 실질적인 영향을 미친다는 결과도 나왔습니다. 요약하자면, 사람들은 단순한 구호보다 "왜 그런지"를 말해주는 메시지에 더 설득된다는 겁니다.
이러한 맥락에서 정치인의 말을 보면, 단순한 감정 표현이나 선동적인 말보다 더 강력한 게 있습니다. 바로 “이 결과는 나 덕분이야” 혹은 “이 사태는 전부 상대 당 탓이야” 같은 ‘원인 귀속(causal attribution)’입니다.
Bilotta 외 연구자들은 이 지점에 주목합니다. 정치인들이 자신의 공을 챙기고(opportunistic merit-taking), 상대방을 탓하는(blame-shifting) 메시지를 내놓을 때, 유권자들은 그 말을 단순한 감정 표현으로 보지 않고 "일리가 있어 보이는 설명"으로 받아들인다는 것이죠.
물론 causal 메시지는 그 자체로 부담이 있습니다. 아무 말이나 던질 수 있는 건 아니거든요. 상대적으로 신빙성이 있어야 하며, 어느 정도는 책임 있는 위치에 있는 사람만이 말할 수 있는 구조입니다(Ambuehl & Thysen, 2024; Barron & Fries, 2024a).
그래서 causal framing은 **설득력(persuasiveness)**과 신뢰성(credibility) 사이의 균형을 요구합니다. 단순한 “나 잘했지?”나 “쟤가 망쳤어”가 아니라, 그럴싸한 설명이 함께 따라붙을 때, 사람들은 더 쉽게 납득하고, 받아들이며, 때론 자신의 판단까지 바꿔버립니다(Graeber et al., 2024).
이 논문은 이런 맥락에서 정치인의 말 한마디 한마디가 어떻게 설득력 있는 causal narrative로 작동하는지를 측정하고 분석합니다. 즉, 단순히 감정적 메시지로 유권자를 분열시키는 걸 넘어서, 이야기 구조 자체에서 생기는 설득 전략이 어떻게 발전해왔는지를 보여주는 거예요.
결국, 정치 언어의 핵심은 감정적 선동이 아니라 "이유를 만들어주는 사람"이 되려는 경쟁으로 바뀌고 있는 셈입니다. 그리고 그 중심에는 "내 덕"과 "쟤 탓"이라는 **원인 귀속 수사(causal attribution rhetoric)**가 자리하고 있죠.
2️⃣ 어떤 데이터를 어떻게 썼을까?
— 420만 개의 트윗을 분류한 고밀도 텍스트 분석의 모든 과정
자, 이제 정말 중요한 질문이 생깁니다.
“어떻게 수백만 개의 트윗을 보고 ‘이건 공치사야’, ‘이건 남 탓이야’를 구분할 수 있었을까?”
이 논문은 단순히 딕셔너리를 사용하거나 특정 단어가 들어간 문장을 골라낸 게 아닙니다. 오히려 매우 정교한 기계학습 모델을 기반으로 한 “감성 + 인과 귀속” 이중 분류 시스템을 만들어 냈습니다. 한마디로 말하면, ‘이건 누굴 탓하는 말인가?’를 인공지능이 알아보게 만든 것입니다.
📦 데이터: 미 의회 의원들의 공식 트윗 420만 개
- 분석 대상은 2012년부터 2023년까지 미국 상·하원의 모든 의원들이 작성한 트윗 총 4,198,455개입니다.
- 자료는 CongressTweets 프로젝트(2023), Bellodi et al. (2023)을 기반으로 수집했고,
- 여기에 정치인 개인의 성별, 연령, 이념 점수(Nominate Score), 정당, 학력 등 부가 정보도 결합했습니다.
- 최종적으로 900명의 정치인, 1789개의 트위터 계정이 포함됐어요.
📌 참고로 민주당 의원들이 공화당보다 트위터에서 더 활발히 활동하는 경향이 있으며(Fujiwara et al., 2024), 이 데이터셋에서도 트윗 수는 민주당이 더 많습니다.
🧭 정의: "원인 귀속"이란 무엇인가?
이 연구에서 causal attribution은 단순히 "누가 뭘 했어"라는 말이 아닙니다. 아래의 기준을 모두 충족해야 **“causal 트윗”**으로 분류됩니다.
- **정치 행위자(political agent)**의 행동 혹은 잠재적 행동으로 인해
- 어떤 사회적/경제적 결과가 발생했다고 말하는 트윗
예를 들어,
- “바이든의 정책으로 물가가 안정됐다” → ✔️ causal
- “트럼프가 국경 정책을 망쳤다” → ✔️ causal
- “공화당은 부도덕하다” → ❌ 감정적 평가일 뿐, 원인 귀속 아님
즉, **행동(action) → 결과(outcome)**의 인과 관계가 드러나야 하고,
그 책임 주체가 ‘정치적 권한’을 가진 사람이어야 합니다.
이 정의는 **Neyman-Rubin 인과 추론 모델(Neyman, 1923; Rubin, 1974)**에서 착안한 것으로, "이 사람이 없었더라면 이 결과도 없었을 것이다"는 식의 귀속 구조를 내포하고 있어요.
🎯 라벨링: 사람의 손으로 직접 분류한 학습 데이터셋
이렇게 복잡한 정의를 바탕으로, 연구진은 먼저 약 4,000개의 트윗을 사람이 직접 분류했습니다.
- 라벨링 기준: 각 트윗에 대해
- 인과 관계가 있는지 (Causal vs. Non-causal)
- 어조가 긍정적인지/부정적인지/중립적인지 (Tone: Positive, Negative, Neutral)
→ 이를 합쳐서 최종적으로 **Merit (공치사) / Blame (탓하기) / None (기타)**로 분류!
- 예시:
- “우리가 통과시킨 법안 덕분에 청년 일자리가 늘었습니다.” → Merit
- “그들이 막은 법안 때문에 지금 이런 사태가 난 겁니다.” → Blame
- “오늘은 법안 투표일입니다.” → None
- 라벨링 신뢰도: Fleiss' Kappa = 0.64로 꽤 높은 일치도를 보였습니다.
특히, 530개의 트윗은 3명이 공동으로 분류해 신뢰도를 검증했어요.
🧠 분류기: RoBERTa 언어 모델을 활용한 머신러닝
— 정치인의 트윗 속 ‘공치사’와 ‘남 탓’을 인공지능이 어떻게 구분할까?
정치인의 트윗 수백만 개를 읽고 “이건 자기 자랑이다”, “이건 상대 탓이다”, “이건 그냥 정보 전달이다”라고 구분하는 작업을 인간이 한다면? … 글쎄요, 아마 수십 명의 연구자가 몇 달을 붙잡아도 모자랄 겁니다.
그래서 이 논문에서는 사람의 직관과 기준을 기계에게 학습시켜서 자동으로 분류하도록 했습니다. 여기서 핵심이 되는 도구가 바로 RoBERTa 모델이에요.
📌 RoBERTa란?
RoBERTa는 문장을 사람처럼 읽고 이해하는 AI 모델이에요.
- 정확히는 BERT 계열의 사전학습(pre-trained) 언어모델로,
- 문장 안의 단어, 문맥, 뉘앙스를 종합적으로 고려해 문장의 의미를 파악합니다.
- 이름은 “Robustly Optimized BERT Approach”의 줄임말입니다.
이 논문에서 사용된 건 그 중에서도 RoBERTa-large,
즉 성능이 높은 대형 모델이에요.
그런데 여기서 끝이 아닙니다. 이 RoBERTa 모델은 특별한 사전학습을 받았어요:
📍 154 million개의 트위터 데이터로 미리 훈련된 버전(TimeLMs)
→ 트위터 특유의 짧은 문장, 줄임말, 해시태그, 감정 표현 등을 훨씬 잘 이해함!
(Loureiro et al., 2022)
🧑🏫 그럼 AI는 어떻게 '공치사'와 '남 탓'을 배울까?
기계에게 분류 기준을 가르치기 위해, 연구자들은 총 3,958개의 트윗을 사람이 직접 보고 분류했습니다.
- 이건 공치사 (Merit)
- 이건 남 탓 (Blame)
- 이건 그냥 정보 전달이야 (None)
이렇게 직접 분류한 데이터를 **훈련 데이터(training set)**라고 부릅니다.
→ AI는 이 데이터를 바탕으로 “이런 문장이 나오면 남 탓일 가능성이 높다”는 패턴을 학습합니다.
그리고 이걸 바탕으로 완전히 새로운 트윗이 등장해도
“이건 남 탓이야!”
“이건 자기 자랑이네?”
하고 스스로 판단할 수 있게 되는 거죠.
⚙️ 모델 학습 과정은 어떻게 진행됐을까?
- 데이터셋 나누기
- 전체 3,958개의 라벨링 트윗 중
→ 80%는 학습용 (train set: 3,166개)
→ 20%는 성능검증용 (validation set: 792개)
- 전체 3,958개의 라벨링 트윗 중
- 모델 파인튜닝(fine-tuning)
- 이미 훈련된 RoBERTa 모델에 우리의 학습 데이터를 추가로 학습시킴
- 총 10회(epoch) 반복 학습
- 학습 중 F1 스코어가 가장 높았던 지점에서 모델 성능을 고정
- 출력 결과
- 각 트윗에 대해 Merit / Blame / None 중 하나를 선택
- 예: “우리가 법안을 통과시켰습니다” → 높은 확률로 Merit
“상대 당이 실패했습니다” → 높은 확률로 Blame
- 정확도 평가
- 정확도 (Accuracy): 83%
- F1-score: 0.84
- Matthews Correlation Coefficient (MCC): 0.73
→ 기존 텍스트 분류 연구에서 보기 드문 높은 성능이에요.
🔁 불확실한 경우는 어떻게 처리할까?
모델이 어떤 트윗을 보고 두 가지 답 사이에서 헷갈리는 경우, 예를 들어
- Merit: 48%
- Blame: 46%
- None: 6%
이럴 때는 가장 높은 확률인 Merit로 분류합니다.
다행히도 이런 “헷갈리는 경우”는 거의 없었다고 해요. (확률 분포가 뚜렷하게 한 쪽으로 기울어짐)
🔄 보조 모델로 ‘인과성(causality)’만 따로 측정하기도!
메인 모델은 Merit / Blame / None 세 가지를 동시에 구분하지만,
실험적으로 “Causal vs Non-causal”만 구분하는 보조 모델도 만들었어요.
→ 이 보조 모델과 메인 모델의 결과를 비교했더니, 상관계수 0.9로 거의 완벽하게 일치!
→ 즉, Merit 또는 Blame으로 분류된 트윗은 거의 다 인과적 발언이었다는 뜻입니다.
🧩 최종 분석 변수 만들기
- Causality (이 트윗이 인과적 발언인가?)
- Merit 또는 Blame이면 1, 아니면 0
- Blame (인과 트윗 중, 이게 Blame인가?)
- Merit이면 0, Blame이면 1
- None이거나 causal이 아니면 결측(NA)
이 변수들을 활용해,
→ 시간 흐름에 따른 인과 발언 비율
→ 정당/권력 상태별 공치사·남탓 전략
→ 유권자 신뢰도와의 연관성
등을 정밀하게 분석합니다.
✅ 요약하자면...
- RoBERTa는 트윗을 사람처럼 이해하는 AI
- 사전 학습된 모델에다가 직접 라벨링한 데이터를 넣어 정치인의 인과적 발언을 자동 분류
- 기존 감성분석보다 훨씬 정교한 방식으로,
“누가 누구를 탓했는가”, **“누가 본인 공을 강조했는가”**를 대규모로 분석할 수 있게 만든 것입니다.
🧪 추가 검증: 진짜 공치사/탓하기 맞는지 확인
모델이 잘 작동하는지 여러 방법으로 검증합니다.
- 내부 타당도
- Blame 트윗은 제3자(상대 정당/대상)를 겨냥하고,
- Merit 트윗은 자기 자신이나 소속 당을 강조합니다.
- 실제로 사용된 대명사 빈도, 정당 언급 비율, 과거형/미래형 동사 비율 등을 분석한 결과도 기대와 일치합니다.
- 외부 타당도
- 다른 연구에서 만든 “공치사(credit claiming)”와 “정책 공격(policy attack)” 지표와도 상관관계가 높음
→ Causality: r = 0.51
→ Blame: r = 0.72 (Westwood et al., 2024)
- 다른 연구에서 만든 “공치사(credit claiming)”와 “정책 공격(policy attack)” 지표와도 상관관계가 높음
- 기존 텍스트 특성과 비교
- Sentiment (Hutto & Gilbert, 2014), Emotionality (Gennaro & Ash, 2022), Moral Vocabulary (Enke, 2020)와는 별개의 차원이라는 것을 입증
- 즉, 감정적인 말과 인과 귀속의 말은 다릅니다.
📊 변수 생성: 분석에 활용된 두 가지 핵심 지표
- Causality: 해당 트윗이 '공치사' 혹은 '탓하기' 중 하나에 속하는 경우 1, 아니면 0
→ 얼마나 많은 트윗이 causal framing을 사용하는지를 보는 변수 - Blame: causal 트윗 중에서 'blame'인지(=1) 아니면 'merit'인지(=0)를 구분
→ causal framing 내에서 탓하기가 얼마나 많은지를 보는 변수
👉 이 두 변수는 각각 전반적인 원인 귀속 사용 빈도와 그 안에서의 수사 전략을 분석하는 데 핵심적으로 사용됩니다.
정리하자면…
- 이 연구는 단순히 "트윗에서 부정적인 말을 찾아내는 감정 분석"이 아닙니다.
- 사람의 손으로 정교하게 분류한 데이터를 기반으로, 트위터 특화 언어 모델을 학습시켜
- 정치인이 원인을 누구에게 귀속시키는지, 그 태도가 긍정인지 부정인지까지 정밀하게 분류한 것입니다.
다음 3️⃣번에서는 이렇게 정제된 데이터를 바탕으로, 실제로 정치 언어가 어떻게 바뀌었는지를 보여줍니다.
그런데 스포일러 하나만 하자면... 2016년 트럼프 당선 이후, 모두가 '탓하기'에 눈을 떴습니다.
3️⃣ 진짜 결과: 정치인의 언어는 어떻게 변했나?
— 2016년을 기점으로 미국 정치 언어에 '인과 귀속'이 폭발적으로 증가했다
가장 충격적인 발견 중 하나는, 정치인의 트윗에서 인과적 언어 사용이 2016년 미국 대선을 기점으로 급격히 늘어났다는 사실입니다.
📊 데이터로 보면:
- 오바마 집권기(2012~2016): 인과적 트윗 비율 약 20%
- 바이든 집권기(2020~2024): 약 40%
→ 두 배 이상 증가한 셈이죠!
이 증가가 단지 새로운 정치인들이 등장해서 생긴 변화일까요?
연구진은 이를 **'구성 변화(compositional change)'**가 아닌 **'전략적 언어 전환'**으로 봅니다.
✅ 왜냐하면:
- 같은 정치인 한 사람이 2016년 이후 직접 causal framing을 늘려서 사용하기 때문
- 다루는 이슈(이민, 의료, 세금 등)가 바뀌어서 생긴 현상도 아님 → 이슈 고정 효과 통제 후에도 변화 확인됨
📌 특히 민주당은 2016년 직후 인과적 언어 사용이 급증했고,
공화당은 트럼프 집권 이후 일정한 시간차를 두고 점차 따라가는 양상이 나타났습니다.
이로써 연구진은 2016년을 기점으로 미국 정치 커뮤니케이션이 ‘탓하기’와 ‘공치사’ 중심의 서사 구조로 재편되었다고 분석합니다.
4️⃣ 누가 '공을 챙기고', 누가 '탓하는가'?
— 집권여당은 자기공을, 야당은 남탓을 한다
이제 인과적 언어 안에서 더 깊이 들어가 봅니다.
‘공치사(Merit)’와 ‘남 탓(Blame)’은 어떤 패턴으로 쓰이고 있을까요?
🔍 핵심 결과:
- 집권 여당은 공치사를, 야당은 남 탓을 훨씬 많이 사용
- 이는 단지 정당의 성격이 아니라, **권력의 위치(Power Status)**에 따라 달라지는 전략적 선택임
예를 들어,
- 2016년 트럼프 당선 이후, 공화당이 여당이 되자 Merit 트윗이 급증,
- 반면 민주당은 야당이 되면서 Blame 트윗 비율이 폭등
- 2020년 바이든 당선 후, 다시 정반대의 패턴 등장!
🧩 흥미로운 발견 하나!
- 공을 챙기는 건 비용이 많이 든다?
→ Merit 트윗은 미래 지향적이고 정당화가 필요한 반면,
→ Blame 트윗은 과거 지향적이고 간단하게 비난 가능
📌 이 점 때문에, 야당일수록 '탓하기'가 더 쉽고, 여당일수록 '공치사'는 조심스럽게 사용된다는 설명도 가능합니다.
5️⃣ 감정과 원인 귀속은 어떻게 다를까?
— 감정적 언어는 늘었지만, ‘인과’는 다른 차원의 메시지다
많은 사람들이 “요즘 정치인 말이 너무 감정적이다”라고 말합니다. 그런데 이 연구는 거기서 한 발 더 나아갑니다.
📌 단순한 감정 표현(감정 어휘, 감성 점수 등)과
📌 인과 귀속(Merit/Blame)은 완전히 다른 차원임을 입증합니다.
📊 감정 점수와 인과 귀속 간의 상관관계는 낮고,
특히 Causality는 감정성보다 ‘이성적 설명성(reasoning)’과 더 연관이 있음.
(즉, 이유를 설명하려는 글은 감정적이라기보단 설득 목적에 가깝다는 뜻!)
💬 “그 사람이 싫어요” → 감정
💬 “그 사람이 법안을 막아서 문제가 생겼어요” → 인과 귀속
이처럼 **‘누구 탓이다’라고 말하는 것은 단순 감정 표현이 아닌 ‘원인을 말하는 서사적 전략’**이라는 것을 이 연구는 강조합니다.
6️⃣ 원인 귀속은 유권자에게 어떤 영향을 미칠까?
— 남 탓은 신뢰를 떨어뜨리고, 공치사는 큰 효과 없다
그렇다면, 이런 인과 귀속 메시지를 접한 유권자들은 어떤 반응을 보일까요?
연구진은 **Westwood et al. (2024)**에서 제공한 유권자 설문 데이터를 활용해,
정치인의 Blame/Merit 비율과 유권자의 정치 태도를 연결해 봤습니다.
📌 발견된 흥미로운 상관관계들:
- Blame 트윗이 많을수록
→ 정치에 대한 불신 증가
→ 정부의 효율성 인식 하락
→ 정당에 대한 혐오감 증가 - Merit 트윗은?
→ 큰 긍정 효과는 없거나, 약함
이 결과는 무엇을 말해줄까요?
👉 ‘남 탓’ 메시지는 유권자 감정을 더 강하게 건드리고, 시스템에 대한 신뢰를 떨어뜨리는 방향으로 작동
👉 공치사 메시지는 유권자에게 잘 안 먹히는 보수적인 전략일 수 있음
7️⃣ 뉴스레터에서도 같은 흐름이?
— 트위터뿐만 아니라 이메일 뉴스레터에서도 ‘탓하기’가 늘었다
혹시 트위터만 유난히 과격해서 이런 경향이 나온 걸까요?
연구진은 그 가능성을 점검하기 위해, 의원들이 유권자에게 보내는 공식 뉴스레터 데이터도 분석합니다.
🔍 분석 방식:
- 뉴스레터의 문장을 트윗처럼 문장 단위로 나누고
- 같은 방식의 분류기(RoBERTa)를 적용
📊 결과:
- 뉴스레터에서도 2016년 이후 Blame과 Merit 사용이 급증
- 특히 민주당은 뉴스레터에서도 ‘인과적 메시지’ 사용 비중이 50% 가까이 증가
- 트위터와 뉴스레터 간에 정치인 개인 단위로 유사한 패턴 확인됨 (상관관계 존재)
즉, 이건 단지 SNS용 수사 전략이 아니라,
미국 정치 언어 자체가 구조적으로 ‘탓하기-공치사’ 중심으로 바뀌고 있다는 강력한 증거입니다.
🔍 이 연구가 학계에 주는 기여는?
- 이론적 기여:
기존 감정적 수사(affective polarization)나 도덕 수사(moral language) 분석에서 한 걸음 더 나아가, "탓하기 vs 공치사"라는 원인 귀속의 수사적 구도를 명확히 보여줍니다 (Ansolabehere & Iyengar, 1995; Enke, 2020). - 방법론적 기여:
기존의 unsupervised 방식(LIWC 등)이 놓친 묵시적 causality를, supervised + RoBERTa 방식으로 포착하며 텍스트-기반 내러티브 분석의 새로운 가능성을 보여줍니다 (Ash & Hansen, 2023).
✨ 마무리: 정치의 언어는 점점 '원인 지목 게임'으로
Bilotta 외 연구자들은 이 연구를 통해 현대 정치 담론이 단순히 '좋고 나쁨'의 감정 싸움이 아닌, 점점 더 "왜?"와 "누구 탓?"을 묻는 서사적 게임으로 이동하고 있음을 보여줍니다.
그리고 이 안에서 여당과 야당, 트럼프와 바이든, 민주당과 공화당은 각자의 방식으로 blame과 merit를 조율하며 유권자의 마음을 사로잡고 있죠.
앞으로 우리는 정치인의 발언을 볼 때, 이 말이 단순한 감정인지, 아니면 뭔가를 탓하거나 자랑하려는 causal framing인지 한 번 더 생각해보는 습관을 가질 필요가 있겠습니다.