2025/04/27 3

[LLM/정치학] Kim et al (2025) AI로 '로비'를 읽다: 미국 이익집단들의 법안 입장을 대규모로 분석한 첫 연구

📚 AI로 '로비'를 읽다: 미국 이익집단들의 법안 입장을 대규모로 분석한 첫 연구미국 정치는 의원들만 움직이는 게 아닙니다.사실상 정치 무대 뒤에는 다양한 이익집단(Special Interest Groups, SIGs) 들이 있습니다.기업, 노동조합, 환경단체, 인권단체 같은 곳이죠.이들은 법안이 통과되거나 막히도록 로비 활동을 벌입니다.그런데, 이 이익집단들이 어떤 법안을 지지하고, 반대하고, 수정 요구하거나 모니터링하는지를대규모로 직접 관찰한 연구는 지금까지 없었습니다.이 논문은 바로 이 점에 주목했습니다.미국 의회(111대117대, 20092022년)에서 발의된 모든 법안에 대해,12,032개 이익집단이 총 279,104건의 입장(찬성/반대/수정/모니터링) 을 취한 데이터를AI를 활용해서 체계적..

Article Review 2025.04.27

[실험/정치학] Kim (2025) 정당 엘리트의 폭력적 발언이 정치적 폭력 지지에 미치는 영향 (Political Behavior)

📚 연구 소개: 정당 엘리트의 폭력적 발언이 정치적 폭력 지지에 미치는 영향오늘은 Taegyoon Kim의 2025년 신작 논문,"The Effects of Partisan Elites’ Violent Rhetoric on Support for Political Violence" (Political Behavior 게재)를 자세히 소개해보려고 합니다.이 논문은 정당 엘리트(partisan elites) 가 사용하는 폭력적인 수사(rhetoric) 가대중의 정치적 폭력 지지를 실제로 증가시키는지, 그 과정에서 감정(emotions) 이 어떤 역할을 하는지를엄밀한 실험 설계와 분석을 통해 밝혀낸 매우 흥미로운 연구입니다. 📖 배경 연구 (Literature Review)오늘 소개할 논문은 "정당 엘리트..

Article Review 2025.04.27

[LLM] Lu & Smith (2025) LLM이 만든 라벨로 BERT를 학습시켜도 될까?

🤔 LLM이 만든 라벨로 BERT를 학습시키면 무슨 일이 벌어질까?요즘 LLM(대형 언어 모델)들이 만들어낸 라벨을 가지고 작은 모델들(예: BERT나 RoBERTa)을 학습시키는 방법이 인기를 끌고 있습니다.특히 라벨링 비용이 비싸거나, 골드 레이블(진짜 사람이 만든 정답 데이터)이 부족할 때, LLM이 대신 레이블링을 해주면 돈과 시간을 아낄 수 있으니까요.하지만!"LLM이 만든 라벨로 학습시키는 것이 정말 안전할까?"이 질문을 진지하게 고민한 연구가 바로 오늘 소개할 이 논문입니다.뉴욕대학교의 Yucheng Lu와 Kazimier Smith 연구진은 "LLM 라벨을 BERT에 먹일 때 발생하는 위험성"을 꼼꼼하게 분석했습니다.그리고, 우리가 흔히 간과하는 중요한 문제들을 지적했어요.🧪 연구 배경..

Article Review 2025.04.27