LLM 23

[LLM/정치학] Kim et al (2025) AI로 '로비'를 읽다: 미국 이익집단들의 법안 입장을 대규모로 분석한 첫 연구

📚 AI로 '로비'를 읽다: 미국 이익집단들의 법안 입장을 대규모로 분석한 첫 연구미국 정치는 의원들만 움직이는 게 아닙니다.사실상 정치 무대 뒤에는 다양한 이익집단(Special Interest Groups, SIGs) 들이 있습니다.기업, 노동조합, 환경단체, 인권단체 같은 곳이죠.이들은 법안이 통과되거나 막히도록 로비 활동을 벌입니다.그런데, 이 이익집단들이 어떤 법안을 지지하고, 반대하고, 수정 요구하거나 모니터링하는지를대규모로 직접 관찰한 연구는 지금까지 없었습니다.이 논문은 바로 이 점에 주목했습니다.미국 의회(111대117대, 20092022년)에서 발의된 모든 법안에 대해,12,032개 이익집단이 총 279,104건의 입장(찬성/반대/수정/모니터링) 을 취한 데이터를AI를 활용해서 체계적..

Article Review 2025.04.27

[LLM] Lu & Smith (2025) LLM이 만든 라벨로 BERT를 학습시켜도 될까?

🤔 LLM이 만든 라벨로 BERT를 학습시키면 무슨 일이 벌어질까?요즘 LLM(대형 언어 모델)들이 만들어낸 라벨을 가지고 작은 모델들(예: BERT나 RoBERTa)을 학습시키는 방법이 인기를 끌고 있습니다.특히 라벨링 비용이 비싸거나, 골드 레이블(진짜 사람이 만든 정답 데이터)이 부족할 때, LLM이 대신 레이블링을 해주면 돈과 시간을 아낄 수 있으니까요.하지만!"LLM이 만든 라벨로 학습시키는 것이 정말 안전할까?"이 질문을 진지하게 고민한 연구가 바로 오늘 소개할 이 논문입니다.뉴욕대학교의 Yucheng Lu와 Kazimier Smith 연구진은 "LLM 라벨을 BERT에 먹일 때 발생하는 위험성"을 꼼꼼하게 분석했습니다.그리고, 우리가 흔히 간과하는 중요한 문제들을 지적했어요.🧪 연구 배경..

Article Review 2025.04.27

[LLM/정치학] Bilotta et al (2025) 정치인의 '탓하기 정치 Blameocracy'는 어떻게 작동할까?

🧠 정치인의 '탓하기 정치'는 어떻게 작동할까?— Blameocracy: 정치 수사에서 원인 귀속 분석정치인들의 말에는 언제나 의도가 숨어있습니다. 누군가를 탓하고, 공을 챙기고, 때로는 그저 감정을 드러내기도 하죠. 그런데 최근 정치 수사에서 중요한 흐름 하나가 있습니다. 바로 "원인 귀속(causal attribution)", 즉 어떤 결과가 왜 생겼는지를 정치인이 자신이나 타인에게 귀속시키는 방식이 점점 더 중요해지고 있다는 것입니다.2025년 발표된 논문 〈Blameocracy〉는 미국 정치인의 트위터 데이터를 바탕으로 이 흐름을 정교하게 측정해냅니다. 그리고 그 결과, 2016년 트럼프 당선 이후 미국 정치 수사에서 '탓하기(blame)'와 '공치사(merit-taking)'의 비중이 확연히 ..

Article Review 2025.04.16

[LLM] Anthropic Team (2025) Claude 3.5는 어떻게 생각할까?

🧠 1. 이 연구는 어떤 내용을 다루고 있나?이 연구는 Claude 3.5 Haiku라는 최신 대형 언어모델(LLM)의 내부 작동 방식을 아주 정밀하게 뜯어보고, 모델이 어떤 사고 방식으로 문제를 해결하는지를 “해석 가능한 회로(circuits)” 수준에서 분석하려는 시도예요.핵심 목표는 이거예요:“모델이 겉으로 보이는 reasoning(추론) 과정을 실제로 내부에서 진짜 그렇게 계산하고 있는가?”이를 위해 연구진은 체인-오브-쏘트 reasoning, 거절(refusal), 계획(planning), 거짓 응답(hallucination) 등 다양한 상황에서 모델이 어떤 내부 피처(feature)를 활성화시키며 답을 만들어내는지 분석했어요.🧩 2. 이 모델의 핵심 작동 방식: 구조와 회로들모델 내부를 들..

Article Review 2025.04.15

[LLM] Dunivin (2025) 질적 연구에서 코드북 만들고 코딩하는 일도 GPT가 대신 해줄 수 있을까?

🤖 대형언어모델 시대의 질적 연구: 코딩을 GPT에게 맡겨도 될까?요즘 ChatGPT 같은 대형 언어 모델(LLM)이 자연어를 무척 잘 다룬다는 소문, 많이 들어보셨죠? 논문 요약부터 창작, 번역까지 척척 해내는데… 그럼 한 가지 질문이 생깁니다.“그럼 혹시 질적 연구에서 코드북 만들고 코딩하는 일도 GPT가 대신 해줄 수 있을까?”이 질문에 아주 정교하고 현실적인 답을 제시한 논문이 나왔습니다. 바로 Zackary Okun Dunivin의 2025년 논문,📄 “Scaling hermeneutics: a guide to qualitative coding with LLMs for reflexive content analysis” 입니다.이 글에서는 이 논문을 토대로, LLM이 질적 코딩에 어떻게 활용될..

Article Review 2025.04.13

[LLM/정치학] Vestergaard(2025) 왜 정당은 그렇게 많은 공약을 하는 걸까? (EJPR)

📘 왜 정당은 그렇게 많은 공약을 하는 걸까?– 선거 공약을 통한 신뢰 전략의 정치학정당들이 선거 때마다 수많은 공약을 쏟아냅니다. 그런데 그 공약들 중 일부는 선거 이후 지켜지지 않기도 하고, 실제로 공약을 어긴 정당은 유권자들에게 벌을 받기도 하죠. 그렇다면 왜 정당은 이렇게 위험부담이 큰 “공약 남발”을 계속하는 걸까요?덴마크 오르후스 대학의 정치학자 Mathias Bukh Vestergaard는 바로 이 질문에 주목했습니다. 그는 11개 나라의 수십 년간의 정당 선거 공약을 분석해, 정당이 공약을 “전략적으로” 사용하고 있다는 점을 밝혀냅니다.🧩 정당은 왜 공약을 하는가?정당이 선거 때 내놓는 공약은 단순한 정치적 주장 이상의 의미를 갖습니다. 선거 공약은 정당이 “미래에 반드시 이 정책을 추..

Article Review 2025.03.31

[LLM/정치학] Kittel (2025) 포퓰리스트들은 더욱 단순한 언어를 쓰는가? (G&O)

독일 국회에서 포퓰리스트는 더 쉬운 말을 할까?📚 Rebecca C. Kittel (2025), Government and Opposition포퓰리스트 정치인은 ‘보통 사람들’을 대변한다고 주장하며, 복잡한 정치 문제를 단순화해 전달하려는 경향이 있다고 알려져 있습니다. 그럼 정말 국회 연설에서 포퓰리스트는 더 쉬운 언어를 사용할까요?Rebecca C. Kittel의 이 논문은 바로 그 질문에 답하고자 합니다. 독일 연방의회(Bundestag)의 30년치(1991~2021년) 연설문 데이터를 바탕으로, 포퓰리스트 정치인들이 비포퓰리스트보다 단순한 언어를 사용하는지, 또 좌우 이념에 따라 차이가 있는지를 실증적으로 분석합니다.결론부터 말하면:👉 포퓰리스트가 반드시 쉬운 말을 쓰는 건 아니다.오히려 우파..

카테고리 없음 2025.03.30

[LLM/질적연구] Than et al (2025) GPT와 LLM이 질적 연구를 어떻게 바꿀까?

인공지능과 질적 코딩의 만남: GPT와 LLM이 연구를 어떻게 바꿀까?질적 코딩, 이젠 AI가 도와줄까?사회과학 연구자들에게 질적 텍스트 분석(qualitative text analysis)은 필수적인 도구입니다. 뉴스 기사, 인터뷰 기록, 연설문 등 방대한 텍스트에서 의미를 추출하려면 연구자들이 직접 읽고 코드(코딩)를 붙여야 했죠. 하지만 이 과정은 매우 시간이 많이 걸리고, 연구 보조원이 여러 명 참여할 경우 일관성을 유지하는 것도 어렵습니다.최근 들어 연구자들은 인공지능(AI), 특히 대형 언어 모델(LLM, Large Language Models)을 활용해 이 문제를 해결하려는 시도를 하고 있습니다. 2022년 OpenAI가 ChatGPT를 출시하면서, 복잡한 프로그래밍 없이도 자연어로 AI와 ..

Article Review 2025.03.14

[LLM/정치학] Fisher et al (2025) AI의 정치적 중립성, 가능할까? 중립성 비교.

AI의 정치적 중립성, 가능할까?완벽한 중립은 불가능하지만, 근접할 수는 있다1. AI는 정치적으로 중립적일 수 있을까?요즘 대형 언어 모델(LLM, Large Language Model)이 점점 더 많은 영역에서 사용되면서, AI가 정치적으로 중립적인지, 혹은 특정한 편향을 가지고 있는지에 대한 논의가 활발합니다. 사람들은 AI가 특정 정당이나 이념을 더 지지하는 방식으로 응답한다면, 그것이 사용자들에게 영향을 미칠 수 있다는 점을 우려하고 있습니다.이 연구에서는 AI의 정치적 중립성이 원칙적으로 불가능하지만, 현실적으로 근접할 수 있는 방법이 존재한다는 점을 강조합니다. 연구진은 철학자 조셉 라즈(Joseph Raz)의 개념을 인용하며, **"완전한 중립이란 존재할 수 없지만, 정도의 차이는 있을 수..

Article Review 2025.03.14

[LLM/정치학] Lin (2025) AJPS- 짧은 텍스트의 의미적 유사성을 측정하는 새로운 방법! 크로스 인코더.

정치학에서 짧은 텍스트의 의미적 유사성을 측정하는 새로운 방법: 크로스-인코더(Cross-Encoders) 활용하기정치학 연구에서 텍스트의 유사성을 측정하는 일은 점점 더 중요해지고 있습니다. 예를 들어, 법안의 내용이 얼마나 유사한지를 분석하여 정책 아이디어의 확산을 추적하거나, 정치인의 연설이 얼마나 비슷한지를 비교하여 정치적 성향을 연구하는 데 활용됩니다. 그러나 기존 방법들은 단순히 단어의 유사성을 비교하는 방식이라, 특히 짧은 텍스트의 경우 의미적으로 같은 내용을 담고 있더라도 단어가 다르면 유사하다고 판단하지 못하는 문제가 있었습니다.이 논문에서는 최근 자연어 처리(NLP) 기술의 발전을 바탕으로 크로스-인코더(Cross-Encoder)라는 새로운 접근법을 제안합니다. 이 방법은 최신 딥러닝 ..

Article Review 2025.03.14

[LLM/정치학] Liu et al (2025) LLM+ 전문가를 활용한 정치 네트워크 데이터의 자동 Annotation

정치 네트워크 데이터의 자동 주석(Annotation): 대형 언어 모델(LLM)과 전문가 지식을 결합한 새로운 프레임워크현대 정치학에서는 국제 협상, 군사 동맹, 무역 관계와 같은 다양한 사회적 네트워크를 분석하기 위해 **장기적 네트워크 데이터(Longitudinal Network Data)**가 필수적입니다. 이러한 데이터는 시간의 흐름에 따라 변화하는 국가 간 관계와 상호작용을 분석하는 데 사용되며, 정책 변화와 국제 정세를 연구하는 핵심 자료가 됩니다.하지만, 이러한 데이터를 구축하는 과정은 어렵고 시간이 오래 걸립니다. 기존에는 연구자들이 **직접 문서를 읽고 네트워크 관계를 수동으로 태깅(annotation)**해야 했고, 최근에는 지도 학습(Supervised Learning) 기반의 머신..

Article Review 2025.03.14

[LLM/정치학] Nikolaev & Papay (2025) 정치 발언 자동분석 방법: 분할(Segmentation)과 라벨링(Labelling)의 혁신적 전략

정치 발언을 자동으로 분석하는 방법: 분할(Segmentation)과 라벨링(Labelling)의 혁신적 전략정치 텍스트 분석은 최근 들어 더욱 발전하고 있으며, 특히 정당의 정책 발표문(Party Manifestos)과 의회 연설(Parliamentary Speeches)을 자동으로 분석하는 방법이 중요한 연구 주제로 떠오르고 있습니다. 정책 발표문은 정치적 입장을 명확하게 정리한 문서이며, 의회 연설은 실시간으로 변화하는 정치적 토론을 반영합니다.기존의 연구들은 이러한 정치 문서들을 분석하기 위해 **지도 학습(Supervised Learning)**과 비지도 학습(Unsupervised Learning) 기법을 혼합해 사용해 왔습니다. 예를 들어, MARPOR 프로젝트는 전 세계 60개국 이상의 정..

Article Review 2025.03.14

[LLM/정치학] CSIS + Scale AI (2025) LLM이 외교 정책을 결정할 수 있을까?

대형 언어 모델이 외교 정책을 결정할 수 있을까?국제 관계에서 AI의 편향을 측정하는 새로운 실험최근 몇 년 동안 인공지능(AI), 특히 대형 언어 모델(LLM, Large Language Model)의 발전이 엄청난 속도로 이루어졌습니다. 이러한 기술이 이제는 외교 정책이나 국가 안보와 같은 고위험(high-stakes) 의사결정에도 활용될 가능성이 커지고 있습니다. 하지만, AI가 특정한 정치적 편향을 가지고 있다면 어떻게 될까요? 특정 국가에 대해 공격적인 선택을 더 많이 추천하거나, 어떤 나라의 행동을 더 너그럽게 평가하는 경향이 있다면? 이를 알아보기 위해 연구진은 **CFPD 벤치마크(Critical Foreign Policy Decisions Benchmark)**라는 새로운 실험을 진행했습..

Article Review 2025.03.14

[LLM/정치학] Timoneda and Vera (2025) LLM의 기억이 Annotation 성능을 향상시키는 방법?

기억하는 AI가 더 똑똑할까? 대형 언어 모델(LLM)의 기억이 데이터 태깅(Annotation) 성능을 향상시키는 방법대형 언어 모델(Large Language Models, LLM)은 점점 더 다양한 연구 분야에서 활용되고 있습니다. 특히 정치학, 사회과학, 심리학 등에서 텍스트를 자동으로 태깅(분류)하는 데 유용하게 사용되며, 인간보다 더 높은 정확도를 보이는 경우도 많습니다. 하지만 지금까지 AI를 활용한 연구 대부분은 **"기억 없는 모델(No Memory)"**을 사용했습니다. 즉, AI는 매번 새로운 문장을 분류할 때 이전에 했던 응답을 기억하지 못한 채 독립적으로 판단해 왔습니다.이 연구에서는 **AI가 과거의 분류 결과를 기억할 수 있다면 성능이 얼마나 향상될까?**라는 질문을 던졌습니다..

Article Review 2025.03.14

[LLM/서베이] Zhang et al (2025) AI가 온라인 설문조사 데이터를 어떻게 바꾸고 있을까?

Generative AI가 온라인 설문조사 데이터를 어떻게 바꾸고 있을까?최근 ChatGPT 같은 생성형 AI(Generative AI) 도구들이 대중화되면서, 연구자들은 한 가지 새로운 고민에 직면하게 되었습니다. 바로, 연구 참가자들이 설문조사에서 AI를 사용하고 있다는 점입니다. 설문조사나 실험에서 참가자들이 직접 자신의 생각을 적어야 하는 개방형 질문(open-ended questions)을 받을 때, 일부 참가자들은 이를 직접 작성하는 대신 AI의 도움을 받아 응답하고 있습니다.이 연구는 바로 이러한 현상을 탐구합니다. 연구자들은 온라인 조사 플랫폼에서 설문을 진행하며, 참가자들이 AI를 얼마나, 왜, 그리고 어떻게 사용하는지 조사했습니다. 그리고 AI가 생성한 응답과 인간이 직접 작성한 응답이..

카테고리 없음 2025.03.14

[LLM] Turtel et al (2025) LLM이 예측력을 향상시키는 방법?

LLM이 스스로 미래 예측을 더 잘할 수 있을까?최근 인공지능(AI)의 발전이 눈부신 가운데, 대형 언어 모델(Large Language Models, LLMs)이 스스로 미래를 예측하는 능력을 향상시킬 수 있을까? 하는 흥미로운 질문을 던지는 연구가 발표되었습니다. 이 논문은 LLM이 인간의 개입 없이 자체 학습을 통해 미래 예측 능력을 개선하는 방법을 제시하고, 그 효과를 입증하고 있습니다.오늘은 이 논문의 핵심 내용을 쉽게 풀어보며, 어떤 방식으로 LLM이 미래 예측 능력을 키울 수 있는지 알아보겠습니다.🤔 왜 LLM의 예측력이 중요한가?기존의 LLM들은 텍스트 생성, 번역, 코딩, 심지어 법률 문서 작성까지 뛰어난 성능을 보이고 있지만, "미래 예측" 능력에서는 아직 인간보다 뛰어나다고 보기 어..

Article Review 2025.02.14

[LLM] Pataranutaporn et al (2025) 저널 리뷰도 AI가 하게될 시대가 올까?

AI가 논문 심사를 대신할 수 있을까? 🤖📄 – 최신 연구 리뷰논문 심사(Peer Review), 다들 한 번쯤 들어봤을 거예요. 학술 논문이 학계에서 공식적으로 인정받기 위해 꼭 거쳐야 하는 과정인데, 문제는 이게 너무 오래 걸린다는 거죠. 경제학 같은 분야에서는 논문 한 편이 심사를 마치고 출판되기까지 최소 6개월~2년이 걸리기도 해요. 게다가 심사를 해 줄 전문가(Referee)들이 부족한 것도 큰 문제예요.그렇다면, AI가 논문 심사를 대신할 수 있을까요? 🤔 최근 MIT와 NTU 연구진이 대형 언어 모델(LLM, Large Language Model)을 이용해 이 문제를 해결할 수 있을지 실험을 진행했어요. 오늘은 그 논문, "Can AI Solve the Peer Review Crisis..

Article Review 2025.02.08

[Survey LLM] Mellon et al (2024) AI가 서베이의 개방형 응답을 어떻게 코딩할까?

AI는 정말 가장 중요한 이슈를 파악할 수 있을까?최근 Research & Politics 저널(2024년 1월호)에 실린 논문 "Do AIs know what the most important issue is? Using language models to code open-text social survey responses at scale"는 대규모 언어 모델(LLM, Large Language Models)이 개방형(open-text) 설문 응답을 얼마나 정확하게 분류할 수 있는지 탐구한 연구다. 이 논문은 AI 기술이 공공 여론 조사 및 사회 과학 연구에서 어떻게 활용될 수 있는지를 실증적으로 검토하며, 특히 인간 코더와의 비교를 통해 AI의 성능을 평가했다. 이번 리뷰에서는 연구의 핵심 내용과 의..

카테고리 없음 2025.02.07

[LLM 정치학] Ncib (2025) 12개의 머신러닝 모델로 정치 텍스트에서 이념 꺼내오는걸 비교해보자!

12개의 머신러닝 모델, 경제 이념을 얼마나 정확하게 분석할까?요즘 정치 텍스트를 자동으로 분석해서 이념을 측정하는 연구가 활발하게 이루어지고 있습니다. 특히 머신러닝(ML)을 활용한 이념 측정 방법이 주목받고 있는데, 과연 어떤 모델이 가장 효과적일까요?University College Dublin의 Jihed Ncib가 발표한 논문 Comparative Insights from 12 Machine Learning Models in Extracting Economic Ideology from Political Text에서는 총 12개의 머신러닝 모델을 비교하여 정치 텍스트에서 경제 이념을 얼마나 정확하게 감지하는지를 평가했습니다. 연구에서는 영국 정당의 공약집(manifesto) 데이터를 사용하여 경제..

카테고리 없음 2025.02.05

[LLM 정치학] Coppolillo et al (2025) - 여러 LLM끼리 대화하게 만들며 편향성을 테스트해보자!

🤖 AI 채팅이 우리를 편향되게 만든다고? 🤯LLM(대형 언어 모델)들의 대화 속 편향을 찾아보자!요즘 챗봇이나 AI 비서와 대화하다 보면, 뭔가 자연스럽게 흘러가는 것 같지만… 혹시 AI가 나도 모르게 특정 방향으로 유도하고 있을 수도 있지 않을까? 🤔대형 언어 모델(Large Language Models, LLM)은 엄청난 양의 데이터를 학습해서 텍스트를 생성하는데, 문제는 그 학습 데이터 속 사회적 편향(bias)까지 그대로 반영된다는 점! 📢이 연구에서는 다중 에이전트 시스템(Multi-Agent System)에서 LLM들이 서로 대화하면서 어떤 편향이 발생하는지를 실험하고 분석했습니다. 특히, "에코 챔버(Echo Chamber)"라고 불리는 동질적인 의견 그룹 안에서 AI들이 어떻게 반..

Article Review 2025.02.05

[LLM 미디어] 팔레스타인 보도에서를 BBC vs. CNN vs. AJ가 다르게 할까?

보도의 인과적 귀속: 팔레스타인 보도에서 원인 생략 편향 분석뉴스 기사의 헤드라인은 독자가 기사를 어떻게 해석할지에 큰 영향을 미쳐요. 그런데, 특정 사건에 대한 인과적 귀속(causal attribution)이 일관되게 생략된다면 어떻게 될까요? 특히 분쟁 보도에서는 이런 생략이 뉴스의 편향성을 반영할 수 있어요. 이 연구에서는 팔레스타인 보도에서 원인 생략 편향(missing cause bias)이 얼마나 존재하는지를 분석했어요.연구 개요연구진은 뉴스 헤드라인에서 인과적 구성이 어떻게 표현되는지를 분석했어요. 이를 위해 세 개의 주요 뉴스 매체인 CNN, BBC, Al Jazeera(AJ)의 이스라엘-팔레스타인 갈등 관련 헤드라인을 수집하고 비교했어요. 또한 우크라이나-러시아 전쟁과 비교하여, 뉴스 ..

Article Review 2025.02.01

[LLM 미디어] Munoz-Ortiz et al (2025) 인구통계배경 prompt가 어떤 영향을 미칠까?

인공지능이 작성한 뉴스, 인구통계 정보가 영향을 미칠까?요즘 인공지능(Large Language Models, LLMs)이 생성하는 텍스트가 점점 인간의 글과 비슷해지고 있어요. 그런데, 만약 우리가 프롬프트(입력 문구)에 특정한 인구통계 정보(나이, 성별, 국적, 소득 수준 등)를 포함하면, 생성된 뉴스 기사에 어떤 영향을 미칠까요? 이 연구에서는 그 궁금증을 해결하기 위해 실험을 진행했어요.연구 개요연구진은 LLM을 사용해 제목과 요약만 제공한 상태에서 뉴스 기사를 생성하도록 했어요. 이때, 프롬프트에 인구통계 정보를 포함했지만, 모델이 해당 정보를 직접적으로 언급하지 않도록 지시했어요. 예를 들어, "이 기사는 30대 남성이 작성한 것처럼 생성하세요"라고 입력하지만, 결과물에는 ‘30대 남성’이라는..

Article Review 2025.02.01

RAG는 무엇이고, Langchain (랭체인)은 무엇일까?

겨울 방학을 맞았던 지난 몇주간, 나는 AI공부에 빠졌다. 내 분야가 아니지만, 방법론적 관심이 있어 여기저기 강의도 듣고 논문도 읽었다. 끊임없이 쏟아져나오는 툴과 패키지에, 지금 배운 지식이 고대 지식이 되는 것은 찰나이지만, 조금씩 조금씩 축적해간다는 즐거움이 있다. 우선 첫 포스팅으로는, 개념적인 포스팅을 해보고자 한다. RAG란 무엇일까? 위키피디아는 이렇게 답한다. AI 모델에 + 정보 검색 기능을 부여하는 기술이다.즉, LLM과의 작용을 활용해서, 정보데이터를 읽고 참조하여 답변을 해낸다는 것이다.그렇다면, RAG과 함께 빈번하게 등장하는 랭체인이란 무엇일까?랭체인은, LLM 이 어플리케이션에 통합되는 것을 쉽게 만들어주는 일종의 "소프트웨어 프레임 워크"다. 가령, 문서를 분석하거나 요약하..

Coding Study 2025.01.08