Article Review

[LLM/정치학] CSIS + Scale AI (2025) LLM이 외교 정책을 결정할 수 있을까?

Dr. Julia 2025. 3. 14. 02:20

대형 언어 모델이 외교 정책을 결정할 수 있을까?

국제 관계에서 AI의 편향을 측정하는 새로운 실험

최근 몇 년 동안 인공지능(AI), 특히 대형 언어 모델(LLM, Large Language Model)의 발전이 엄청난 속도로 이루어졌습니다. 이러한 기술이 이제는 외교 정책이나 국가 안보와 같은 고위험(high-stakes) 의사결정에도 활용될 가능성이 커지고 있습니다. 하지만, AI가 특정한 정치적 편향을 가지고 있다면 어떻게 될까요? 특정 국가에 대해 공격적인 선택을 더 많이 추천하거나, 어떤 나라의 행동을 더 너그럽게 평가하는 경향이 있다면? 이를 알아보기 위해 연구진은 **CFPD 벤치마크(Critical Foreign Policy Decisions Benchmark)**라는 새로운 실험을 진행했습니다.

이번 연구는 미국의 주요 정책 연구기관인 **전략국제문제연구소(CSIS)**와 AI 기업 Scale AI의 협업으로 이루어졌으며, 가장 최신의 AI 모델 7개(Llama 3.1 8B, Llama 3.1 70B, GPT-4o, Gemini 1.5 Pro, Mixtral 8x22B, Claude 3.5 Sonnet, Qwen2 72B)를 대상으로 국제 외교와 안보 이슈에서 이들이 어떤 결정을 내리는지를 테스트했습니다.


이 연구가 중요한 이유

AI는 점점 더 많은 영역에서 활용되고 있지만, 특히 국가 안보와 외교 정책 분야에서는 신중한 접근이 필요합니다. 예를 들어, AI 기반 도구가 국가 간 외교 협상이나 군사 전략 결정에 영향을 미친다면, 모델의 훈련 데이터나 알고리즘적 편향이 특정한 정치적 방향성을 띠고 있을 가능성을 고려해야 합니다.

연구의 주요 질문들

  1. AI 모델들은 국제 관계 이슈에서 어떤 결정을 내리는가?
  2. 모델마다 편향된 성향을 보이는가?
  3. 특정 국가에 대해 더 강경하거나 더 유화적인 태도를 보이는가?
  4. 국가별 차이가 있는가? 예를 들어, 미국과 중국, 러시아에 대해 다르게 행동하는가?

이러한 질문을 검증하기 위해 연구진은 매우 정교한 방법론을 설계했습니다.

 

대형 언어 모델(LLM)의 외교 정책 결정 방식 분석: 연구 방법 및 연구 결과

이번 연구는 대형 언어 모델(LLM)이 국제 관계와 외교 정책 시나리오에서 어떻게 의사결정을 내리는지를 평가하는 실험입니다. 연구진은 AI 모델들이 특정한 정치적 편향을 가지고 있는지, 그리고 그 편향이 어떻게 나타나는지를 분석하기 위해 **CFPD 벤치마크(Critical Foreign Policy Decisions Benchmark)**라는 새로운 평가 기준을 개발했습니다.

연구의 핵심은 외교 및 국가 안보와 관련된 400개의 시나리오를 활용하여 AI 모델들의 행동을 측정하는 것입니다. 특히, 군사적 대응, 개입 여부, 협력, 동맹 형성과 같은 핵심 외교 정책 결정을 평가하는 데 초점을 맞췄습니다.


연구 방법: AI 모델 평가를 위한 실험 설계

연구진은 **총 7개의 최신 대형 언어 모델(LLM)**을 테스트했습니다.

  • Llama 3.1 8B Instruct
  • Llama 3.1 70B Instruct
  • GPT-4o
  • Gemini 1.5 Pro-002
  • Mixtral 8x22B
  • Claude 3.5 Sonnet
  • Qwen2 72B

1. 평가할 주요 주제(국제 관계의 핵심 영역 4가지)

연구진은 국제 관계(IR)에서 중요한 4가지 영역을 설정했습니다.

  1. 군사적 긴장 고조(Escalation)
    • 국가 간 분쟁에서 AI가 군사적 공격을 선택하는 경향이 있는가?
    • 예시: 특정 국가가 영토 분쟁을 겪을 때, AI는 무력 사용을 권장할 것인가?
  2. 개입(Intervention)
    • AI는 외국의 분쟁이나 인도주의적 위기에 대해 개입을 추천하는가?
    • 예시: 한 국가에서 내전이 발생했을 때, 다른 국가가 군사적으로 개입해야 하는가?
  3. 협력(Cooperation)
    • AI는 국가 간 협력을 지지하는가, 아니면 독자적 행동을 추천하는가?
    • 예시: 국가 간 기후변화 협약 체결 시, AI가 협력을 권장하는가?
  4. 동맹 역학(Alliance Dynamics)
    • AI는 국가 간 동맹을 맺는 것을 추천하는가, 아니면 독립적인 정책을 추진하는가?
    • 예시: 신흥 강대국이 부상할 때, 기존 강대국이 이를 견제해야 하는가?

2. 시나리오 설계 과정

연구진은 총 400개의 외교 정책 시나리오를 만들었으며, 이를 다시 4개의 주제별로 나누었습니다.

  • 각 주제당 100개 시나리오
  • 각 시나리오는 국가 간 관계를 반영하는 실제적인 외교 문제를 기반으로 설계됨
  • 일부 시나리오는 2가지 선택지, 일부는 3가지 선택지를 제공

예시 시나리오:
"A국과 B국이 영토 분쟁을 벌이고 있으며, A국이 B국에 대한 군사 행동을 고려 중이다. A국의 최선의 선택은?"

  • A) 군사적 공격 실행
  • B) 외교적 협상 시도
  • C) 경제적 제재로 압박

연구진은 각 시나리오의 국가명도 조정하여 AI 모델이 특정 국가에 대해 차별적인 대응을 보이는지 평가했습니다. 예를 들어, 은 시나리오에서 "미국"을 "중국"으로 바꾸면 AI의 응답이 달라지는지도 분석했습니다.


3. 데이터 수집 및 모델 평가 방식

연구진은 AI 모델이 각 시나리오에서 제공한 응답을 다음과 같이 분석했습니다.

  1. AI 모델의 선택을 "A, B, C" 혹은 "거부(Refusal)"로 분류
  2. 모델별로 응답을 통계적으로 비교
    • 특정 모델이 다른 모델보다 더 공격적인 선택을 많이 하는가?
    • 협력적인 응답을 더 많이 하는 모델이 있는가?
  3. 국가별 편향 분석
    • AI가 미국, 중국, 러시아 등에 대해 서로 다른 응답을 하는가?
    • 특정 국가에 대해 군사적 개입을 더 추천하는가?
  4. 엔트로피(Entropy) 분석
    • AI 모델의 응답이 얼마나 일관적인가?
    • 응답이 랜덤하게 변하는 경향이 있는가?

연구 결과: AI 모델의 편향과 차이점

연구 결과, AI 모델들이 국제 관계에서 서로 다른 외교 정책 성향을 보였으며, 일부 모델은 특정 국가에 대한 편향을 보이는 것으로 나타났습니다.

1. 군사적 행동 추천 빈도

  • Qwen2 72B, Gemini 1.5 Pro-002, Llama 3.1 8B군사적 행동을 더 자주 추천
  • Claude 3.5 Sonnet, GPT-4o군사적 대응보다 외교적 해결을 추천

예를 들어, Llama 3.1 8B Instruct는 "군사적 공격"을 추천하는 비율이 Claude 3.5 Sonnet보다 26.36% 더 높았습니다.


2. 특정 국가에 대한 차별적 응답

AI 모델들은 국가별로 다른 결정을 내리는 경향을 보였습니다.

  • 중국과 러시아에 대해 덜 개입적이고 덜 공격적인 응답을 함
  • 미국과 영국에 대해서는 개입적이고 공격적인 대응을 더 추천함

예를 들어, 같은 군사적 분쟁 시나리오에서, AI는 미국이 공격하는 것을 더 추천하지만, 중국이나 러시아가 같은 상황일 때는 공격을 덜 추천하는 경향을 보였습니다.


3. 협력적 태도

  • Claude 3.5 Sonnet과 Qwen2 72B는 협력적인 대응을 가장 많이 추천
  • Mixtral 8x22B는 가장 독자적(비협력적)인 응답을 보임

예를 들어, 협력 협정을 맺을지 여부를 묻는 시나리오에서 Claude 3.5 Sonnet은 91.72%의 확률로 협력을 추천했지만, Mixtral 8x22B는 18.59%의 확률로만 협력을 추천했습니다.


4. 개입(Intervention) 경향

  • Qwen2 72B와 Llama 3.1 8B는 군사 개입을 더 추천
  • GPT-4o는 개입을 가장 적게 추천 (28.6%만 개입 추천)

예를 들어, 한 국가에서 내전이 벌어졌을 때 Qwen2 72B는 군사 개입을 50% 이상 추천했지만, GPT-4o는 개입을 추천하는 비율이 28.6%에 불과했습니다.

 

결론 및 시사점

이 연구는 AI 모델이 국제 관계에서 중요한 결정을 내릴 때 편향된 행동을 보일 가능성이 있음을 시사합니다. 특히, AI가 외교 정책 의사결정 과정에서 활용될 경우, 그 편향성이 국가 안보에 심각한 영향을 미칠 수도 있습니다.

다음 단계는 무엇일까요?

  • AI 모델이 훈련된 데이터가 어떻게 편향을 형성하는지 분석해야 합니다.
  • AI를 외교 정책과 같은 중요한 분야에서 사용할 때, 편향을 완화하는 조정 과정이 필요합니다.
  • AI 기반 외교 분석 도구를 사용할 때, 사람이 직접 검토하고 보완하는 "휴먼-머신 협업 시스템"이 필수적입니다.

이 연구는 AI가 단순한 기술이 아니라 정치적, 윤리적 고려가 필요한 도구임을 다시 한번 상기시켜줍니다. AI가 국제 관계에서 신뢰할 수 있는 도구로 자리 잡기 위해서는 앞으로도 많은 연구가 필요할 것입니다.