Deepmind와 OpenAI, 2025 국제수학올림피아드(IMO) 실력 검증: 우리가 생각한 것보다 AI는 더 똑똑한가?
2025년 7월, 세계를 대표하는 두 인공지능 연구소인 구글딥마인드와 오픈AI가 역사적인 성과를 냈습니다. 인공지능 모델이 국제수학올림피아드(IMO)에서 금메달 수준의 점수를 기록한 것입니다. 이 성과는 단순한 상징이 아닙니다. 딥마인드의 Gemini Deep Think와 오픈AI의 추론 모델은 각각 6문제 중 5문제를 풀어내며, 인간 수학 천재들과 어깨를 나란히 하는 점수를 받았습니다.
그렇다면, 왜 IMO가 인공지능에게 그렇게 중요한 시험일까요?
IMO는 단순한 표준화 시험이 아닙니다. 이는 깊은 추상화 능력, 창의적 사고, 논리적 정합성 등 인간 고유의 인지 능력을 시험하는 대회입니다. 이미지 인식이나 언어 예측처럼 방대한 데이터를 기반으로 하는 작업과는 달리, 국제수학올림피아드 문제는 완전히 새로운 해결 방식을 요구하며, 긴 증명 과정을 논리적으로 구성해야 합니다.
이런 문제를 푼다는 것은 AI가 단순한 지식 모방 단계를 넘어서, 고차원적인 논리 사고를 수행할 수 있다는 신호입니다. 즉, AI는 이제 더 이상 지식의 흉내쟁이가 아니라, 창의적인 사고를 하는 독립적 문제 해결자로 진화하고 있다는 뜻입니다.
이 블로그에서는 이 돌파구가 어떤 의미를 가지는지, 두 AI가 어떻게 이 문제들을 풀었는지, 그리고 앞으로 수학이라는 지적 영역이 AI에 의해 어떻게 재정의될지를 깊이 있게 탐구합니다.

(Source: Australian Maths Trust YouTube)
1. 점수 대결: 딥마인드와 오픈AI의 IMO 성적 비교
**2025년 국제수학올림피아드(IMO)**는 AI의 수학적 추론 능력이 어디까지 도달했는지를 전 세계에 보여준 사건이었다. 구글 딥마인드와 오픈AI가 각각 개발한 모델은 IMO 2025 공식 문제를 풀었고, 동일한 35점이라는 놀라운 성과를 기록했다. 그러나 동일한 점수임에도 두 모델이 그에 도달한 전략과 평가 방식은 서로 달랐다.
🎯 딥마인드의 공식 참가: 최초의 AI 금메달
딥마인드는 Gemini Deep Think 모델을 IMO에 공식 참가자로 등록했다. 이 모델은 6문제 중 5문제를 해결해 총 35점을 획득했고, 이는 인간 참가자 기준 금메달 수상 수준이다. 특히 해답은 IMO 공식 심사위원단에 의해 직접 평가되었으며, 논리 정합성과 증명의 명료성 모두에서 높은 평가를 받았다. 인공지능이 IMO에서 공인 금메달을 획득한 첫 사례로 기록되었다.
🎯 오픈AI의 독립적 도전: 비공식이지만 동등한 실력
오픈AI는 공식적으로 IMO에 참가하지는 않았지만, 동일한 문제를 독립적으로 풀고 그 결과를 공개했다. 해답은 IMO 금메달리스트 출신 수학자 3인에게 검토받았고, 결과적으로 딥마인드와 같은 35점을 기록했다. 공식 심사는 아니었지만, 수학 전문가의 엄정한 리뷰를 거쳤다는 점에서 기술적 신뢰성과 투명성은 높게 평가된다. 특히 자연어 기반 논리 전개는 인간 풀이의 흐름을 모방했다는 점에서 의미가 깊다.
📊 성과 비교 표
항목 | 딥마인드 | 오픈AI |
---|---|---|
점수 | 35/42 | 35/42 |
해결 문제 수 | 5/6 | 5/6 |
평가 방식 | IMO 공식 심사 | IMO 메달리스트 검토 |
참가 형태 | 공식 참가 | 독립 평가 |
풀이 방식 | 수식 기반 공식화 + 검증 도구 | 자연어 기반 장문 추론 |
검증 수단 | 자동 정리 검증기 + 전문가 | 전문가 수기 검토 |
이 표는 단순한 숫자 이상의 차이를 보여준다. 딥마인드는 공식성과 기계 검증을 통해 정확성을 확보했고, 오픈AI는 인간에 가까운 사고 흐름을 구현하며 동등한 성과를 거뒀다.
두 모델 모두 가장 어려운 문제에서는 실패했지만, 중~상급 문제에서는 안정적인 논리 전개와 구조 추론 능력을 보여주었다. 특히 정수론과 조합론 문제에서 AI의 수학적 직관과 패턴 인식력이 두드러졌다.
👩🏫 전문가들이 말하는 이 성과의 의미
AI가 IMO 문제를 해결했다는 것은 단순한 기술 시연을 넘어서, 인간 지적 능력의 경계를 확장하는 사건으로 평가된다. 전문가들의 평가는 다음과 같다:
“이제는 단순히 계산 능력을 넘어서, AI가 창의적인 문제 해결과 수학적 논증을 할 수 있다는 점에서 IMO는 중요한 전환점이 되었다.”
— 엘레나 마르코바 박사, IMO 2025 공식 심사위원
“딥마인드는 검증 가능한 자동화의 미래를 보여주었고, 오픈AI는 인간처럼 사고하는 기계의 가능성을 보여주었다. 두 방향 모두 인공지능의 다음 시대를 암시한다.”
— 노아 김 박사, MIT 인공지능 및 수학 인식 연구자
결론적으로, 딥마인드와 오픈AI는 서로 다른 기술 접근 방식으로 동일한 수준의 고차원 수학 문제 해결 능력을 입증했다. 이는 향후 수학 연구, 교육, 산업 현장에서 AI가 인간과 어떻게 협업할지를 결정짓는 분기점이 될 것이다.
2. 접근 방식 비교: 딥마인드와 오픈AI는 어떻게 IMO 문제를 풀었나
동일한 점수를 기록했지만, 딥마인드와 오픈AI는 문제를 해결하는 방식에서 뚜렷하게 다른 철학과 기술적 전략을 보여주었다. 이 차이는 단순한 구현 방식 이상의 의미를 갖는다. 각각이 추구하는 AI의 방향성과 응용 가능성까지 반영하기 때문이다.
🧭 딥마인드: 수학적 공식화와 자동 검증 기반 접근
딥마인드는 Gemini Deep Think를 기반으로 한 자동 형식화(autoformalization) 전략을 채택했다. 이는 IMO 문제를 자연어에서 **형식 수학 언어(formal language)**로 전환한 후, 기호 기반 연산과 **정리 증명 도구(proof assistant)**를 활용해 해결 방안을 생성하고 검증하는 방식이다. 이 접근은 정확성과 논리 정합성을 극대화하며, 인간보다 더 엄밀한 수학적 추론을 가능하게 만든다.
🧭 오픈AI: 자연어 기반 장문 추론으로 접근
오픈AI는 형식 수학 언어를 사용하지 않고, 완전히 자연어 기반의 긴 설명형 증명 방식을 채택했다. 모델은 인간 수학자처럼 문제를 이해하고, 단계별로 논리를 전개하며, 전체 풀이 과정을 말로 서술했다. 외부 도구 없이 내재된 추론 능력만으로 일관된 해답을 도출했다는 점에서 매우 인상적인 성과다. 이 방식은 유연성과 직관적 사고 전개에 강점을 가지며, 교육적 응용이나 협업 도구로 적합하다.
📊 기술 비교 표
항목 | 딥마인드 | 오픈AI |
---|---|---|
접근 방식 | 형식 수학 변환 + 자동 증명 | 자연어 기반 장문 생성 |
주요 도구 | Autoformalizer, Proof Assistant | 없음 (자체 언어 모델 추론) |
검증 방식 | 기계 + 인간 병행 검토 | 인간 전문가 3인 검토 |
강점 | 논리적 엄밀성, 검증 가능한 증명 | 자연스러움, 인간에 가까운 표현력 |
잠재 활용 분야 | 정리 증명, 자동화된 이론 연구 | 교육, 협업, 아이디어 확장 도구 |
🧩 상반된 전략, 수렴하는 목표
딥마인드의 접근은 정형화된 자동화와 기계 검증의 정수를 보여준다. 반면 오픈AI는 인간 중심의 자연 언어 추론과 직관을 무기로 삼았다. 한쪽은 정확성과 증명 가능성을 추구했고, 다른 한쪽은 이해 가능성과 표현력을 강조했다. 그러나 두 경로 모두 IMO라는 고난도 수학 문제 해결에 성공했다는 점에서, AI는 다중 경로로 인간의 지적 능력에 도달할 수 있음을 보여주었다.
이러한 전략의 다양성은 향후 AI가 어떤 문제에 어떤 방식으로 투입되어야 하는가에 대한 실질적인 가이드를 제공하며, **AGI(범용 인공지능)**의 기술 노선을 보다 명확히 분화시킬 것으로 보인다.
3. 전략적 파급력: IMO에서의 AI 성과가 의미하는 것
AI가 IMO 수준의 수학 문제를 해결한 것은 단지 기술적 성취에 그치지 않는다. 이 결과는 국가 경쟁력, 산업 전략, 그리고 AI 발전 경로에 직접적인 영향을 미치는 지정학적 신호로 해석되고 있다. 수학은 과학, 금융, 보안, 설계 등 다양한 분야의 지적 기반 구조를 구성하는 핵심 언어이기 때문이다.
🌍 IMO는 더 이상 청소년 대회가 아니다
국제수학올림피아드(IMO)는 오랜 기간 전 세계 수학 영재들이 겨루는 엘리트형 평가 무대였지만, 이제는 AI의 추론 능력을 검증하는 고도화된 벤치마크로 부상했다. 단순한 수치 연산이나 통계적 패턴 인식이 아니라, 창의적 발상, 수학적 직관, 추론의 깊이까지 평가된다는 점에서 AI가 인간 지능의 핵심 영역에 도달했는지 확인하는 시험장이 된 셈이다.
🌍 AGI 가능성의 실질적 신호
IMO 문제를 해결하려면 단순한 계산 능력 이상이 필요하다. 문제를 해석하고, 정리와 정의를 연결하며, 새로운 증명을 창출하는 능력이 요구된다. 딥마인드와 오픈AI 모두 특화되지 않은 범용 AI 모델을 사용해 이 난관을 넘었다는 점에서, 이는 단순한 기능성 AI가 아닌 **AGI(범용 인공지능)**의 조짐으로 해석된다. 이는 GPT-4 이후의 세대가 탐색과 추론이 필요한 미해결 영역에서도 확장 가능한 지능을 갖추고 있다는 것을 암시한다.
🌍 국가 전략과 산업 경쟁의 새로운 기준
이러한 AI 능력은 단지 연구소의 기술력에 머물지 않는다. 암호해독, 알고리즘 최적화, 로지스틱 설계, 금융 리스크 분석, 신약 분자 모델링 등 수많은 분야에서 IMO급 문제 해결 역량이 국가 안보 및 산업 혁신과 직결된다. 특히 미국과 중국을 중심으로 한 AI 군비 경쟁에서, 수학적 추론 능력은 차세대 기술 우위의 핵심 요소로 부상하고 있다. 딥마인드(구글/알파벳)와 오픈AI(마이크로소프트)의 행보는 곧 글로벌 AI 주도권 전쟁의 전초전이라 볼 수 있다.
🌍 교육과 정책의 리셋 버튼
AI가 수학을 이렇게까지 수행할 수 있다면, 인간의 역할은 무엇으로 이동해야 하는가라는 질문이 생긴다. 교사는 단순 전달자가 아닌 메타인지 훈련자가 되어야 하고, 교육 시스템은 AI와 함께 사고하고 검증하는 능력을 중심으로 재구조화돼야 한다. 동시에, AI가 작성한 수학 증명이 입시나 연구에서 어떻게 평가될 것인지, 국가 차원의 인증과 규제는 어떤 기준을 따라야 하는지에 대한 정책적 대응도 시급하다.
4. 인간과 AI의 IMO 점수 비교에서 배울 점
딥마인드와 오픈AI의 IMO 성과는 단지 기술적 비교를 넘어서, 인간과 인공지능의 사고 차이를 정량적·정성적으로 비교할 수 있는 드문 기회를 제공했다. 동일한 문제를 해결한 두 존재의 접근 방식과 결과를 통해 우리는 인간 지능의 본질과 AI의 한계를 더 명확히 이해할 수 있다.
🚨점수는 같지만, 사고의 결은 다르다
2025년 IMO에서 최고 득점자들은 여전히 인간이었다. 일부 학생들은 **6문제 모두를 풀어 만점(42점)**을 기록했다. 딥마인드와 오픈AI 모두 5문제를 해결해 35점을 기록했지만, 이는 상위권 인간 참가자들과 비슷한 수준일 뿐, 절대적으로 앞서진 않았다. 즉, AI는 이제 인간 최고 수준의 수학적 사고에 진입했지만, 모든 영역에서 인간을 능가하는 단계에는 도달하지 않았다.
🚨 AI가 강한 영역: 피로 없는 반복과 패턴 추론
AI는 다음과 같은 면에서 인간을 앞선다:
- 지치지 않는 반복 시도
- 다양한 풀이 방향을 동시에 시도하는 병렬 사고
- 훈련된 수학적 표현 패턴을 통한 구조 인식 능력
- 전제와 결론을 조합하는 언어 기반 증명 구성 능력
이러한 강점은 AI가 수학 교육의 도우미, 또는 공동 연구 파트너로서 현실적으로 활용될 수 있음을 보여준다.
🚨 여전히 약한 부분: 창의적 문제 해결과 전략적 판단
하지만 AI는 다음의 약점을 드러냈다:
- 비표준 문제 유형이나 문제 간 연결이 필요한 경우 혼란을 보였다.
- 단계를 생략하거나, 잘못된 전제를 전개하는 **논리적 일탈(hallucination)**이 발생했다.
- “이 문제는 해결 가능할까?”와 같은 메타인지적 판단이 결여되어 있었다.
이런 점은 AI가 여전히 목표 달성을 위한 수단에 집중할 뿐, 그 과정에서 스스로 전략을 세우거나 판단을 내리지는 못한다는 증거다.
🚨 협업의 가능성: 경쟁보다 보완의 방향으로
이번 성과는 AI가 인간을 대체할 존재가 아니라, 협업할 존재로 진화하고 있다는 단서를 제공한다. 인간은 직관, 창의성, 전략적 사고를 제공하고, AI는 반복적 계산, 논리 정합성, 다양한 풀이 실험을 지원할 수 있다. 앞으로의 수학 연구와 교육은 “AI 없이 얼마나 잘하는가”가 아니라, “AI와 얼마나 잘 협력하는가”가 핵심 지표가 될 것이다.
5. 앞으로 AI의 수학 능력 발전이 어떤 분야에 영향을 줄까
IMO 수준의 수학 문제를 해결한 인공지능은 이제 단순한 계산기나 언어 생성기를 넘어, 현실 세계의 복잡한 문제를 해결할 수 있는 도구로 진화하고 있다. 이는 과학, 산업, 보안, 금융, 교육 등 여러 분야에서 구조적인 변화를 유발할 잠재력을 갖는다.
🚀 과학적 발견과 이론 모델링의 가속화
물리학, 생물학, 기후과학과 같은 분야는 복잡한 방정식과 수치 모델링을 기반으로 한다. IMO 문제를 풀 수 있는 AI는 다음과 같은 방식으로 과학을 가속할 수 있다:
- 수학 정리 증명 자동화 및 검증
- 복잡한 현상을 설명하는 이론식 도출 및 모델링
- 기존 시뮬레이션을 대체하거나 보완하는 신속한 추론 능력
이는 연구자가 더 빠르게 가설을 검증하고, 새로운 이론을 AI와 공동 창출하는 미래를 앞당길 수 있다.
🚀 설계·엔지니어링·제조 자동화
항공우주, 로봇 공학, 건축 등에서는 최적화 문제, 제약 조건 하의 해석, 공간 구조 계산이 핵심이다. 수학적 추론 능력을 갖춘 AI는 다음과 같은 기여가 가능하다:
- 설계 구조 분석 및 위험 예측
- 조건을 만족시키는 대안적 설계 솔루션 생성
- 기존 해석 툴보다 빠른 수식 기반 검토 및 개선 제안
즉, AI는 단순 반복 업무가 아니라 설계자와 협력하는 창의적 파트너가 될 수 있다.
🚀 사이버보안, 암호화, 금융 분석
IMO에서 다루는 정수론, 조합론, 대수 구조는 실제로 암호 알고리즘, 해시 함수, 금융 모델링과 밀접하다. AI는 다음과 같은 방식으로 영향력을 확장할 수 있다:
- 암호 체계의 수학적 약점 탐지 및 공격 시뮬레이션
- 고도화된 위험 모델링 및 이상 탐지 알고리즘 생성
- 금융 상품 설계 및 규제 대응을 위한 증명 기반 자동화 분석
이러한 기능은 보안과 금융의 AI 활용 수준을 한 단계 끌어올릴 핵심 요인이 될 수 있다.
🚀 인간 중심의 수학 생태계 재구성
AI가 수학을 잘하게 될수록, 인간은 “어떤 수학을 해야 하는가”를 새롭게 정의해야 한다. 교육에서는 문제 풀이보다 사고 전략, 창의적 탐색, AI 활용 훈련이 강조될 것이며, 연구자는 AI와 함께 새로운 개념과 구조를 제안하는 설계자 역할로 이동하게 될 것이다. 결국 수학은 AI로 인해 소멸되는 것이 아니라, 인간과 기계가 함께 확장해가는 영역으로 변화하고 있다.
6. 결론: 기계 수학자 시대, 지능의 정의를 다시 묻다
딥마인드와 오픈AI가 IMO 문제를 풀어낸 사건은 단지 ‘AI가 수학을 잘한다’는 차원의 이슈가 아니다. 이는 우리가 **지능(intelligence)**을 어떻게 정의할 것인지, 기계가 사고한다는 것이 어떤 의미인지를 근본적으로 다시 묻게 만든다.
우리는 지금, AI가 무한, 추상성, 증명과 같은 개념을 다루고, 논리적 구조를 해석하고 창출하는 능력을 보게 되었다. 언어 생성, 이미지 처리, 검색 최적화는 이미 익숙한 영역이지만, IMO 문제 해결은 ‘인간의 고등 인지 활동’이 기계로 확장되는 전환점이었다.
아직 인간이 완전히 밀린 것은 아니다. 인간은 여전히 직관, 창의성, 메타인지에서 우위를 보이며, 일부 최고 득점자는 AI보다 나은 성과를 냈다. 그러나 문제는 경쟁이 아니라, AI와 인간이 함께 풀 수 있는 문제의 지평이 달라졌다는 데에 있다.
다가올 IMO에서는 인간과 AI가 함께 문제를 풀거나, 각자의 전략을 비교하는 새로운 형태의 ‘공동 지능 대회’가 등장할 수도 있다. 교육과 연구, 정책과 산업, 그리고 개인의 사고방식까지 지능의 정의는 더 이상 인간에게만 고유한 것이 아니다.
AI는 더 이상 흉내내는 존재가 아니라, 지능의 공동 진화 파트너로 자리잡고 있다. 지금이야말로, 우리는 묻고 답해야 한다.
**“우리는 얼마나 똑똑해야 할까?”**보다 더 중요한 질문은,
**“우리는 AI와 함께 얼마나 똑똑해질 수 있을까?”**이다.
📚 참고한 자료 모음
- DeepMind (2025) “Advanced version of Gemini with Deep Think officially achieves gold medal standard at the International Mathematical Olympiad”
https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad - OpenAI (2025) “OpenAI’s experimental model solves 2025 IMO problems at gold-medal level” https://openai.com/research/imo-gold-math-model
- Reuters (2025) “Google, OpenAI’s AI models win milestone gold at global math competition”
https://www.reuters.com/world/asia-pacific/google-openais-ai-models-win-milestone-gold-at-global-math-competition-2025-07-21 - Simon Willison (2025) “OpenAI’s gold medal IMO performance evaluated by former medalists”
https://simonwillison.net/2025/Jul/19/openai-gold-medal-math-olympiad - Euronews Next (2025) “Did Google DeepMind or OpenAI win gold at the world’s most prestigious math competition?”
https://www.euronews.com/next/2025/07/22/did-google-deepmind-or-openai-win-gold-at-the-worlds-most-prestigious-math-competition
🔑 Meta Keywords
- AI IMO performance
- OpenAI IMO 2025
- DeepMind Gemini Deep Think
- Artificial Intelligence in mathematics
- AI solves math olympiad
- IMO vs AI comparison
- AI mathematical reasoning
- AGI and IMO
- AI benchmark math
- OpenAI vs DeepMind
- 국제수학올림피아드
- AI IMO 성과
- 오픈AI IMO
- 딥마인드 제미니 수학
- 인공지능 수학 능력
- AI 수학 올림피아드
- AI vs 인간 수학 비교
- IMO 금메달 AI
- 범용 인공지능 수학
- AI 벤치마크 수학
- 딥마인드 오픈AI 대결