MiMo-V2.5 — Xiaomi의 오픈소스 옴니모델 AI 모델 완벽 가이드
Xiaomi가 최근 MiMo-V2.5와 MiMo-V2.5-Pro 두 개의 오픈소스 AI 모델을 공개했다. 텍스트, 이미지, 오디오, 비디오를 모두 이해하는 네이티브 옴니모달(Native Omnimodal) 아키텍처를 갖추며, MIT 라이선스로 상업적 사용이 가능하다. 특히 에이전틱(Agentic) 작업에서 기존 폐쇄형 프론티어 모델 대비 40~60% 적은 토큰으로同等 성능을 달성해 업계의 주목받고 있다.
MiMo-V2.5란?
MiMo-V2.5는 샤오미(Xiaomi)가 2026년 4월 공식 발표한 오픈소스 대형 언어 모델이다. 기존 MiMo-V2-Pro의 successor로,了两个 버전으로 제공된다:
- MiMo-V2.5: 총 3,100억 개 파라미터(활성 150억 개) — 멀티모달 전문가
- MiMo-V2.5-Pro: 총 1조 20억 개 파라미터(활성 420억 개) — 복잡한 에이전트 및 코딩 작업 특화

주요 기술 사양
| 스펙 | MiMo-V2.5 | MiMo-V2.5-Pro |
|---|---|---|
| 총 파라미터 | 310B | 1.02T |
| 활성 파라미터 | 15B | 42B |
| 컨텍스트 윈도우 | 100만 토큰 (1M) | |
| 아키텍처 | Sparse MoE (稀疏 Mixture-of-Experts) | |
| 훈련 데이터 | 48조 토큰 | |
| 라이선스 | MIT | |
벤치마크 성능 — 에이전틱 작업에서 최고
MiMo-V2.5-Pro는 특히 에이전틱 작업에서 두각을 드러낸다. ClawEval 벤치마크에서 오픈소스 모델 중 1위를 달성했으며, 동등한 수준의 작업을 수행하는 데 경쟁 모델 대비 훨씬 적은 토큰을 소비한다:
- Claude Opus 4.6 대비 약 40~60% 적은 토큰 사용
- Gemini 3.1 Pro 대비 약 40~60% 적은 토큰 사용
- GPT-5.4 대비 약 40~60% 적은 토큰 사용
GDPVal-AA Elo 벤치마크에서 MiMo-V2.5-Pro는 1581점을 기록하며 Kimi K2.6, GLM 5.1 등을 제쳤다.
실제 작업 성능 — 자율 컴파일러 구현
샤오미 연구팀이 공개한 Pro 모델의 자율 작업 데이터는 특히 인상적이다:
- SysY 컴파일러 (Rust): 4.3시간 만에 완전한 컴파일러를 처음부터 구현 — lexer, parser, RISC-V 백엔드 포함. 672회의 툴 호출로 히든 테스트Suite에서 233/233 만점 달성 (인류 대학생이 보통 몇 주가 걸리는 과업)
- 풀기능 비디오 에디터: 11.5시간, 1,868회의 툴 호출로 8,192줄의 멀티트랙 타임라인 데스크톱 애플리케이션 생성
- 아날로그 EDA 최적화: TSMC 180nm 공정의 FVF-LDO 레귤레이터를 ngspice 시뮬레이션 루프를 통해 반복 최적화, 초기 대비 라인 레귤레이션 22배 개선
이 수치들은 V2.5-Pro가 수천 개의 순차적 툴 호출에 걸쳐 스스로의 메모리를 관리하고 컨텍스트를 지속적으로 형성하는 "harness awareness"를 갖추고 있음을 보여준다.
API 가격 — 초저비용으로 제공
샤오미는 오픈소스 모델とは思えない 경쟁력 있는 가격을 제시한다:
| 모델 | 입력 ($/M 토큰) | 출력 ($/M 토큰) |
|---|---|---|
| MiMo-V2.5 Flash | $0.10 | $0.30 |
| MiMo-V2.5 | $0.40 | $2.00 |
| MiMo-V2.5-Pro (≤256K) | $1.00 | $3.00 |
| GPT-5.4 | $2.50 | $15.00 |
샤오미는 한정된 기간 동안 모든 모델의 캐시 쓰기 비용을 무료로 면제하며, 음성 복제 및 디자인 기능在内的 MiMo-V2.5-TTS 제품군 전체도 무료 제공한다.
어디서 사용할 수 있는가?
세 가지 접근 방식이 있다:
- Hugging Face에서 다운로드: 모델 가중치를 직접 내려받아 로컬 실행 가능. 단, 소비용 GPU의 VRAM으로는 부족하며 고사양 Mac Studio 또는 전문 워크스테이션 필요
- AI Studio: 샤오미 공식 웹사이트에서 온라인으로 사용 가능
- 공식 API:xiaomi.com/mimo에서 API 접근 가능. 해외 개발자의 경우 256K 컨텍스트까지 입력 $1.00/M, 출력 $3.00/M
왜 중요한가?
MiMo-V2.5 시리즈의 등장意義는 three 가지로 요약된다:
- 비용 효율성: Sparse MoE 아키텍처로 활성 파라미터 대비 강력한 성능 제공. 같은 작업을 GPT-5.4 대비 최대 6배 저렴하게 처리 가능
- 오픈소스 민준: MIT 라이선스로 기업도 비상업적 용도 모두 무료 사용 가능. 커스터마이징과 자체 서버 운영 자유 제공
- 에이전트 시대로의 전환: 100만 토큰 컨텍스트와 장기 작업 coherence 능력으로, 단순 채팅을 넘어 완전한 자율 에이전트 구축이 가능해졌다
요약
MiMo-V2.5는 샤오미가 오픈소스 AI 분야에서 던진 강력한一拳이다. 310B~1T 파라미터의 Sparse MoE 아키텍처, 100만 토큰 컨텍스트, 텍스트/이미지/오디오/비디오를 모두 지원하는 네이티브 옴니모달 능력, 그리고 에이전틱 작업에서의 최고 성능이 결합되었다. 특히Claude Opus 4.6, Gemini 3.1 Pro, GPT-5.4 대비 40~60% 적은 토큰으로 동등한 결과를 얻는다는점은,usage-based 과금 시대에 실제 비용 절감으로 직결된다. MIT 라이선스 기반의 상업적 사용 허용과 ultra低廉한 API 가격까지 고려하면, 현재 가장 주목해야 할 오픈소스 AI 모델 중 하나다.
📚 출처
- Xiaomi MiMo-V2.5 — GSMArena: https://www.gsmarena.com/xiaomi_releases_openweight_mimov25_ai_model_claims_frontierlevel_agentic_capability-news-72585.php
- VentureBeat — Open source Xiaomi MiMo-V2.5: https://venturebeat.com/ai/open-source-xiaomi-mimo-v2-5-and-v2-5-pro-are-among-the-most-efficient-and-affordable-at-agentic-claw-tasks
- Hugging Face — XiaomiMiMo/MiMo-V2.5: https://huggingface.co/XiaomiMiMo/MiMo-V2.5
- Gl正经 News (원본 주제): https://news.hada.io/topic?id=29006
'AI 뉴스' 카테고리의 다른 글
| HERMES.md 커밋 메시지 버그: Claude Code 과금 라우팅 함정 (0) | 2026.04.30 |
|---|---|
| DeepSeek-V4 논문 읽기 요약: 100만 토큰 文脈을 열린 가치가 열다 (0) | 2026.04.30 |
| 크롬 프롬프트 API 완벽 가이드 — 브라우저에서 Gemini Nano에 자연어 요청 보내기 (0) | 2026.04.30 |
| ChatGPT가 광고를 제공하는 방식 — 개발자가 알아야 할 핵심 정리 (2) | 2026.04.30 |
| DeepSeek-V4 논문 읽기: 백만 토큰 컨텍스트를 저렴하게 (0) | 2026.04.29 |