한국 국가대표로 나선 AI 모델들, 솔직히 어디까지 왔을까?
#한국AI #독자AI파운데이션 #소버린AI #LGAI #SKT_AI #네이버AI #업스테이지 #국가대표AI #LLM분석 #AI트렌드
최근 과학기술정보통신부가 주관하는
「독자 AI 파운데이션 모델 프로젝트」 1차 발표회와 시연이 있었죠.
각 컨소시엄에서 만든 모델들이
허깅페이스(Hugging Face)에 전부 공개되면서
사실상 “한국 AI 국가대표 라인업”이 한 번에 드러났습니다.

이 프로젝트 한다는 얘기 처음 들었을 때는요,
“아무리 돈을 때려박아도
미국·중국 탑티어를 따라갈 수 있을까…?”
이 생각이 제일 먼저 들었습니다.
근데 업계에 있다 보니
✔ 안 볼 수도 없고
✔ 이슈 팔로우도 해야 하고
✔ 마침 각 컨소시엄이 테크니컬 리포트(논문)까지 다 공개했길래
“그래, 한 번 제대로 보자” 하고 하나씩 읽어봤는데요.
생각보다… 꽤 괜찮습니다. 진짜로요.
물론
- GPT
- Claude
- Gemini
같은 글로벌 최상위 모델이랑
정면승부를 할 급은 아닙니다.
근데요,
- 중국 오픈소스 최상위 모델들
- DeepSeek, Qwen 계열
이랑은
비비거나, 일부 영역에서는 오히려 넘는 모델도 있음
솔직히 말해서
“이 정도면… 해볼 만한데?”
라는 생각이 들었습니다.
(국뽕 살짝 추가)

현재 공개된 한국 AI 대표 5종
허깅페이스 트렌딩에도
이 5개가 상위권에 쭉 올라와 있습니다.
- K-EXAONE (LG AI)
- A.X-K1 (SKT)
- HyperCLOVA X Think (네이버)
- Solar Open (업스테이지)
- VAETKI (NC AI)
각 모델은 방향성이 꽤 명확합니다.
한눈에 보는 모델 성격 요약
1️⃣ K-EXAONE (LG AI)
- 범용 성능 최강자
- 수학·코딩 성능이 특히 강함
- 중국 오픈소스 최상위 모델과 거의 동일선상
“정면 승부형”
2️⃣ A.X K1 (SKT)
- 추론 특화
- 수학 문제, 논리 문제에서 강점
- 제한된 자원 대비 효율 미침
“가성비 괴물”
3️⃣ HyperCLOVA X Think (네이버)
- 텍스트 + 이미지 + 문서 이해
- 한국어 맥락, 문화 이해 압도적
- 에이전트형 업무 보조에 적합
“한국형 GPT 업무비서”
4️⃣ Solar Open (업스테이지)
- 의료 · 법률 · 금융 특화
- 실무용, 도메인 특화 성능 최강
- 한국어 전문지식에서 독보적
“전문직 실전용 AI”
5️⃣ VAETKI (NC AI)
- 리소스 대비 성능 효율 강조
- 한국어 지시 이행, 문맥 이해 특화
- 다만 영어·초고난도 추론은 약점
“저비용 고효율 실험작”
복잡한 얘기 한 줄 요약하면
- LG·SKT
→ 중국 오픈소스 LLM 거의 따라옴 (체감상 6개월 차이?) - 네이버
→ 멀티모달 + 에이전트 활용은 지금 써도 될 수준 - 업스테이지
→ 한국어 + 전문 도메인에서는 글로벌급 - NC AI
→ “적은 자원으로 여기까지?”라는 의미 있는 시도
🇰🇷 한국어 AI가 어려운 진짜 이유
한국어는 전 세계 웹 데이터의
👉 약 0.8% 수준입니다.
즉,
- 데이터도 적고
- 맥락도 복잡하고
- 문화 이해까지 필요
그래서 이번 프로젝트에서 공통적으로 보인 전략이,
- 기존 데이터 + 정부 제공 데이터
- 대규모 합성 데이터 생성
- 품질 관리를 위한 자체 분류 모델
- 한국 사회·문화·안전성 벤치마크 자체 제작
👉 “한국어는 한국이 만든다”는 준비는 확실히 느껴졌습니다.
⚖️ 냉정한 종합 평가
긍정적인 부분
- 한국어 이해력은 글로벌 모델보다 확실히 우위
- ‘소버린 AI(데이터 주권)’ 관점에서는 의미 있음
- 실무·산업 적용 가능성 충분
아쉬운 부분
- 영어 기반 초고난도 추론
- 글로벌 서비스 확장성
- GPT-5급과는 아직 격차 존재
👉 “국내용으로는 충분히 강하다.
글로벌 1등은 아직 숙제.”
요즘 논란: “중국 모델 베낀 거 아니냐?”
솔직히 이 얘기 안 할 수 없죠.
- 업스테이지 → GLM 의혹
- 네이버 → Qwen 비전 인코더 사용 인정
- SKT도 비슷한 얘기 나오는 중
개인적인 생각은 이렇습니다.
✔ 아키텍처 벤치마킹은 업계 관행
✔ 이미 검증된 구조 안 쓰는 게 오히려 비효율
✔ 이번 프로젝트 준비 기간은 고작 3개월
다만…
❗ 가중치(weight)까지 유사하다면 얘기가 달라짐
그건 “참고”가 아니라
“그대로 가져왔다”는 의미라
정부가 말하는 AI 주권의 기준이 뭔지
한 번쯤은 명확히 해야 할 것 같긴 합니다.
“한국 AI, 아직 세계 1등은 아니다.
하지만 ‘없다’고 말하긴 어려운 단계까지는 왔다.”
이 정도면
앞으로 2~3년은 충분히 지켜볼 만합니다.
독자AI파운데이션모델, 한국AI, 소버린AI, KEXAONE, AXK1, HyperCLOVAX, SolarOpen, VAETKI, 허깅페이스, 한국형LLM
핑백: 한국 증시, 코리아 디스카운트 탈출 시동|MSCI 선진국 지수 편입 로드맵 정리 - 케케우