카카오, 업데이트된 ‘Kanana-2’ 모델 4종 오픈소스로 추가 공개
- 'MoE' 아키텍처로 효율 혁신, 학습 단계 세분화... Agentic AI 구현 위한 성능도 대폭 향상
- 엔비디아 A100 수준 범용 GPU에서도 원활하게 구동… 모델 실용성 한층 강화
- MoE 구조 기반 수 천억 파라미터 모델 ‘Kanana-2-155b-a17b’ 학습중... 지푸 AI(Zhipu AI) ‘GLM-4.5-Air-Base’와 유사한 성능 기록
[2026-01-20] 카카오(대표이사 정신아)가 자체 기술력을 기반으로 개발한 차세대 언어모델 ‘Kanana-2(카나나-2)’를 업데이트하고, 4종의 모델을 오픈소스로 추가 공개했다고 밝혔다.
‘Kanana-2’는 지난 12월 허깅페이스를 통해 오픈소스로 공개한 언어모델이다. 에이전틱(Agentic) AI 구현에 최적화된 고성능·고효율 기술 경쟁력을 입증한 카카오는 불과 한 달 여 만에 성능을 크게 업데이트한 4종의 모델을 오픈소스로 추가 공개했다.
# 엔비디아 A100 수준 범용 GPU에서도 동작 가능한 실용성 갖춰, MoE 아키텍쳐로 효율 집중하고 학습 단계도 세분화
이번에 공개한 4종의 모델은 고효율과 저비용의 성능 혁신은 물론, 실질적인 에이전틱 AI(Agentic AI)의 구현을 위한 도구 호출(Tool Calling) 능력을 대폭 강화한 것이 특징이다. 특히, 최신 초고가 인프라가 아닌 엔비디아 A100 수준의 범용 GPU(그래픽 처리 장치) 에서도 원활하게 구동되도록 최적화해 중소기업과 학계 연구자들도 비용 부담없이 고성능 AI를 활용할 수 있도록 실용성을 높였다.
Kanana-2 효율성의 핵심은 ‘전문가 혼합(MoE, Mixture of Experts)’ 아키텍처다. 전체 파라미터는 32B(320억 개) 규모로 거대 모델의 높은 지능을 유지하면서도, 실제 추론 시에는 상황에 맞는 3B(30억 개)의 파라미터만 활성화해 연산 효율을 획기적으로 높였다. 또한, MoE 모델의 학습에 필수적인 여러 커널을 직접 개발해 성능 손실 없이 학습 속도는 높이고, 메모리 사용량은 획기적으로 낮추는 성과를 거두기도 했다.
이러한 아키텍처 및 데이터의 고도화 뿐 아니라 데이터 학습 단계도 고도화했다. 사전 학습(Pre-training)과 사후 학습(Post-training) 사이에 ‘미드 트레이닝(Mid-training)’ 단계를 신설하고, AI 모델이 새로운 정보를 배울 때 기존 지식을 잊는 치명적 망각(Catastrophic Forgetting) 현상을 방지하기 위해 ‘리플레이(Replay)’ 기법을 도입했다. 이를 통해 새로운 추론 능력을 추가하면서도 기존 한국어 구사와 일반 상식 능력을 안정적으로 유지할 수 있었다.
카카오는 이러한 기술을 바탕으로 ▲기본(Base) 모델부터 ▲지시 이행(Instruct) 모델 ▲추론 특화(Thinking) 모델 ▲미드 트레이닝(Mid-training) 모델까지 총 4종의 모델을 허깅페이스에 추가로 공개했다. 연구 목적으로 활용도가 높은 미드 트레이닝 탐색용 기본 모델을 함께 제공해 오픈소스 생태계 기여도를 높였다.
# 에이전트 AI 구현 특화... 학습 진행중인 고성능 155b 파라미터 MoE 모델 통해 글로벌 최상위 성능 목표 지향
새로운 Kanana-2 모델의 또 다른 차별점은 단순 대화형 AI를 넘어 실질적인 업무 수행이 가능한 에이전트 AI 구현에 특화됐다는 점이다.
고품질 멀티턴(Multi-turn) 도구 호출 데이터를 집중 학습시켜 지시 이행(Instruction Following)과 도구 호출(Tool Calling) 능력을 대폭 강화함으로써 복잡한 사용자 지시를 정확히 이해하고 적절한 도구를 스스로 선택 및 호출할 수 있도록 했다. 실제 성능 평가에서 동급 경쟁 모델인 ‘Qwen-30B-A3B-Instruct-2507’ 대비 ▲지시 이행 정확도, ▲ 멀티턴 도구 호출 성능, ▲ 한국어 능력 등에서 압도적인 우위를 기록했다.
카카오 김병학 카나나 성과리더는 “새로워진 Kanana-2는 ‘어떻게 하면 고가의 인프라 없이도 실용적인 에이전트 AI를 구현할 수 있을까’에 대해 치열하게 고민한 결과”라며 “보편적인 인프라 환경에서도 고효율을 내는 모델을 오픈소스로 공개함으로써, 국내 AI 연구 개발 생태계 발전과 기업들의 AI 도입의 새로운 대안이 될 수 있기를 기대한다”고 밝혔다.
한편, 카카오는 현재 MoE 구조를 기반으로 거대 스케일의 수 천억 파라미터 모델 ‘Kanana-2-155b-a17b’의 개발을 위한 학습을 진행 중이다. 특히 중국의 인공지능 스타트업 지푸 AI(Zhipu AI)의 ‘GLM-4.5-Air-Base’ 모델 대비 40% 수준의 데이터로 학습했음에도, MMLU(모델의 일반 지능) 등 주요 벤치마크 성능 지표에서 유사한 성능을 보였다. 한국어 질의 응답과 수학 영역에서는 압도적 성능 우위를 기록하기도 했다. 이 밖에도 기존 LLM(Large Language Model) 학습의 표준인 32비트나 16비트를 대신해, 최신 Hopper GPU의 차세대 고효율 포맷인 8비트 방식을 도입해 학습 효율을 극대화하고 있다.
향후 카카오는 글로벌 최상위 수준의 성능을 목표로 하는 파운데이션 모델 개발을 이어가고, 더욱 복잡한 에이전트 시나리오에도 대응할 수 있는 고도화된 AI를 선보일 계획이다. (끝)
참고)
* Kanana-2 오픈소스 모델 다운로드(허깅페이스)
https://huggingface.co/collections/kakaocorp/kanana-2
* Kanana-2 개발기 카카오 테크블로그
(1) https://tech.kakao.com/posts/807
(2) https://tech.kakao.com/posts/808
- 보도자료 발행일 2025.05.23 카카오, 자체 개발 ‘Kanana’ 언어모델 4종 오픈소스 공개... 상업 라이선스 적용
#카카오#카나나#오픈소스공개#언어모델#AI - 보도자료 발행일 2026.01.05 카카오, ‘스스로 생각하고 답변하는’ 한국형 하이브리드 멀티모달 언어모델 공개
#카카오#자체개발AI모델#멀티모달언어모델 - 보도자료 발행일 2025.12.19 카카오, 에이전틱 AI 구현에 최적화된 ‘Kanana-2’ 모델 오픈소스 공개
#카카오#자체개발AI모델#카나나2#에이전틱AI