허깅페이스 통해 자유롭게 사용가능
크래프톤 '오답 복기 학습'으로 성능↑
|
28일 SK텔레콤은 28일 크래프톤과 공동으로 개발한 70억 파라미터(7B) 규모의 소형 언어모델 △OpenThinker2 △OpenThinker3 △AceReason-Nemotron-1.1을 공개했다고 밝혔다. 해당 모델은 수학 추론과 코드 생성 분야에 특화됐으며, 글로벌 오픈소스 플랫폼인 허깅페이스(Hugging Face)를 통해 누구나 자유롭게 사용할 수 있다.
이번 모델은 크래프톤이 자체 개발한 '오답 복기 학습' 기법을 활용해 성능을 높였다. 오답 복기 학습은 모델이 틀린 문제를 분석하고 정답과 비교해 추론 과정을 개선하는 전략적 학습 방식이다. 이를 통해 미국 수학 경시대회 AIME 25 벤치마크에서 기존 대비 향상된 성능을 기록했다.
SK텔레콤은 데이터 검증과 학습 인프라를 제공하며 모델 품질과 안정성 확보를 지원했다. 회사 측은 이번 협력을 통해 도메인 특화 AI 모델 공동 개발 역량을 입증한 사례라고 평가했다.
양사는 이번 모델을 게임 AI 응용기술에 우선 적용한 뒤, 향후 게임 플레이 분석, 전략 판단 등 고차원 추론 기능으로 확장할 계획이다. 크래프톤은 다양한 규모의 LLM을 지속 개발해 게임 산업 외에도 AI 활용 분야를 넓히겠다는 입장이다.
김지원 SK텔레콤 AI Model Lab장은 "양사의 기술 역량을 결집해 고성능 언어모델을 개발했고, 이는 소버린 AI 전략 실현을 위한 기반이 될 것"이라며 "AI 기술 주권 확보를 위한 협력을 지속할 것"이라고 밝혔다.
이강욱 크래프톤 딥러닝 본부장 역시 "글로벌 수준의 LLM을 공동 개발하며 기술력을 확인했다"며 "앞으로 크래프톤만의 독자적 AI를 다양한 산업군에 적용해 나갈 것"이라고 말했다.