Naver发布新款韩语LLM模型,大幅降低资源消耗
来源:万德丰 发布时间:1 天前 分享至微信
近日,Naver发布了一款名为HyperCLOVA X THINK的大型语言模型(LLM),该模型在韩语推理能力上表现出色,性能可媲美OpenAI的GPT-4.1,并在特定运算领域展现更优表现。据韩媒Theelec和韩国经济报道,这款模型为韩国“主权AI”生态系统的构建奠定了基础。

HyperCLOVA X THINK在韩语语言能力测试中表现出色。据Naver介绍,基于“KoBALT-700”基准测试,该模型的得分与OpenAI GPT-o1、DeepSeek R1、阿里巴巴QwQ等模型相当,甚至更优。KoBALT-700是由首尔大学语言学系设计的高端语言学基准测试集,包含700道专业设计的选择题,专为韩语LLM量身打造。

此外,HyperCLOVA X THINK与视觉编码器结合的视觉-语言模型在韩国大学修学能力试验(KCSAT)理工科测试中达到46.4%的准确率,优于GPT-4.1的40.3%。在韩语效能评估指标“HAERAE-Bench”中,该模型的分数也高于国内外主要开源模型。

值得一提的是,HyperCLOVA X THINK采用Peri-LN Transformer和µP架构等最新算法,大幅减少了GPU等资源的消耗。据研究团队介绍,全球同等级模型通常需要学习18万亿到20万亿个Token,而HyperCLOVA X THINK仅需学习6万亿个Token即可达到同等水平。

[ 新闻来源:万德丰,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论

暂无评论哦,快来评论一下吧!