核心要点👉
- 🚀 320亿参数规模突破:EXAONE Deep成为韩国首个自主推理型AI开源框架
- 📊 双领域性能验证:数学测试达94.5分,代码生成基准突破59.5分
- 📉 参数压缩技术:7.8B模型保留95%性能,2.4B版本实现7.5%端侧部署
- 🔓 GitHub开源布局:全量参数与训练框架开放推动社区协作优化
- 🤖 动态置信度机制:假设生成模块通过多源交叉验证超越传统推理模式
数智朋克获悉,LG AI Research通过技术博客披露其最新研发成果——具备320亿参数的EXAONE Deep模型,标志着韩国在自主推理型人工智能领域实现突破性进展。该框架被定义为智能体型AI(Agentic AI),其核心特征在于构建闭环认知系统,可自主生成假设并通过多维度验证流程完善决策逻辑,成为国内首个开源的复杂推理引擎。
该架构在STEM领域展现出显著优势,其320亿参数规模为数学符号运算与科学问题求解提供了充足的计算空间。性能测试显示,EXAONE Deep在韩国大学修学能力考试数学模块模拟测试中取得94.5分,专业数学评估体系MATH-500的得分更突破95.7分阈值。编程能力方面,该模型在LiveCodeBench基准测试中以59.5分的表现验证了代码生成与逻辑推理的协同进化能力。
针对不同应用场景,研发团队同步推出参数压缩技术路线:EXAONE Deep-7.8B通过知识蒸馏将参数量缩减至原模型的24%,同时保留95%的基准性能;而专为边缘计算设计的EXAONE Deep-2.4B更将模型体积压缩至原始规模的7.5%,在维持86%核心功能的基础上实现本地化数据处理,通过端侧运算有效规避云端传输的安全隐患。
作为开源生态的重要布局,LG将EXAONE Deep全量参数及训练框架在GitHub平台公开,此举不仅降低开发者接入门槛,更通过社区协作推动智能体型AI的迭代优化。模型自主假设生成模块采用动态置信度评估机制,在语义理解层面对多源信息进行交叉验证,这种认知架构使其在复杂问题拆解方面超越传统序列推理模式。