DIGIPUNK
去投稿
发表于:2025年01月10日

微软发布开源语言模型 Phi-4:小模型实现大突破

数智朋克
发布者:数智朋克
阅读:1 分钟
我要投稿
要点速达👈
  • 🎯 微软发布开源语言模型 Phi-4,140亿参数表现超强。
  • 📊 Phi-4 在基准测试中超越 Llama 3.3 70B 和 GPT-4o Mini。
  • 🧠 模型训练采用高质量合成数据,推理能力显著提升。
  • 💻 未来可优化至个人设备本地运行,支持16K上下文长度。
  • 🌍 数据集中多语言比例达8%,展现全球适用性。

数智朋克消息,微软近日在 Hugging Face 平台上发布了开源语言模型 Phi-4。这款模型以140亿参数规模,展示出超越部分参数更大模型的性能,在多个基准测试中脱颖而出。例如,在数学竞赛问题中,Phi-4 超越了 Gemini 1.5 ProOpenAI 的 GPT-4o,而其规模仅为 Llama 3.3 70B 的五分之一。

Phi-4 的出色表现背后是微软精心挑选的高质量数据集和创新的训练策略。

与依赖网络内容和代码等有机数据的传统模型不同,Phi-4 引入了大量经过设计的合成数据,这些数据集专注于推理和问题解决能力的提升。此外,通过监督微调直接偏好优化,该模型在执行指令时表现出色,并具备高度的安全性和对齐能力。

技术特点与未来展望

  • Phi-4 尚未针对推理进行优化,但未来版本将通过优化和量化,支持在个人电脑等设备上的本地运行。
  • 开发者已可下载工具包,用于微调和部署该模型。
  • 支持16K的上下文长度,为长文本处理场景提供支持。

Phi-4 的训练数据截止至 2024年6月,主要包括公开文档、高质量教育数据和专门为数学、编码与推理创建的合成数据。其中,多语言数据占比约 8%,展现了模型的多语言适配能力。

微软 Phi-4 的推出,展示了小型语言模型在高质量数据支持下的潜力,为资源有限的开发者提供了创新解决方案,成为构建强大 AI 应用的重要参考。

本文链接: https://www.shuzhipunk.com/articles/EvU6xt4atIo
转载请注明文章出处

文章所属标签
微软
Phi-4
小语言模型