4月23日,微软推出了开源轻量级ai模型phi-3系列,宣称这是目前市面上性能最强、最具性价比的“小语言模型”。
该系列的最小版本phi-3-mini虽然参数规模仅有38亿,但却展现了超越参数规模大一倍多的模型的性能,在多项基准测试中比meta的llama 3 8b更优异,而phi-3-small和phi-3-medium这两个版本甚至可以超越gpt-3.5 turbo。
更令人瞩目的是,phi-3-mini对内存的占用极少,可在iphone 14搭载的a16 bionic芯片上实现每秒12个token的生成速度,这意味着这款模型不用联网,可以直接在手机上运行。不仅如此,据透露,phi-3的成本或只有同等性能模型的十分之一。
这样的模型对于网络资源受限或需要离线推理的场景来说,无疑是一大好消息。据微软介绍,印度企业已经开始用phi-3模型来帮助资源紧缺的农民解决生产生活问题。但phi-3系列并非没有缺点,其在事实性知识方面的表现并不理想,不过微软已经找到了相应的缓解之道。
手机上能跑的gpt-3.5级别模型
当地时间4月23日,微软推出了开源轻量级ai模型phi-3-mini,这是其phi家族的第4代模型。phi-3-mini是phi-3系列中最小的,参数只有38亿,未来几周内,微软还将推出该系列的另外两个版本phi-3-small(70亿参数)和phi-3-medium(140亿参数)。
“phi-3模型是现有功能最强大、最具性价比的小语言模型(slm),在各种语言、推理、编码和数学基准测试中,其性能优于相同大小和规模大一级的模型。”微软方面表示。
具体来看,phi-3-mini采用了transformer架构,支持4k和128k上下文窗口,也是同类小模型中第一个支持128k的开源产品。
性能上,phi-3-mini在多项基准测试中超过了参数规模大一倍多的llama 3 8b(80亿参数),而phi-3-small和phi-3-medium超过了很多尺寸大得多的模型,如gpt-3.5 turbo,而后者的参数规模高达1750亿。
图片来源:微软
由于phi-3-mini对内存的占用极少,经过压缩后总体积可以大幅缩减至1.8gb,可在iphone 14搭载的a16 bionic芯片上实现每秒12个token的生成速度,意味着这款模型不用联网,可以直接在手机上运行。
phi-3系列的惊艳表现来自于其训练方式。微软生成式ai研究院(genai resaerch)副总裁sébastien bubeck表示,微软在开发phi-3时力图确保输入的是高质量数据训练集。
微软技术报告显示,开发人员开发phi-3时使用了3.3t tokens数据集,包括经过严格质量筛选的网络公开文档、精选的高质量教育数据和编程代码。此外,还有ai自己生成的“合成数据”,如数学、编码、常识推理、世界常识、心理科学等。高质量数据,再辅以独特的指令微调和rlhf训练,大幅提高了小语言模型的性能。
当然,phi-3系列也有其缺点,这主要体现在事实性知识上,在相关的基准测试如triviaqa上的表现就不如人意。不过,开发语言模型是性能和尺寸的平衡。微软透露,phi-3模型本身参数中没能力存储太多事实和知识,这一缺点的缓解方式是联网接入搜索引擎增强。
可离线使用,成本只有类似性能模型的十分之一
传统观点认为,大语言模型的关键点就在于“大”,参数越大,训练数据体积越大,性能就更强。微软推出轻量级的小语言模型,用意何在呢?
据微软自己的说法,像phi-3这样的小语言模型特别适合以下场景:网络资源受限,需要在终端设备上推理或者离线推理的场景;需要避免延迟,快速响应至关重要的场景;成本受限的场景,特别是那些较为简单的任务。
phi-3能够在手机上离线运行,成本大幅降低,从而大大降低了ai的实际使用门槛。
微软高管eric boyd就表示,企业客户经常发现像phi-3这样的小模型更适合他们的定制应用程序,因为企业的内部数据集本来就规模不大,而且小模型需要的算力更少,成本也更为便宜。
“phi-3的价格不是稍微便宜一点,而是便宜得多,与具有类似功能的其他型号相比,成本差异可能是10倍的范围,”微软的sébastien bubeck对路透社表示。
微软已经在探索如何在资源有限的情况下应用phi-3。据其介绍,总部位于印度的商业集团itc,正在与微软合作将phi-3用于农业领域,共同开发面向农民的应用程序krishi mitra,这一程序的覆盖范围达100万农民。
据悉,农民可以用当地语言向krishi mitra提问,该应用程序会立即以用户的本地语言提供详细的个性化响应,帮助他们解决农作物管理、病虫害控制、土壤健康、水资源保护、天气预报、市场联系和政府计划等相关问题。