ChatGPT的开发者OpenAI已根据Apache 2.0开源许可证发布了两款大语言模型,这两款模型gpt-oss-120b和gpt-oss-20b均为开放权重语言模型,OpenAI称其能以低成本提供强大的现实性能。
据OpenAI介绍,新模型在推理任务上的表现优于同类规模的开源模型,且针对在消费级硬件上的高效部署进行了优化。
OpenAI表示,其gpt-oss-120b模型在核心推理基准测试中与OpenAI o4-mini性能相近,且可在单块80GB的GPU上高效运行,该公司还表示,gpt-oss-20b模型在通用基准测试中可取得与OpenAI o3-mini相似的结果,且仅需16GB内存即可在边缘设备上运行。
GPU制造商英伟达表示,OpenAI的新模型是在英伟达H100 GPU上训练的,且可使用英伟达NIM微服务。英伟达称,该服务可在任何GPU加速基础设施上实现灵活、数据隐私保护和企业级安全的轻松部署。
英伟达表示,通过针对英伟达Blackwell平台进行软件优化,这些模型在英伟达GB200 NVL72系统上运行时,每秒可处理150万个token,以支持AI推理。
OpenUK的CEO阿曼达·布罗克(Amanda Brock)表示:“AI领域开源和开放性的美妙之处在于,它能满足全球辩论各方的需求——它有能力成为一种数字公共产品,为所有人提供便利,而在商业领域,正如已成为大型科技公司宠儿的开源软件一样,它能促进事实标准的形成并推动普及——以Meta的开源创新模型Llama为例。在当今地缘政治格局不断变化的世界中,它能让AI实现全球覆盖和影响。”
开源AI模型的主要优势在于其非封闭性,这意味着任何人都可以对其进行检查,这应该有助于提高其质量、消除漏洞,并在模型训练的源数据不够多样化时,在一定程度上解决偏见问题。开源模型为企业提供了一种方法,可根据组织运行方式对大语言模型进行微调,然而,CIO应权衡使用开源AI模型与专有模型的优势,特别是在部署任何AI模型都会产生大量运营成本的情况下。
Gartner公司高级总监兼分析师哈里塔·坎达巴图(Haritha Khandabattu)表示,由Meta的Llama等大语言模型推动的开源模型,主要应用于受监管行业。她说:“这些行业倾向于尝试使用开源模型,根据部署开源模型的位置和方式,它们可能还需要大量基础设施。”
坎达巴图表示,各组织尝试使用开源模型是为了保持控制权,然而,坎达巴图根据与IT领导者的交流情况表示,部署的总成本“非常高”,定制、运行和维护开源模型需要大量的运营成本和工程成本。
她补充说,用于AI编码等AI应用的开源模型,其性能可能并不总是能与专有模型相媲美,她说,这可能会对企业产生负面影响,如整体员工体验或开发者体验水平降低,以及运营性能下降。
坎达巴图敦促IT领导者考虑开源模型的利弊,这些模型可能无法提供企业所需的企业级IT支持水平。她补充说:“与企业级开源软件一样,它们也存在自身风险。”
企业网D1net(www.d1net.com):
国内头部to B IT门户,旗下运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。旗下运营19个IT行业公众号(微信搜索D1net即可关注)。
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。