您所在的位置:首页 - 音乐 - 正文音乐

实测:小模型也好用,低价更是杀手锏

付雪
付雪 2024-08-16 【音乐】 788人已围观

摘要北京时间7月18日晚,OpenAI难得推出了一个「小模型」——GPT-4omini。顾名思义,GPT-4omini是OpenAI在GPT-4o基础上进行的一次尝试。官方表示,GPT-4omini在文本智能和多模态推理方面的基准性能超越了GPT-3.5Turbo,甚至在LMSYS「聊天机器人对战」排行榜上还强过GPT-4。此外,GPT-4omini还支持128KToken的长上下文窗口,以及每个请求最多16KToken的输出。简而言之,GPT-4omini可以记忆比GPT-3.5Turbo长得多的

北京时间7月18日晚,OpenAI难得推出了一个「小模型」——GPT-4omini。

顾名思义,GPT-4omini是OpenAI在GPT-4o基础上进行的一次尝试。官方表示,GPT-4omini在文本智能和多模态推理方面的基准性能超越了GPT-3.5Turbo,甚至在LMSYS「聊天机器人对战」排行榜上还强过GPT-4。

此外,GPT-4omini还支持128KToken的长上下文窗口,以及每个请求最多16KToken的输出。简而言之,GPT-4omini可以记忆比GPT-3.5Turbo长得多的内容和对话,还能在单次输出更长的回答。

不过GPT-4omini的核心,还是提供更好的成本效益。

根据OpenAI指出,GPT-4omini不仅性能更强,价格也来到了「白菜价」。具体来讲,GPT-4omini每百万个输入Token的定价是15美分(约合人民币1.09元),每百万个输出Token的定价是60美分(约合人民币4.36元):

比GPT-3.5Turbo便宜超过60%。

对普通用户来说,更重要的是GPT-4o将在ChatGPT中全面替代GPT-3.5Turbo,免费用户也能使用。到今天(7月19日)早上,小雷已经在ChatGPT看到了GPT-4omini,而不是GPT-3.5。

图/雷科技

另据VentureBeat采访,OpenAI产品负责人兼API部门主管OlivierGodement表示,GPT-4omini将在今年秋天通过苹果的AppleIntelligence,为旗下的移动设备和Mac设备提供服务。

不过这里还有一个可能存在的误解,尽管GPT-4omini比GPT-4o等大模型要小得多,但其规模依然比手机上搭载的端侧大模型(基本不超过7b)大得多。因此,在iOS18等系统上,GPT-4omini还是通过云端而非本地的形式提供服务。

GPT-4omini,更好用更便宜的GPT

OpenAI发布GPT-4omini之后,很多人最先关心的一个问题可能是:GPT-4omini,相比GPT-4和GPT-4o用起来的表现如何?

用一个例子来简单说明下,分别询问通过这三个模型询问ChatGPT:「介绍下OpenAI最新发布的GPT-4omini模型。」

在生成结果上,GPT-4omini的回答并不包含任何数据,内容相对空洞,但相关描述基本正确。考虑到OpenAI指出GPT-4omini只具有截至2023年10月的知识,且在ChatGPT中不支持联网,可以说明GPT-4omini是从命名作出的「推测」。

GPT-4omini,图/雷科技

相比之下,GPT-4(未经联网搜索)告诉我「OpenAI并没有发布名为『GPT-4omini』的模型」,直到主动要求联网搜索,才真正开始介绍。不过即便如此,GPT-4还是没有明显超出GPT-4omini生成的答案,就算明确问它「成本有多低」,也没能给出让人满意的答案。

GPT-4,图/雷科技

至于GPT-4o(自动联网搜索),作为目前OpenAI旗下甚至全世界最强大的模型,其表现毋庸置疑。更详略得当的介绍、更确凿的数据和引用链接,都让它能够继续稳坐大模型的头把交椅。

GPT-4o,图/雷科技

简单总结一下,GPT-4omini相比之前的GPT-3.5有着明显的进步,甚至相比GPT-4也有一定优势。虽然我目前的几个简单测试基本符合OpenAI和LMSYS排行榜给出的结论,但要下最终结论还是太早。如果大家有需求,后续可以做更全面的对比。

另外,OpenAI也公布GPT-4omini在不同基准下的「跑分成绩」,以供参考:

图/OpenAI

总体来看,相比Gemini1.5Flash、Claude3Haiku这两个同样主打「性价比」的模型(由超大模型衍生),GPT-4omini的优势还是比较明显,尤其是在MGSM(数学推理)、MATH(数学解决)、HumanEval(代码生成)等方面。

同时OpenAI还表示,GPT-4omini在API中支持文本,之后还会逐步增加图像、视频和音频的输入输出支持,且得益于与GPT-4o共享的改进Token生成器,处理非英语文本现在更加经济高效。

在GPT-4omini推出之后,马上就有海外和国内的开发者计划切换到GPT-4omini试试,比如前爱范儿副总裁兼首席设计官@Ping.开发的AI语音笔记App「闪念贝壳」:

图/X@Ping.

事实上,对于GPT-4omini来说,现阶段最核心也最重要的用户是API面向的开发者,而非ChatGPT面向的普通用户。

OpenAI为什么要推出GPT-4o?

对于OpenAI来说,推出GPT-4omini是一件比较反常的事情,因为在此之前,从GPT-1/2/3、GPT-3.5到GPT-4、GPT-4o,OpenAI都是在推出更强的大模型,冲击机器智能的天花板。就算是Turbo系列,也是同等性能下优化速度和成本。

但在GPT-4omini上,OpenAI选择了缩小模型规模、降低模型性能,以实现更具成本效益的生成式AI模型。

问题在于,在OpenAI之前,很多大模型厂商从一开始就是「大中小模型」并进的策略,就算是谷歌Gemini和AnthropicClaude,也都分别推出Gemini1.5Flash和Claude3Haiku。

对此,OlivierGodement的解释是,OpenAI专注于创建更大、更好的模型,如GPT-4,这需要大量的人力和计算资源。不过随着时间的推移,OpenAI注意到开发人员越来越渴望使用较小的模型,因此公司决定投入资源开发GPT-4omini,并于现在推出。

「我们的使命是使用最前沿技术,构建最强大、最有用的应用程序,我们当然希望继续做前沿模型,推动技术进步,」OlivierGodement在采访中说,「但我们也希望拥有最好的小模型,我认为它会非常受欢迎。」

简单来说,就是优先级的问题。但在优先级的背后,是越来越多公司偏好中小型的生成式AI模型。

WSJ近期的一篇报道,就援引多家公司高管以及GoogleCloud全球生成式AI产品上市策略副总裁OliverParker指出,过去三个月,企业正在集体转向更小参数规模的生成式AI模型。

成本当然是最核心的原因。

根据AIGCRank维护的《国内外AI大语言模型API价格对比》榜单:

-GPT-4o每百万个输入Token的定价是5美元(人民币约为36.3元),输出是15美元(人民币约为109元);

-百度文心4.0Turbo的定价是输入30元、输出60元;

-Claude3Haiku的定价是输入是0.25美元(人民币约为1.81元)、输出1.25美元(人民币约为9.08元)。

价格差距,图/雷科技

在确保性能满足需求的前提下,Claude3Haiku「小」模型的成本优势,不言而喻。

被认为引起国内大模型集体降价的「始作俑者」DeepSeek(深度求索),实测:小模型也好用,低价更是杀手锏在与Gemini1.5Flash综合表现相近的情况下,API定价(每百万个)可以做到输入1元、输出2元。阿里通义千问的Qwen-Long,甚至还做到了输入0.5元、输出2元。

对于开发者而言,「成本」和「效益」是大模型应用中最核心的两点。而更低的大模型价格,无疑有助于更多企业和个人开发者在更多场景、更多应用中引入生成式AI,也有助于AI在普通人生活、工作中的普及,正如OliverParker强调的:

我认为GPT-4oMini真正体现了OpenAI让AI更加普及的使命。如果我们希望AI惠及世界的每一个角落,每一个行业,每一个应用,我们必须让AI更加实惠。

但更小的模型,够用吗?

在今年4月举办的百度AI开发者大会上,李彦宏指出,在一些特定场景中,经过精调后的小模型,它的使用效果可以媲美大模型。

随后,阿里前技术副总裁贾扬清在朋友圈表示同意:「我觉得Robin这点说得非常对,在初始的应用尝试过去之后,模型的特化会是一个从效果上和从性价比上更加makesense的选择。」

这不只是国内大模型行业的共识。

「在整个互联网上训练出来的巨型大语言模型可能会严重大材小用。」网络安全、内容分发和云计算公司Akamai的首席技术官RobertBlumofe表示,对于企业来说,「你并不需要一个知道《教父》所有演员、知道所有电影、知道所有电视节目的AI模型。」

简单来说,大模型在朝着「通用化」的方向走了太远,很多应用场景其实不需要大模型的「全能」。

而为了让每一个参数都变得更有价值,大模型厂商还在一直研究更高效的蒸馏、剪枝等模型压缩手段,试图将大型语言模型的「知识」,更多地迁移到更小、更简单的中小型语言模型中。

数据更是关键。

IEEESpectrum,图/雷科技

IEEE(电气电子工程师学会)旗下杂志《IEEE综览》援引专业学者指出,大型语言模型直接采用互联网高度多样化的海量文本进行训练,但不管是微软的Phi模型,还是苹果AppleIntelligent中的模型,都是使用更丰富、更复杂的数据集来训练,具有更一致的风格和更高的质量,也更容易学习。

打个比方,「大」模型相当于凭借着超高的记忆力和计算能力,在互联网这个充斥各种高质量、低质量的「大染缸」中学习;而现在的「小」模型则是直接学习经过筛选、提炼的「教课书」,自然更容易学进去。

不过有意思的是,去年的时候行业更多认为,「小」模型真正的用武之地是在设备端,诸如智能手机、笔记本电脑等计算设备中,但更多厂商和开发者在云端还是更重视「大」模型。

但在过去几个月,「小」模型还没有在设备端真正火起来,也开始成为云端的趋势所在。

究其根本,其实还是目前大模型在实际应用中「成本」与「效益」的不匹配,而「效益」还需要继续摸索、尝试的当下,「成本」就成了必须要解决的主要挑战。

写在最后

大模型不再「参数为王」。

在今年4月举办的WIRED25(《连线》:改变世界的25人)活动上,OpenAICEO山姆·奥特曼(SamAltman)表示,大模型的进步不会来自模型的更大化,「我认为我们正处在巨大模型时代的终结。」

某种程度上,山姆·奥特曼暗示了酝酿已久的GPT-5不会在参数上继续扩大,而是通过算法或数据更进一步提高大模型的「智能」,从而通向AGI(通用智能)。

至于刚刚推出的GPT-4omini,则是代表了另一条路径,一条将AI更快普及到全世界的路径。

但要走通这条路,最核心的问题就是在确保「效益」的同时,尽可能地降低「成本」,让更多开发者用上AI,用更具创意和实际价值的应用,让更多用户从中受益。

而这,可能也是国产厂商最擅长的。

2024上半年,科技圈风起云涌。

大模型加速落地,AI手机、AIPC、AI家电、AI搜索、AI电商……AI应用层出不穷;

VisionPro开售并登陆中国市场,再掀XR空间计算浪潮;

HarmonyOSNEXT正式发布,移动OS生态生变;

汽车全面进入“下半场”,智能化成头等大事;

电商竞争日益剧烈,卷低价更卷服务;

出海浪潮风起云涌,中国品牌迈上全球化征程;

……

7月流火,雷科技·年中回顾专题上线,总结科技产业2024上半年值得记录的品牌、技术和产品,记录过去、展望未来,敬请关注。

Tags: 实测小模型也好用低价更是杀手锏

最近发表

icp沪ICP备2023024866号-6 icp粤公网安备 44030902003287号
取消
微信二维码
支付宝二维码

目录[+]