去搜搜
头像
大模型市场迎来爆发时刻?|AI内参
2023-07-25 11:06

大模型市场迎来爆发时刻?|AI内参

文章所属专栏 全球科技纵览·趋势必读 第二季
释放双眼,听听看~
00:00 10:59

作者|赵赛坡

头图|视觉中国


关于 GPT-4 是否变愚蠢的争议,本质上还是大模型应该闭源还是开源的讨论,本期结合 GPT-4 的争议与 Meta 开源模型 Llama 2,进一步分析大模型市场生态与产业链的新变化。


台积电新一季度财报并不出人意料,真正影响市场的是其对三季度的指引,本期将提供三个维度的解析。


本期还将关注:


  • 巨头:微软 Microsoft 365 Copilot 的商业逻辑、苹果的大模型布局;

  • 计算:Google DeepMind 芯片设计算法;

  • 市场:Google 向新闻行业推广大模型、两个不同视角里的 AI 客服案例;


接下来,欢迎和我一起复盘近期围绕产业与智能的行业关键事件。


大模型·巨头


关于 GPT-4 是否变愚蠢的讨论是上周围绕大模型产品的重要议题之一。


在此之前,我在社交媒体、论坛上已经看到很多质疑 GPT-4 能力不断下降的帖子,上周这份来自斯坦福大学与加州大学伯克利分校发布的论文,通过数据层面的挖掘和分析,进一步佐证了这种可能性:GPT-4 正在变得变差。


根据论文,研究人员使用 500 个问题作为测试数据集,分别在 3 月和 6 月两个版本的 GPT-4 模型上进行测试,几个关键结果:


  • 问答正确率大幅下降:3 月版本正确率为 97.6%,6 月版本的结果是 2.4%;

  • 引入“Chain-of-Thought”的效果也在变差:“Chain-of-Thought”就是让模型实现“一步步思考”,这在解决复杂问题——比如编程问题——方面会有巨大提升,3 月份的 GPT-4 版本能够解决 52% 测试数据集问题,6 月版本的结果为 10%;


并不是所有人都认可这篇论文所得出的结论。普林斯顿大学计算机教授 Arvind Narayanan 就认为,与其说这是 GPT-4 能力下降,倒不如说这是 OpenAI 模型调整的方向变化。


OpenAI 产品副总裁 Peter Welinder 否认该公司刻意降低 GPT-4 能力的指责,他给出了一个假设是:“当你更频繁地使用它时,你会开始注意到之前没有发现的问题”。


值得一提的是,OpenAI 宣布将延长两款模型 gpt-3.5-turbo-0301 和 gpt-4–0314 的支持时间至 2024 年 6 月 13 日,理由是“根据开发者的反馈”。


上述质疑、讨论或口水战,本质上还是对 OpenAI 不透明机制的声讨,OpenAI 一直对 GPT-4 的训练数据、架构、权重等遮遮掩掩,这或许是为了保持竞争优势,或许也是一种不自信,就像之前的一份爆料所指,GPT-4 具有可复制性,其他公司完全有机会,通过金钱堆积算力和模型参数,并利用一定的工程能力,“复制”一个新的 GPT-4。


另一方面,大模型能力的评价或评测标准亟待统一,只有在统一标准之下,第三方机构才有能力构建起一个对大模型能力的评价体系;而对于部署大模型的企业来说,一个可量化的模型能力,能够帮助企业调整产品研发方向或进度,而不是现在这样仅仅通过个人使用感受来感知模型能力的变化。


闭源 GPT-4 的一系列问题也进一步放大了开源大模型的价值,也是在上周,Meta 正式发布开源可商用(一定限制条件)的大模型 Llama 2。



正如上文所言,由于缺乏统一的标准,业界很难真正了解 Llama 2 和 GPT-4 的能力对比,但借助 Meta 的影响力以及此前 Llama 的大规模“盗用”,Llama 2 迅速赢得了来自研究机构、开发者以及企业的关注。


更进一步来看,开源的 Llama 2 模型将深刻影响接下来大模型产业的发展。


其一,大模型竞争格局。利用 Llama 2,Meta 为自己树立起了“大模型开源者”的形象,由此形成了和 OpenAI、Anthropic、Google 等一众闭源模型供应商的区分度,开源与闭源的两大阵营基本成形。


其二,大模型应用。鉴于 Llama 2 宽松的使用限制,除了较大的互联网公司之外,其他科研机构或创业公司(也包括中国公司),完全有机会免费使用这个模型,有望形成一个基于 Llama 2 使用、调参、迭代的开发生态,并可能酝酿新的创新机会。


一个值得关注的应用场景是,高通计划 2024 年在手机或 PC 上支持 Meta 的 Llama 2 模型,此举将推动大模型在消费市场的全面普及——只需想象高通芯片在消费市场的占有率,同时还会进一步降低大模型的成本,这或许对英伟达不是一个好消息……


其三,大模型产业链。随着大模型开源应用场景越来越多,如何托管这些模型——云服务还是专属 AI 芯片——的竞争也会变得复杂,至少在现阶段,Llama 2 等大模型会让微软 Azure、AWS 受益。


微软上周不仅宣布与 Meta 建立合作,并通过 Azure 向客户提供 Llama 2 模型,还公布了 Microsoft 365 Copilot 的价格,这款 3 月份亮相的产品也是微软对于未来办公的新定义,基于 GPT-4 的底层驱动,Microsoft 365 Copilot 让 Office 套件拥有了全新的功能,包括但不限于:


  • 根据 Word 文档创建演示 PPT;

  • 根据电子表格数据生成提案;

  • 总结 Outlook 中的电子邮件并撰写回复;


微软为 Microsoft 365 Copilot 设置的价格为 30 美元/月,目前仅限 Microsoft 365 商业版用户,也就是说,原来已经付费使用 Office 产品的客户,还需要额外支付 30 美元/月/人,才能使用这项功能。


微软的这个商业模式的逻辑在于,Microsoft 365 Copilot 构建起了一个安全的大模型使用通道,所有的数据——从原始数据到生成的数据——都在企业内部,这和企业员工使用诸如 ChatGPT 之类的大模型应用完全是两个概念,后者极易造成数据泄露。


微软还未透露面向消费市场的 Microsoft 365 Copilot 何时发布或测试使用,消费市场的普通用户也不是这款产品的目标用户。


长期以来,苹果在 AI 领域都属于“落后者”,而在大模型市场即将迎来大爆发的时刻,苹果的布局如何引发众多关注,目前可以确定的两点:


  • 苹果内部研发了一个名为 Ajax 的大模型训练框架,这会成为苹果众多大模型产品的底层架构;

  • 苹果还在推进类 ChatGPT 的聊天机器人产品研发,也就是所谓“Apple GPT”,最早将于 2024 年发布;


根据 Bloomberg 的报道,苹果还在加快推进外部合作与内部团队建设,包括:


  • 苹果或向 OpenAI 购买大模型技术服务;

  • 招募更多“对大语言模型了解”的工程师;


与此同时,我们有理由相信,苹果还在诸如芯片、操作系统层面优化对大模型应用的支持,这是苹果长期以来所形成的软硬件一体化优势,随着 2024 年高通、苹果发布面向智能手机的大模型相关产品,智能手机产业也会在下一个年度迎来一次巨大变革机遇。


大模型·计算


台积电上周发布的财报颇具象征意义。


先看几个关键数字:


  • 二季度营收 4808.4 亿新台币,同比下滑 10%;

  • 二季度净利润 1818 亿新台币,同比下滑 23%,好于华尔街预期(27%);


对于三季度的预期,台积电非常悲观:


  • 营收估计在 5192——5442 亿新台币之间;

  • 毛利率预期 51.5%——53.5%;


坦率来说,台积电的财报基本在华尔街的预期之内,但三季度的指引让市场陷入一定恐慌。


究其原因在于三个方面:其一,台积电作为全球最大的芯片代工企业,其营收变化也是科技产业,特别是消费电子产业发展的晴雨表,从台积电悲观的三季度预期来看,消费电子——手机、PC、平板——的市场需求依旧疲软,这对苹果、微软以及一众中国消费电子公司而言都是坏消息。




其二,AI 芯片代工业务的发展并不快,英伟达最先进的 AI 芯片由台积电代工,但现阶段这一业务的营收还无法抵消消费电子市场的损失,台积电给出了两个数字


  • 未来五年,AI 芯片代工业务的年度增长将达到 50%;

  • AI 芯片代工业务的营收现在占公司总营收的 6%,未来五年有望达到 10%;


其三,需求下滑与海外扩张之间的矛盾凸显,WSJ 援引半导体产业协会的数据称,截止 5 月, 2023 年全球芯片销售额同比下降 21%,疲软的市场需求还在持续影响一众芯片企业。


另一方面,鉴于地缘政治因素的海外建厂计划,也面临技术工人短缺、供应链成本高昂的问题,以至于台积电位于亚利桑那州的芯片工厂将推迟到 2025 年才能大规模投产,比此前晚了一年。


大模型成为刺激 AI 芯片市场发展的重要推动力,上周,芯片创业公司 Cerebras 与云计算公司 G42 共同发布了一款超级计算机 Condor Galaxy-1,该计算机使用了 Cerebras 自研的超大尺寸芯片第二代 Wafer-Scale Engine,相关技术细节可参考这里


Condor Galaxy-1 的意义在于,它向市场展示了除英伟达之外的大模型训练芯片的选择。与 Cerebras 公司共同研发该计算机的 G42 是一家总部位于阿联酋的云计算服务公司,根据 NYT 的报道,该公司此前曾考虑使用英伟达的 GPU 进行大模型训练,但采购极其困难且成本高昂,而借助 Cerebras 公司提供的方案,在成本与效益之间实现了最优选。


在重组 Google DeepMind 团队之后,Google 也在加快 AI 芯片的研发,WSJ 披露 Google DeepMind 团队通过深度学习优化逻辑电路设计。简单来说,就是将芯片逻辑电路设计的问题,转换成一个类似训练神经网络的问题,从而极大提升了芯片设计效率,并将进一步完善芯片设计的自动化流程。


大模型·市场


关注两款聊天新产品。微软上周还推出了 Bing Chat Enterprise,为企业提供基于 AI 的聊天服务,该产品同样以数据隐私为切入点,所有输入和输出的内容都存储在企业内部,该产品目前对于企业客户免费。


Github 的 Copilot Chat 公测版已经向企业开放,GitHub 表示,Copilot Chat 公测版将通过微软的 Visual Studio 和 Visual Studio Code 应用提供给“所有商业用户”。



Github 在今年 3 月发布 Copilot X 计划,Copilot Chat 使其核心产品之一。该产品集成 GPT-4 模型,面向代码编程的场景,可以“对代码编辑器中键入的代码和任何错误消息进行上下文感知,从而在开发者特定环境中提供最相关的支持”。


在政策方面:联合国安理会上周举行了一场 AI 政策会议,几个主要国家相继表态:


  • 英国:我们迫切需要塑造全球变革性技术的全球治理,因为人工智能无视边界;

  • 中国:人工智能是“双刃剑”;

  • 美国:有必要让各国共同合作,应对人工智能和其他新兴技术带来的威胁人权的风险,以维护和平与安全;


也是在上周,包括 OpenAI、Anthropic、Meta 在内的 7 家公司向美国政府承诺,将采取一系列措施,打造一个“负责任的生成式 AI 系统”。不过需要注意的是,这些承诺并不具备强制性,而且各项措施也没有详细的时间表,这或许是一个积极的信号,当然也可能仅仅是一个信号而已。


在应用方面:NYT 披露了 Google 最近为新闻行业准备的大模型应用“Genesis”,这项工具可以通过抓取或者根据现有信息,生成新闻内容。据了解,Google 已经向《纽约时报》、《华盛顿邮报》以及新闻集团(旗下拥有《华尔街日报)推销了这个产品。


事实上,自动撰写新闻已经在新闻行业存在很多年,包括美联社、路透社在内的新闻机构,广泛采用自动撰写新闻程序撰写财报等消息,但这些内容与人类记者生成的内容相比,比例还很小。


正如 NYT 所言,生成式 AI 技术的流行,可能会加快自动撰写新闻程序的普及,但如果不经过编辑的仔细核查,将会产生大量的错误信息。此前,《金融时报》明确表示,该机构的新闻将继续由在各自领域最优秀的人类记者撰写和报道,《金融时报》副主编 Roula Khalaf 如是写道


我坚信,在这个技术创新迅猛的时代,我们致力于产生最高标准新闻的使命变得更加重要。在一个错误信息可以快速产生和传播,以及媒体信任普遍下降的时代,我们《金融时报》有更大的责任保持透明,报道事实,追求真相。这就是为什么在新 AI 时代,《金融时报》的新闻将继续由在各自领域最优秀的人类记者撰写和报道,他们致力于准确、公正地报道和分析世界。


两个大模型应用到客户服务行业的案例,角度不同,你看到的影响也不同:


  • 老板视角:一名印度电商企业老板裁减了大部分客服团队,通过引入大模型相关技术,不仅提升客户问题回答效率,还节约了 85% 的客服成本;

  • 员工视角:一名 AT&T 呼叫中心的员工调试客服机器人的时候感到自己在“培养一个替代者”,一篇很有趣的故事。

本内容未经允许禁止转载,如需授权请微信联系妙投小虎哥:miaotou515
如对本稿件有异议或投诉,请联系tougao@huxiu.com
评论
0/500 妙投用户社区交流公约
最新评论
这里空空如也,期待你的发声