去搜搜
头像
AI 如何为二级市场创收?|AI内参
2023-05-16 10:00

AI 如何为二级市场创收?|AI内参

文章所属专栏 全球科技纵览·趋势必读 第二季
释放双眼,听听看~
00:00 07:16

作者|赵赛坡

头图|视觉中国


本期聚焦于大模型相关领域的发展,包括:


·产品:Google I/O 大会的亮点回顾、Anthropic 新模型等;


· 市场:AI 融资热持续、AI 如何为二级市场创收;


· 政策:欧盟 AI 立法新进展、OpenAI 等公司的监管边界在哪里、媒体报道 AI 的误区;


在接下来的内容中,我们将一同复盘近期围绕大模型的产品动态与行业格局。


大模型·产品


2023 年 Google I/O 大会的关键词——或者说唯一关键词——是 AI,从基础大模型到落地应用,Google 此次全面展示了自己的积累:


· 发布基础大模型 PaLM 2:支持超过 100 种语言,具备强大的多语言处理能力,在推理和编程方面都有巨大提升;


· 展示新一代基于 PaLM2 的搜索体验:该功能可以在搜索结果的顶部显示由人工智能生成的答案和信息(如下图所示),目前处于内测阶段,你可以通过这里加入等待列表;


· 为多项办公产品增加 AI 功能,比如 Gmail 里的“帮我写”功能,就是基于生成式 AI 的邮件辅助产品;




更进一步,Google 还为办公套件 Workspace 里的一系列由 AI 衍生的产品创新统一命名为“Duet AI”,直接对标微软 Copilot。


相比于之前匆忙上线的 Bard,此番 Google 的产品策略显得沉稳许多,一系列布局背后有诸多值得探讨的方向:


· 短期内,Bing 不会动摇 Google 搜索的根基,即便三星转向 Bing 阵营,但在智能手机领域,Google 搜索还有一个大客户——苹果,除非苹果也“叛逃”,否则,Google 搜索的垄断地位不会改变;


· 由对话驱动的新搜索产品极大增加了业务成本,这将对搜索引擎产品的利润产生影响,目前来看,广告客户是否愿意将在对话中集成广告,还是一个未知数;


· 办公软件领域会成为微软和 Google 的争夺焦点,一方面这是可以直接获得收入的市场,另一方面,生成式 AI——无论是文本、图像还是视频——能够以最快的方式影响到使用办公软件的一批人,也会让企业老板看到效益;


而在产业层面,大语言模型的研究与应用处于相对早期的阶段,此时去判断谁会赢得胜利还为时尚早,我个人更关注以下几点:


· 大语言模型的落地场景中,我更看好办公软件,这是一个更有利润的市场;


· 大模型与智能手机的结合,将对需求下滑的手机市场产生一定的刺激作用,比如 PaLM2 的小模型能够在手机上运行,一个月后的 WWDC 会有怎样的发布?手机领域的“安迪比尔定律”会出现吗?


Anthropic 公司宣布新版本 Claude 模型支持 10 万 Token 的上下文响应能力,这意味着该模型可完成 75000 个英文单词(约合 15 万中文汉字)文本内容交互,就像 Anthropic 官方博客所言,你可以直接将一本《了不起的盖茨比》交给 Claude 模型处理,然后询问任何一个与小说相关的问题。


Anthropic 的新模型也让大模型上下文处理能力的军备竞赛进入一个新阶段,此前 OpenAI 的 GPT-4 最高可以支持 32000 个 Token(或者 32k),随着 Claude 100K Token 的发布,我们有理由相信接下来 OpenAI 也会跟进。


更多的上下文 Token 能力能够一定程度延伸大模型的应用场景,比如法律文件或者公司 IPO 招股说明书等,普通人需要花费几个甚至十几个小时才能处理完毕,但借助大语言模型,可以将处理时间降低到以分钟甚至秒来记,由此带来的是巨大的效率提升。


不过,外界对 Anthropic 新模型还有诸多疑问,一方面是如何接入,目前普通用户或企业还无法直接接入该模型(你可以在这里申请该公司的 API);另一方面是价格不透明,但一定会非常昂贵。


如果你想体验 Claude 100K Token,可以订阅 Poe 高级套餐,每月 19.99 美元或者 199 美元/年获取这项服务。


一组大模型产品层面的更新:


· Anthropic 发布训练 Claude 等模型的的“AI 宪法”,旨在构建模型训练的“价值观”,希望形成兼具安全与透明性的 AI 模型训练机制;


· 科大讯飞发布“星火认知大模型”,带动股价大幅上涨,需要提醒一点,关于“套壳 GPT”的各类测试非常扯淡,“如何客观评价国产大模型”是一个科研命题,而不是情绪命题;


· OpenAI 宣布 ChatGPT 插件功能进入 Beta 测试阶段,所有订阅 ChatGPT Plus 的用户无需再多等待,将陆续可用;


· IBM 正式进入生成式 AI 市场,新发布的 WatsonX是一个涵盖多个领域的大模型训练、部署和管理平台,这个产品的目标用户是大企业,特别是对数据隐私敏感的大企业;


· Meta 推出一组可供广告商使用的 AI 生成工具,包括文本、背景图像生成和编辑等多个功能,相关测试将在今年夏天开始;



大模型·市场


即便一季度美国风险投资下降超过 5 成,但 AI 领域的资本流动还是非常活跃,WSJ 整理了最近一组投资:


· 语音 AI 初创公司 Eleven Labs 从 a16z 获得投资,估值约为 1 亿美元;


· 两位苹果高管创建的 Humane 公司近期完成 1 亿美元的融资,该公司致力于将可穿戴设备与 AI 结合在一起;


· Character.AI 在最近一轮融资中获得 1.5 亿美元融资,估值达到 10 亿美元。


· 总部位于多伦多的创业公司 Cohere 融资 2.5亿美元,根据知情人士透露其估值达到 20 亿美元;


· LangChain 在完成 1000 万美元的融资之后,估值接近 5 亿美元;


更疯狂的一个项目是一家名叫“Essential AI”的公司,该公司两位创始人是曾在 Google 工作的研究人员 Niki Parmar 和 Ashish Vaswani,在没有客户甚至商业计划的情况下,已经完成一笔 5000 万美元的融资。


与此同时,“文本生成图像”创业公司 Runway 完成 1 亿美元融资,估值达到 15 亿美元。值得注意的是,此次投资 Runway 公司的是一家“云计算公司”,这与市场其他公司的融资来源很不相同,但也从一个侧面展示了云计算相关的资源——算力、服务——对于生成式 AI 创业公司的吸引力。


毕竟,一块英伟达 A100 芯片不仅价格昂贵,而且还很难能买到,而背靠一家云计算公司,能够在计算层面得以充分的供应。


刚刚发布财报的软银,也在关注 AI 领域的投资,根据软银首席财务官后藤芳光的说法,软银不会错过投资ChatGPT 等新兴技术的机会:


我们正准备在即将到来的人工智能革命中发起攻势。


资本不仅涌入创业公司,还在影响二级市场,最新一篇 NBER 的论文指出,结合美国上市公司的数据来看,在 ChatGPT发布后,那些高暴露于生成式 AI 的公司相较低暴露公司,每日股票的超额回报高出 0.4%,这相当于 100% 的年化回报率。


比如 Palantir 公司,这家因参与抓捕本·拉登而声名鹊起的公司,显然进入到一个高速车道,该公司一季度营收同比增长 18% 至 5.25 亿美元,预计 2023 年每个季度都会盈利,消息发布后,股价再度上涨 20%。



关注一组大模型在各个行业的应用:


· 美国连锁快餐店 Wendy 计划使用 Google 大模型技术构建高效的订单聊天机器人


· 医院如何引入类 ChatGPT 技术?美国加利福尼亚和威斯康星的部分医院开始引入 GPT 阅读患者的网络咨询,而一项研究也显示,ChatGPT 能够比人类医生更好应对来自网络问诊的场景,因为后者的回答更不容易出错且有人文关怀;


· 随着越来越多的律所开始使用类 ChatGPT 处理文件,律师的工作方式以及律所的商业模式或许正在发生悄然变化



大模型·政策


大模型带来的数据安全问题被愈发重视,三星已经明确规定,禁止员工在工作设备上访问ChatGPT、Bard 等服务,“你不应该把公司相关的信息发给 ChatGPT 之类的服务,就像你不能把公司秘密告诉 Alexa 一样”,这会成为一种共识。


此次由大模型驱动的 AI 浪潮,将对办公室白领人员产生重大冲击,下图展示了一个潜在的场景:



或许是这种恐惧感,下面两则新闻有了很多讨论空间:


· IBM 将停止某些可能被 AI 程序替代的职位招聘工作,预计有 7800 个岗位受到影响;


· 好莱坞编剧们与电影公司之间的争论还在继续,双方的焦点包括是否应该承认“AI 编剧”、人类编剧内容是否应该交给 AI 模型等议题;


欧洲议会上周投票通过围绕 AI 立法的一系列修正案,对于所谓基础模型(也就是 ChatGPT 等语言模型的底层模型)的透明性与数据隐私安全做出了一些规定,包括:


· 关注基础模型训练过程中的能源消耗和资源使用;


· 在欧盟数据库中登记基础模型系统;


· 基础模型服务商有义务遵守条例中的透明义务,也就是确保用户知道内容是机器生成的;


· 基础模型服务商要对系统生成的内容提供「足够安全的保障」;


· 基础模型服务商还要保障模型训练的数据符合版权要求;


这些规定属于欧盟一项已经为期两年的 AI 监管法律草案的新内容,上周投票还增加了对于面部识别、预测性执法等技术的条款,接下来,欧洲议会将和各成员国进一步探讨更详细的的内容。


对于包括 OpenAI 在内的大模型公司来说,至少需要回答各国监管机构两个核心问题:


· 诸如 ChatGPT 之类大模型的训练数据来自于哪里?


· 大模型如何向用户提供信息,比如一些回答的生成机制是如何形成的?


这两个问题也是不久前意大利政府禁止本国公民使用 ChatGPT 的理由,除此之外,限制用户使用生成式 AI 产品的年龄也是各国政府——比如意大利——的诉求之一,OpenAI 需要在今年 9 月 30 日前推出一个年龄限制,确保 13 岁以下的未成年人不能使用该服务,否则仍将面临意大利当局的禁令。


最后分享一份对部分无良媒体报道 AI 的批评,比如:


· 两极观点与两元思维:AI 要么拯救世界要么毁灭世界;


· 过度使用拟人化的 AI 词汇:从“(机器)学习”到“助理”,这些词汇背后的意义被过分强调;


· 将 AI 发展与科幻场景混淆在一起:这让我想起几年前一位 AI 学者的担忧,好莱坞才是 AI 落地的最大障碍;


上述现象无所谓国界,也无所谓语言,在流量和点击的诱惑下,越来越多的媒体——或者是自动化的媒体机器人——正在批量制造上述类型的消息,或许,读者也需要一个检测标题党与垃圾新闻的 AI 机器人。

本内容未经允许禁止转载,如需授权请微信联系妙投小虎哥:miaotou515
如对本稿件有异议或投诉,请联系tougao@huxiu.com
评论
0/500 妙投用户社区交流公约
最新评论
这里空空如也,期待你的发声