作者|赵赛坡
头图|视觉中国
本期导读
从数字化到智能化,一些职业日渐消失、一些行业也在被彻底改变,本期推荐两篇长文,既有“罗曼蒂克消亡”的伤感,也有对未来技术发展的不安。
AI风险或许是当下最大的不安,但一个潜台词是“当我们谈论AI风险时,我们在谈论什么”?是通用人工智能的风险还是杀人机器人的风险?抑或是大语言模型的风险?本期推荐一篇长文。
本期还推荐将以下议题:
• 人类与聊天机器人的爱恋;
• 自然语言的“杀伤力”;
• AI如何改变小语种?
“More Reading,Less Junk”,欢迎进入本周的深度阅读时间。
消失的秘书与助理们
“秘书”或“助理”是一类非常特殊的职业,他们似乎并不直接参与企业经营,不过作为支持人员,他/她们也会提升企业效率产生重要影响。
FT这篇专栏文章(链接、免费镜像、10分钟阅读时长)探讨了数字化如何让秘书类职业减少甚至消失,越来越多的企业转向数字化工具而非人类完成诸如费用报销等琐碎的工作,在这个阶段,企业职员与支持人员之间必须通过特定工具(比如工单)完成协同;更进一步,随着人工智能相关技术的不断发展,一系列新的工具进一步挤压了人类秘书的生存空间,当这些工具可以自动完成审批流程的时候,人类秘书也就没有多少存在价值了。
只不过,作者在最后提醒所有对技术发展持乐观态度的人:新技术发展对于工作的影响是未知的,技术并不一定会消除一份工作中“最无聊”的部分,很可能会把这些“最无聊”的工作留给人类。
如何理解AI风险?
我最近脑海里反复出现一种句式:“当我们谈论AI风险时,我们在谈论什么”?特别是看到伊隆·马斯克等人呼吁停止研发新AI系统六个月的时候,这个问题更加明显。
NYT计算机教授Gary Marcus的这篇文章(链接、15分钟阅读时长)给出了他的回答:与其关注虚无缥缈的通用人工智能风险,不如认真思考当下——大语言模型会给社会带来哪些负面影响,我们又该如何应对。
Gary Marcus的立场非常明确:一方面,技术上,以GPT-4为代表的大语言模型和所谓通用人工智能无关,我们不能假设GPT-4持续发展会将人类推向通用人工智能时代;但另一方面,大语言模型带来负面影响逐渐凸显,比如不负责任地宣传与推广(特指微软Bing),再比如不法分子已经开始研究潜在的犯罪场景等。
我赞同Gary Marcus的这个观点,我们不必为未知或者可能不会有的风险感到担心,更应贵专注于当下的风险,从大语言模型习惯性的胡说八道到滥用大模型带来的法律争议,这些现实挑战需要技术人员持续攻关,也需要全社会共同努力。
人类与聊天机器人的爱恋
人类“爱上”聊天机器人的历史可以追溯到上世纪70年代,彼时MIT科学家约瑟夫·魏泽鲍姆研发了一个名叫“伊莉莎”的聊天机器人,其本意是为了在临床治疗中模仿心理医生,但很快测试者就就开始迷恋与“伊莉莎”聊天,一些人坚持“伊莉莎”可以听懂自己的话,并情不自禁地透露一些个人私密信息。
如果这个故事太过古老,那么这篇来自路透社的产业特写(链接、20分钟阅读时长),则全景展示了现代人如何面对由大语言模型驱动的聊天机器人,以及所面临的法律与伦理争议。比如有用户与Replika公司提供的聊天机器人建立起了“恋爱”关系,并时不时进行“语言性爱”,但随着Replika公司限制成人内容对话,这位用户感觉他的“恋人”被“脑部切除”,从而也失去了恋爱关系。
随着大量对话类应用成为风险资本追求的热点,一些曾经依靠成人类聊天机器人的创业公司开始调整政策以适应融资需求,这也使得大量用户“失恋”,这些类似的故事再次表明:人类是多么愿意在虚拟的聊天机器人身上找到精神慰藉。
另一类相似的场景也会越来越多,基于自然语言技术,诸如GPT-3在内的众多文本生成机制,会塑造一种全新的人机对话形态,比如爱人离世后,创造一个模拟她的AI聊天机器人如何?
这篇2021年的长文(链接、50分钟阅读时长)现在读起来依然令人落泪,一个失去爱人的男子,通过将自己与爱人之前的对话文本输入给计算机系统,“创造”了一个可以模拟爱人并且可聊天的AI机器人,他在想念她的时候,就和“她”聊天。
这个故事里可思考的方向非常多:如果过去人们通过梦境建立起与已故亲人的联系,那么现在为什么不能利用AI技术实现呢?更进一步,对于在世的人来说,这些AI聊天机器人会不会变成另一种羁绊?
语言“杀伤力”与多语言理解能力
相比于诸如机器人能否杀人这样的争议,自然语言的“杀伤力”往往被低估,但鉴于自然语言无法像诸如机器人那样的视觉形象,所以,围绕自然语言的潜在影响大多局限在特定垂直领域。这篇发表于《纽约客》的文章(链接、免费镜像、15分钟阅读时长),极其克制地使用专业词汇,却保证了内容准确性,即便对自然语言问题一点也不了解,也可以快速且准确抓住问题的关键,推荐阅读。
以ChatGPT为代表的大语言模型已然成为全球科技公司追逐的焦点,过去两周,大模型让人工智能经历了所谓“AI的iPhone时刻”、“AI的App Store时刻”……撇可这些宏大的宣传口号,这篇《经济学人》的文章(链接、免费镜像、15分钟阅读时长)给出了一个语言层面的观察视角:ChatGPT能够快速生成超过50种不同语言的文本。
你并不能通过询问ChatGPT了解到它掌握了多少种语言,不过测试者发现,当使用丹麦语输入的时候,ChatGPT会以丹麦语给出回答,要知道全球大概只有550万人使用丹麦语,即便是丹麦本国人,更喜欢在互联网上使用英语交流,而ChatGPT的丹麦语回答几乎无可挑剔。
长期以来,围绕小语种的语言产品因为市场小和训练语料太少而不被重视,但ChatGPT等大语言模型有望解决这个困扰行业已久的难题。
被AI改变的赛马游戏
这是一篇有点怀旧色彩的文章(链接、免费镜像、40分钟阅读时长),多少有点“罗曼蒂克消亡史”的感觉,作者小时候经常和祖父在赛马场观看并投注比赛,那几乎是一代美国人的美好回忆。
过去四十多年时间,“数据”成为赛马比赛的重要工具,大大小小的公司,通过各类简单或复杂的软件,为人类客户投注比赛提供各种数据支撑,即便是曾经赛马爱好者人手一册的《每日赛马报》,也日渐成为一类“赛马场的彭博终端”,押注比赛的过程已经成为一场场数字游戏。
这当然是因为赛马市场的巨大诱惑力,仅在2021年,美国赛马市场的投注总额高达120亿美元,一夜暴富的诱惑吸引着越来越多的玩家,也让整个市场变得越来越卷。
但另一方面,随着AI各项技术的持续发展,任何一个行业都会被卷入“被计算”的潮流里,海量的数据或自动或半自动地投喂给机器,机器也会自动或半自动地形成一个个决策,我们会看到越来越多“罗曼蒂克消亡”的故事。
评论