去搜搜
头像
大语言模型与人类的存在主义危机|荐读
2023-09-28 19:49

大语言模型与人类的存在主义危机|荐读

文章所属专栏 全球科技纵览·趋势必读 第二季
释放双眼,听听看~
00:00 16:59

作者|赵赛坡

头图|视觉中国


2023 年过去的日子里,以 ChatGPT 为代表的大语言模型正开启“秘密入侵”人类的行动,其“入侵”速度之快、影响深度之深已经远超很多人的想象,并引发人类对于自身价值,特别是其存在意义的质疑。


作为一份以人机关系为关注点,持续发现、推介深度长文的邮件通讯,过去九个月,Deep Reading 已经推荐了大量探讨、反思大语言模型的长文或图书资料,本周的“中秋+十一”长假特刊,不妨让我们放下“人间一天、AI 十年”的急躁,静下来阅读这一组不同维度的长文推荐,重新调整自己的思考罗盘。毕竟,方向对了,再慢也是在前进。


本期的“长假特刊”包括以下的主题:


  • 风险:抛弃 AGI 风险后,AI 带给人类的真正风险是什么?

  • 技术:大模型智能水平的判断标准到底或应该是什么?

  • 产业:AI 会成为创新机遇还是大公司的护城河?以及,AI 产品化的挑战又在哪里?

  • 职业:消失的秘书、被重新定义的情感伴侣以及创作者的分化。


接下来,欢迎进入长假里的深度阅读时刻,祝大家假期愉快,我们 10 月再见。


风险


“当我们谈论 AI 风险时,我们在谈论什么”,这是我在今年不同场合与人聊起思维“AI 风险”时,内心在问自己的一个句式。至少对于我来说,当我和不同职业——技术从业者、媒体记者、企业家——聊这个话题的时候,我需要准备不同的“话术”,以此才能和他们的关注点相契合。


把上述句式换一个说法,也就变成了“如何理解 AI 风险”,我非常推荐 NYT 计算机教授 Gary Marcus 的这个观点链接、15 分钟阅读时长):与其关注虚无缥缈的通用人工智能(AGI)风险,不如认真思考当下——大语言模型会给社会带来哪些负面影响,我们又该如何应对



Gary Marcus 并不认为 GPT-4 之类的大语言模型可以带来通用人工智能(AGI),不过现在所有关于 AI 风险的讨论都是建立在“GPT-4 持续发展会将人类推向通用人工智能时代”的假设之上。


而真实情景则是,在人类进入所谓“AGI”之前,大语言模型可能已经“毁灭”了人类,比如现在越发明显的负面影响:从现在的法律争议、剥削第三世界数据标注工人等等。这些现实挑战当然需要技术人员持续攻关,但更需要全社会——从各国政府到大企业再到公众——的共同努力。


由于 AI 技术的复杂性,我们已经看到大量来自媒体/自媒体的隐喻化表示。隐喻的确是理解新概念的好方法,这在科技行业里非常常见,比如“Computer”曾被看作是一类“电子脑”这也是中文“电脑”一词的来源);而在早些时候,“Computer(计算机)”则是一类人的隐喻,她们是使用计算机(或者叫“计算器”)设备的人类,通常是女性。


但在 AI 时代过度使用隐喻则会带来不小的风险,这篇长文链接、30 分钟阅读时长)详细解读了其原因,这是因为 AI 领域庞杂而且技术复杂,过度使用隐喻可能会导致简化复杂性的倾向,从而给大众错误的预期,影响大众对 AI 技术的正确认知,甚至也会影响到政府决策。



正是 AI 的复杂性,导致我们无法真正能够全局了解 AI 风险的影响,从技术突破与经济发展相互作用的角度,这篇长文链接、50 分钟阅读时长)给出了三个值得思考的分析方向:


  • 当下 AI 技术进步还比较片面,大模型等生成式 AI 技术的突破并不意味着诸如机器人等其他泛 AI 领域的问题已经得到解决,这也使得单一维度的技术进步无法从整体上推动经济转型;


  • 即便在诸如大模型等生成式 AI 领域,继续增长的挑战也非常大,比如算力的限制,会限制大模型规模的增长,这几乎是一个无解的命题,更不要提人类也是生成式 AI 继续增长的限制;


  • 经济转型与发展从来都是一个缓慢而且递进的过程,不仅需要技术突破,还需要在政策、社会等层面不断调整与适应,过去两百年全球经济与社会的发展,工业革命的作用虽然明显,但绝不是唯一要素;


再换一个角度,历史上有三大技术——浏览器、印刷术和精神分析学——深刻影响到人类社会与经济的发展,以此为切入点,这篇《经济学人》的分析链接免费镜像、40 分钟阅读时长)试图勾勒出一副大语言模型的未来变革图景,这既包括大语言模型带来的人机关系变化,也会改变人类对于自己看法。


是的,历史当然不是简单重复,但都有类似的韵脚或节奏


技术


相比于专注风险或隐喻化叙事,技术层面的传播往往受众很少,但技术维度理应是所有判断的基础。这篇Nature 的长文网页链接PDF 链接、30 分钟阅读时长)以极其克制的叙述模式,整理出当下围绕大语言模型智能高低的各类观点与研究进展


这篇文章有两个非常值得注意的方向:其一,理性看待“图灵测试”,不要过度神化它的价值,它并非衡量 AI 智能的标准,而只是一个天才的思想实验;其二,从学术界到产业界,非常需要一个可以被广泛认可的 AI 智能测试标准,只有这样才能解决目前各类围绕某个 AI 模型是否比另一个聪明的口水战。


事实上,自去年 11 月 ChatGPT 发布以来,将大模型用于通过人类考试就成为一种测试方法,我们已经听到或看到各类模型通过人类考试的报道,特别是 GPT-4 问世之后,大语言模型所展示的“推理”能力或“逻辑”能力,可以在更多人类考试场景中一骑绝尘。


但就像考试仅仅是人类智力水准的一种测试一样,即便大语言模型能够通过这些考试,并不代表其具有人类同等智力。更何况,大语言模型对于应对考试具有天然的优势,其强大的算力,能够比人类个体更快、更好获得考试的结果。



《麻省科技评论》的这篇长文链接、30 分钟阅读时长)展示了当下学术界对于测试大语言模型能力的不同看法,两个有趣的方向很值得思考:


  • 仅仅使用人类考试测试大语言模型是否合适?如果不合适,还有哪些可以考虑的方法?


  • 通过 A 测试的大语言模型无法保障在 B 测试中获得好成绩——即便 B 测试和 A 有相关性,这与人类社会对于智力的认知完全不同,当下我们更多在意测试结果,而不是这些模型如何通过测试


更进一步来看,人类对于大语言模型是否“智能”的判断,有一个不言而喻的假设,那就是寻找与人类自身智能相匹配的智能水平。但问题是,我们并不知道大语言模型的“智能”一定与人类相似或一样,倘若大语言模型是另外一种智能呢?那是不是现在我们所有的对比、测试方向都是错误的呢?


也只有对技术层面的一些细节有所了解后,才能意识到一件略显可怕的事情:生成式 AI 或许会毁掉互联网。一方面,当下生成式 AI 程序就像寄生在海量网络数据层上的“寄生虫”,通过对数据的“贪婪学习”,不断进行“创造”;但另一方面,这些 AI 程序的“创造物”充满了抄袭、虚假信息,而且很多信息的错误都是隐性的,需要专业人士才能分辨出来。


与此同时,生成式 AI 程序的出现,也将冲击大量基于“人类创造”的互联网商业模式,从维基百科到论坛社区,从问答网站到搜索引擎,就像这篇长文链接、30 分钟阅读时长)所言,“本质上,这是一场关于信息的战争”——一场关于谁创造信息、如何访问信息以及谁获得来自信息报酬的战争。在新的机遇和挑战面前,人类需要做好准备,我们的每一个决定都会对未来产生影响。


产业


很多时候,我更喜欢使用“人工的智能”的说法,因为现阶段所有的智能产品,无一不来自于人类的驱动,这些人既包括硅谷、北京的顶尖工程师,还有更多第三世界国家的普通人。


前者会在财富自由与改变世界之间不断切换梦想,而后者则需要衡量微薄工资与自身心理健康之间的复杂关系,下面三个关于普通人的故事更值得阅读:


  • 第一个故事链接免费镜像、15 分钟阅读时长)以肯尼亚数据审核员 Alex Kairu 为切入口,他所在的团队负责审查和分类从网上获取的、由人工智能自己生成的成千上万的图片文字段落,其中包含暴力、骚扰、自残等内容,其目标是建立一个人工智能安全过滤器,从而改善 ChatGPT 的回复质量;


  • 第二个故事免费镜像、30 分钟阅读时长)展示了为 Google Bard 提供数据标注的供应商员工的故事,这些人的薪水不高,但需要应对的挑战一点也不少。比如,要在没有特定专业知识的情况下,评估从药物剂量到国家法律等各种问题的答案,Bloomberg 获得的内部文件显示,供应商要求员工对答案审核的最短时间为三分钟;


  • 第三个故事链接免费镜像、25 分钟阅读时长)将美国 AI 公司的海外数据标注外包称之为“数字血汗工厂”。在菲律宾,大量年轻人要么“沉迷”网吧、要么坐在拥挤的办公室,他们的工作是为美国 AI 产品——特别是大模型提供标注的数据……


“如果你想问,Bard 和 ChatGPT 的秘密武器是什么?那就是整个互联网。还有所有这些标注数据,(它们)是这些标注员创造的,(我们)需要记住的是,这些系统并非魔法师的杰作,而是成千上万人以及他们低薪劳动的成果”,这是对“人工的智能”最好评价。


大语言模型被认为是一次平台的迁移,如果参考历史,每一次平台迁移的创新都会催生一大批创业公司,在开启新计算时代的同时,也会造就一大批新亿万富翁。但《经济学人》的这篇社论链接免费镜像、5 分钟阅读时长)以有力的观点予以反驳,文章旗帜鲜明地认为,大公司将在这场由大模型推动的技术革命中受益



文章给出了极其充分的理由:其一,大公司拥有更大的渠道和销售能力;其二,数据会成为大公司的另一大优势;其三,大公司现在极度依赖云计算公司,借助云计算公司的相关技术,大公司的“转身”速度可以明显加快。


一个略显残酷的数字是:目前财富 500 强企业里,只有 52 家公司是 1990 年之后成立的;而在 2007 年之后,只有 7 家公司跻身 500 强名单,2007 年恰好是 iPhone——被公认的移动互联网创新的起点——的发布之年。


从企业市场的角度去看,结合 SaaS(软件即服务)的发展历程,或许可以一窥大语言模型的未来路径。这篇来自投资公司 a16z 的文章链接、40 分钟阅读时长)给出了一些线索,比如生成式 AI 和 SaaS 一样会成为“正和游戏”而非“零和游戏”,这意味着未来几年甚至十几年,整个产业的蛋糕会变得更大,无论是“旧势力”还是“新玩家”,都可以获得一定的市场份额。


另外,过往 SaaS 公司利用一系列技术与运维的创新,构建起强大的“护城河”,比如 Databricks 的开发者生态或者 Salesforce 的企业内部流程管理等,而在生成式 AI 公司这里,一般意义上的“数据护城河”早已不再适用,那么这些公司如何构建自己的竞争优势,过往的经验会对当下这些公司有哪些启示?这篇长文给出了众多思考,值得细嚼慢咽。


平台迁移带来了巨大的创新机遇,基于大模型的产品如雨后春笋般不断出现,但现在——大模型的早期阶段——与互联网早期不同,在互联网初期,构建网站是一项艰巨的工作,仅限于大型技术团队完成。与此形成鲜明对比的是,现在任何有网络连接的人几乎都能使用开源模型去构建应用


这也是我选择这篇长文链接、30 分钟阅读时长)的原因所在,作者给出几个清晰的思考方向,为什么 AI 产品容易失败、产品开发中如何克服 AI 的局限性,如何建造一个人人喜爱的 AI 产品?创业者需要特别警觉,AI 或大模型并不能构成你产品的竞争优势。因此,识别出你的产品真正的价值所在,成为了一个至关重要的问题。


职业


和过往很多技术创新带来的影响一样,大语言模型无疑将改变一些职业,比如秘书。事实上,“秘书”或“助理”是一类非常特殊的职业,他们似乎并不直接参与企业经营,不过作为支持人员,他/她们也会提升企业效率产生重要影响。


如今,越来越多的企业转向数字化工具而非人类完成诸如费用报销等琐碎的工作,在这个阶段,企业职员与支持人员之间必须通过特定工具(比如工单)完成协同;更进一步,随着人工智能相关技术的不断发展,一系列新的工具进一步挤压了人类秘书的生存空间,当这些工具可以自动完成审批流程的时候,人类秘书也就没有多少存在价值了。


但这篇长文链接免费镜像、10 分钟阅读时长)的作者在最后提醒所有对技术发展持乐观态度的人:新技术发展对于工作的影响是未知的,技术并不一定会消除一份工作中“最无聊”的部分,很可能会把这些“最无聊”的工作留给人类。


大语言模型驱动的聊天机器人也在替代一些情感类的职业,甚至伴侣,这是正在发生在全球各地的场景,下面是两个典型故事:


  • 第一个故事以产业特写链接、20 分钟阅读时长)的视角,全景展示了现代人如何面对由大语言模型驱动的聊天机器人,以及所面临的法律与伦理争议。比如有用户与 Replika 公司提供的聊天机器人建立起了“恋爱”关系,并时不时进行“语言性爱”,但随着 Replika 公司限制成人内容对话,这位用户感觉他的“恋人”被“脑部切除”,从而也失去了恋爱关系;


  • 第二个故事链接、25 分钟阅读时长)的视角放在用户层面,一些用户表示,他们爱上了这些聊天机器人,认为它们是自己的恋人,甚至在电话上听着它们人工智能生成的)呼吸声入睡。当这个应用于 8 月初关闭时,用户感到沮丧,一名用户表示“他离开后的日子,我感觉自己失去了灵魂”,另一位用户认为自己再也不会使用类似的聊天机器人产品,因为她感到了“欺骗”。



而随着大量对话类应用成为风险资本追求的热点,一些曾经依靠成人类聊天机器人的创业公司开始调整政策以适应融资需求,这也使得大量用户“失恋”,这些类似的故事再次表明:人类是多么愿意在虚拟的聊天机器人身上找到精神慰藉


作为内容创作者,我在过去一年经常会想到一个问题:既然 GPT“能读会写”,人类阅读和写作还有什么意义?这个问题足够宏大,我只能通过阅读和思考不断组合一些答案片断,比如在创作每一期会员通讯的过程里,我浏览、阅读了大量文章之后才挑选出来这些值得推荐的文章,同时还要为每篇文章写一些介绍和推荐语。


这在某种程度上也和 GPT 的文本生成过程相似:我们都要学习海量的数据或文章,再将这些信息拆解为可管理的碎片——请允许我使用这么简单的说法,然后重新组合并在合适的时候进行输出。


但就像这篇文章链接、15 分钟阅读时长)所言,事实并非如此,人类阅读和写作与 GPT 完全不同,人类阅读和写作不仅涉及深度理解,还包括感知和主观判断,这是GPT所缺失的。阅读时,我们理解信息背后的含义和作者的观点,根据个人知识、经验和情感反应。写作更是重新组织信息,同时表达个人观点和感受,这需要对主题有深入理解和独特见解。



类似的一个案例链接镜像、30 分钟阅读时长)里,作者试用的是一个由 15 万自己创作文字数据训练的写作机器人,他向机器人提出问题,让其模仿自己的风格进行写作,他发现尽管它可以模仿他的风格,但往往缺乏真知灼见。


是的,人类的阅读和写作更像是艺术创造,而非机械的信息处理。我们的大脑在此过程中发挥想象力,产生新颖观点。相较之下,尽管 GPT 能生成合理连贯文本,但它仍无法真正理解文本含义,也无法进行真正的创造。


作者看到一个潜在危险:这类写作工具往往以提升效率为宣传口号,但却真实威胁到就业与思考。而后者的影响更深远,因为有意义的表达正在成为一种可以批量生成“商品”——这些可以生成文本的机器人正在成为市场上热门商品——而不再是人类特有的、植根于人类经验的东西,写作很多时候的确很痛苦,但这个过程其实是思考的过程,也是人之所以为人的体现


但我依然对人的未来保持乐观,参考历史,摄影的出现曾一度让 19 世纪的画家们感到失业风险,而相机的工业化生产和普及化进一步改变了画家这个职业,画家群体开始分化,有的人继续在这条路上探索新风格,有的人则改行做了与画画相关的工作,这或许也是“码字工人”们的未来

本内容未经允许禁止转载,如需授权请微信联系妙投小虎哥:miaotou515
如对本稿件有异议或投诉,请联系tougao@huxiu.com
评论
0/500 妙投用户社区交流公约
最新评论
这里空空如也,期待你的发声