当机器智能碰撞人类意识
2023-09-11
技术的发展史,同样是一部人类工作岗位被替代的历史。技术与人工如同天平的两端,一端升起,另一端势必会下落。从蒸汽机对纺织工人的冲击,到电话接线员、打字员这些职业的消失,尽管过程中也有卢德分子这样的抵抗力量,但技术替代人工的趋势难以抵挡,滚滚向前。
2023年,以ChatGPT为代表的AIGC浪潮来袭,直观体现在各种数据上:仅开放一周,就有超过一百万用户注册使用了ChatGPT;2023年2月,月度活跃用户超过一亿人,ChatGPT也因此成为互联网史上用户数最快破亿的应用,每天都有超过1300万人次访问……
ChatGPT的火爆及其在技术层面的颠覆性,已经在各个领域都显露端倪。在这波浪潮下,许多行业都将受到巨大冲击。变革固然深刻,由此带来的问题也不容忽视,如技术发展引发的就业替代问题。
与过往的人工智能应用不同,ChatGPT背后的技术原理是Large Language Model(LLM)即大型语言模型,通过接受大规模数据集和机器学习算法的训练,实现一定程度的人类言语风格的模拟与还原。它不同于目前普遍应用的模板化问答应用,能够以差异化的语言风格回应使用者的提问,既可以生成编辑内容,又是搜索工具和资料库。ChatGPT具有较为全面的能力,在各个行业应用之后,有许多职能与岗位都被ChatGPT取代,有人甚至认为“AIGC浪潮就是人类的失业浪潮”,由此产生了就业替代问题。
这种说法并不是空穴来风。今年二月底,网站resumebuider.com发布了一项调查结果,近一半使用ChatGPT的公司用该技术取代人类员工。这项调查的对象是1000名美国商界领袖,48%的受访者表示,自从使用了ChatGPT,公司已经用ChatGPT取代了部分员工。这些受访者表示未来会有更多员工被裁。这项调查的其他发现包括:
● 49%的公司正在使用ChatGPT,而另外30%的公司有使用计划;
● 25%的公司用户已经节省了7.5万美元成本;
● 93%的使用者表示,他们会继续扩展对ChatGPT的使用。
这些使用ChatGPT的公司,将其应用于编写代码、文案、客户服务及日常招聘中。有55%的受访者认为,ChatGPT的工作表现“优秀”,34%的受访者则表示“非常好”。
ChatGPT替代就业,不单单体现在这一份调研报告中,而是真正在各个领域成为现实。高盛的一份报告甚至预计全球有18%的工作岗位可能会最终被AIGC所取代,约有3亿个全职岗位将受到影响。
“ChatGPT会取代哪些工作?”GPT-4的回答是这样的:”作为聊天机器人,ChatGPT可能会取代简单重复和可预测的工作,根据预测,客户服务和支持、电话销售、数据输入和处理、翻译和文案人员是最容易被取代的工作类型。”
技术替代因AIGC的特性被赋予新的含义。这不仅因为ChatGPT的能力更为强大,而且叠加了AI 威胁论和AI自主意识等经典概念,给这一话题增添了新的讨论维度。
本文从“智能”与“意识”的角度进行分析,认为ChatGPT(包括所有拥有自主意识的人工智能)无法完全取代人类劳动者。
与纯粹的技术乐观主义者想法不同,虽然ChatGPT的能力相当强大,但它并非无所不能。ChatGPT虽然具备处理问题、解决问题的“智能”,但是缺乏基本的“意识”。智能与意识这两个本就容易被混淆的概念,在与“情绪”“思维”“理解”等词汇排列在一起时,其概念就更加模糊。
具体而言,智能是指达成复杂目标的能力,而意识则是解决问题过程中的主观体验。人借助工具能够完成各种复杂目标,过程中会感到疲倦、兴奋,并且能理解自己的行动目的及行动本身,所以人既具有智能,也具有意识。而人工智能基于机器学习也能达成复杂的目标,但过程中毫无“体验”而言,它也不能理解自己的所作所为。
显然,ChatGPT能够以极高的水准回答问题,但是它并不能真正理解这些问题的含义;它能完成各种任务,但是无法意识到自己到底在做什么。
从这个角度看,没有自主意识的ChatGPT只能僵硬地执行命令、缺乏灵活性,因此无法进行真正的创造性工作,这是ChatGPT的“阿喀琉斯之踵”。更深层次来看,ChatGPT无法像人类一样进行自我审视,因而蕴含着很大的安全风险,甚至将产生难以预料的严重后果。
“回形针假说”最早由未来学家尼克·博斯特罗姆提出,描述一个人工智能被设定了“生产尽可能多的回形针”的目标,于是它想方设法将地球上的一切事物变成回形针。它无意于针对人类,但却会消灭人类,只是因为它为了达成目标采用一切手段搜集材料来制造尽可能多的回形针。
这一假说揭示了没有自我意识的人工智能,难以对任务做出基本判断。在这种情况下,它的能力越强,对人类社会的潜在威胁就越大。
“回形针假说”提醒我们,只有智能、没有意识的ChatGPT一旦被应用到一些关键领域,如企业面试、法律诉讼、医疗卫生甚至是社会治理等,必须将“技术脱轨”的情况考虑在内。毕竟在这些领域,一旦出现意外就有可能造成极为严重的后果。这便成为阻碍AIGC在关键领域落地应用的最大阻碍。
大部分使用者应该领教过ChatGPT的“脱轨”,通常包括以下情况:胡编乱造一些基本事实、信息和数据,言语攻击,歧视与偏见等。这些情况统称为“机器幻觉”。
“幻觉”一词源于心理学上的精神疾病“虚构症”,指个体会因担心对方失望或避免显得自己愚蠢而编造内容来回答问题。由于程序的设定,ChatGPT等生成式工具必须针对用户的提问给出答案,如果遇到训练数据集没有涵盖或者数据集有误的情况,ChatGPT就会编造出一个错误的答案。同时,由于它缺乏基本的常识和判断能力,因而无法意识到给出的答案是错的,所以会出现一本正经地胡说八道的情况。
心理健康应用程序Koko曾使用ChatGPT提供心理健康服务,但是很快遭到各方抨击。尽管人工智能的响应速度高于人类,但由于缺乏自主意识,它并非真正理解患者的处境,基于关键词分析和模板化回复,不仅无法真正安抚患者,甚至会提出有害的建议,造成严重后果。
ChatGPT所欠缺的正是人类所具备的同理心、共情力、批判思维、创新能力,ChatGPT还无法拥有这些与意识相连的感知,也因此无法进行理解、创造和真正思考。这让它在落地阶段进展缓慢,更不用说取代人类劳动者了。
从目前的实际表现来看,ChatGPT虽然强大,但离产生自我意识仍然遥远。ChatGPT的“思考”本质上仍是基于语言模型的运作,它的“创造”是不同语料的排列组合,它的“回答”是在先验知识基础上的加工产物,并不具备真正的自我认知。
着眼于短期,ChatGPT的影响不容忽视,其在高效完成重复性工作方面的优势,以及快速处理信息的能力,都达到了人类无法企及的高度。而这些优势必将引发管理方式的变革。
企业管理者应顺应技术潮流,而非逆势而为,认清ChatGPT的本质、优势及不足之后,它可以成为企业运营的实用工具,但仍需要“人性化”改造。
第一,积极使用,因势利导。基于ChatGPT的特点,重复性、模式化的工作可以交给它完成,提升工作效率,让员工专注于更有创造性的工作。
第二,加强核查,防范风险。人是技术的尺度,应该作为ChatGPT的把关人和第一责任人,对于AI生成的信息应由人进行核查与校对,防范AIGC的应用风险,但也需衡量匹配人力的成本。
第三,建立规范,灵活运用。制定ChatGPT的使用规范与原则,界定使用范围,避免技术滥用带来的负面影响。
企业员工应该深入学习、追踪最新的技术趋势,善用AIGC提升工作能力与效率,并将其发展为自己的职业优势。网站resumebuilder.com的调研结果显示,大约有92%的商界领袖表示,拥有AI/ChatGPT使用经验是候选人的加分项。
在人工智能时代,任何工作都不会独善其身,但使用工具强化自身能力,仍然是避免被取代的最佳方式。AI虽不会取代所有人,但是很可能会取代那些完全不了解AI的人。
作者单位:腾讯研究院