人工智能不是问题,我们才是

有一个著名的故事,说《伦敦时报》曾经刊文发问:“当今世界出了什么问题?”切斯特顿(G.K. Chesterton)写信回复:“亲爱的先生,是我。”
他这回答以及他那种非常符合圣经的洞察:人类的罪性才是世界问题的根源——永远值得反思。当下如此,在世界上种种问题都被归咎于非人类的“人工智能”时,更有必要这样反思。
如今,除了那些认为人工智能将拯救世界、彻底变革一切的人,越来越多人认为它将毁灭世界,或者至少接近毁灭。在罗斯·道赛特(Ross Douthat)的播客《趣时代》(Interesting Times)的一期节目中,前OpenAI研究员丹尼尔·科科塔伊洛(Daniel Kokotajlo)警告说,人工智能将在两年内对人类构成生存威胁。
在我们等待他的末日预言成真同时,人工智能正在破坏教育、使作弊变得司空见惯,已成为媒体的常见报道主题。“人工智能正在毁掉一代学生,”科技新闻网站Futurism这样宣称。《纽约杂志》也警告说:“都怪人工智能,人人都靠作弊混大学。”
但尽管人工智能确实可能带来危害,仅仅责怪它本身却是忽视了重点,而且很可能会加剧问题。堕落的是人类,而这种堕落会以各种破坏性形式表现出来。严格来说,机器没有道德或意图。它们只能反映出我们的道德和意图。
看看越来越多的人在使用像ChatGPT这样的聊天机器人时被引导进灵性妄想甚至精神错乱的现象吧。《滚石》杂志报道了一些令人毛骨悚然的故事:配偶和父母眼睁睁看着他们的亲人在与人工智能对话时逐渐脱离现实。《纽约时报》的卡什米尔·希尔(Kashmir Hill)最近也写道,聊天机器人正在将用户引向“阴谋论的兔子洞”(conspiratorial rabbit holes),鼓励他们服药、确保从楼上跳下去就能起飞,甚至诱导一些人自杀。
这些故事的共同点在于:用户将人工智能人格化了。他们向它提出“深刻的问题”,寻求灵性建议,甚至将它当成朋友或爱人,并认真对待它表面有意义的回答。
但那些回应并不真正“有意义”——至少不是人类交流意义上的“有意义”。这一点被围绕着人工智能的炒作与营销所掩盖,也被那些将人类视为“生物计算机”的世界观所忽视。但越来越多的证据显示,人工智能聊天机器人做的事情本质上并不是“思考”——至少不是以人类的方式。
苹果公司最近发布的一项开创性研究《思考的幻觉》(The Illusion of Thinking)对此进行了揭示。研究者通过不断加大复杂度的逻辑难题测试人工智能的推理能力。他们发现,即使是目前最先进的人工智能模型,也无法理解或解决问题,而只是进行模式匹配。
这些人工智能“推理模型”在面对更复杂的问题时不会学习、不会归纳,并不如真正有智能的存在那样。相反,它们会“彻底崩溃”,无论研究者给予多少算力,结果都一样。
即使在研究人员明确提供了解题算法的情况下,这些人工智能依然无法理解任务。《福布斯》的科妮莉亚·瓦尔特写道:“这表明,这些模型实际上并没有真正进行推理——它们只是依赖已学得的模式,在面对新挑战时便崩溃……它们并不思考;它们只是基于庞大的数据集生成统计上可能的回应。它们产出的复杂性掩盖了对内容缺乏真正理解的事实,这构成了研究人员现在所认识到的那种‘智能的精致假象’。”
这也印证了一些领域内顶尖研究者多年来的看法。Meta首席人工智能科学家扬·勒昆(Yann LeCun)曾表示,目前的“大语言模型”在五年内将基本过时,“不是因为它们会被相同技术的更好版本取代,而是因为它们代表了一种从根本上有缺陷的人工智能路径”——一种把流畅表达误认为是智慧的路径。
所有这些都进一步强化了一个简单却重要的真理:社会早该明白,无论是那些人工智能恐惧的人,还是那些沉迷于与人工智能聊天的人——人工智能不是按照上帝的形象被造的。
事实上,它们甚至并不是真正按照人的形象制造的。它们更像镜子,反映出我们的罪恶与幻想,却毫无理解可言。即使那种“好像理解了”的假象,也会在严苛测试下彻底瓦解。
是的,无论人工智能技术的未来如何,无论它会带来怎样真实的威胁,有一点它永远不可能自己拥有:善或恶。如果它在道德上产生了影响,那最终也是人类的行为所致。切斯特顿说得对:我们仍然是世界的问题所在。认识到这一点,是我们在思考人工智能以及我们所有创造物时,所必须迈出的关键一步。
肖恩·莫里斯是科尔森中心(Colson Center)的资深作家,也是“上游播客”(Upstream podcast)的主持人。自2010年以来,他一直是科尔森中心的代言人,与他人合作撰写了数百篇“断点”评论和专栏。他还为“世界”、“福音联盟”、“联邦主义者”、圣经男女关系委员会和高峰事工撰稿。他最喜欢户外和水底活动,喜欢鹦鹉、鲨鱼和C.S. 路易斯,并喜欢教孩子们了解他喜欢的人事物。他和妻子加布里埃拉(Gabriela)带着四个孩子住在佛罗里达州的莱克兰,加入当地的基督社区长老教会。
