人工智能不是問題,我們才是

有一個著名的故事,說《倫敦時報》曾經刊文發問:「當今世界出了什麼問題?」切斯特頓(G.K. Chesterton)寫信回覆:「親愛的先生,是我。」
他這回答以及他那種非常符合聖經的洞察:人類的罪性才是世界問題的根源——永遠值得反思。當下如此,在世界上種種問題都被歸咎於非人類的「人工智能」時,更有必要這樣反思。
如今,除了那些認為人工智能將拯救世界、徹底變革一切的人,越來越多人認為它將毀滅世界,或者至少接近毀滅。在羅斯·道賽特(Ross Douthat)的播客《趣時代》(Interesting Times)的一期節目中,前OpenAI研究員丹尼爾·科科塔伊洛(Daniel Kokotajlo)警告說,人工智能將在兩年內對人類構成生存威脅。
在我們等待他的末日預言成真同時,人工智能正在破壞教育、使作弊變得司空見慣,已成為媒體的常見報道主題。「人工智能正在毀掉一代學生,」科技新聞網站Futurism這樣宣稱。《紐約雜誌》也警告說:「都怪人工智能,人人都靠作弊混大學。」
但儘管人工智能確實可能帶來危害,僅僅責怪它本身卻是忽視了重點,而且很可能會加劇問題。墮落的是人類,而這種墮落會以各種破壞性形式表現出來。嚴格來說,機器沒有道德或意圖。它們只能反映出我們的道德和意圖。
看看越來越多的人在使用像ChatGPT這樣的聊天機器人時被引導進靈性妄想甚至精神錯亂的現象吧。《滾石》雜誌報道了一些令人毛骨悚然的故事:配偶和父母眼睜睜看着他們的親人在與人工智能對話時逐漸脫離現實。《紐約時報》的卡什米爾·希爾(Kashmir Hill)最近也寫道,聊天機器人正在將用戶引向「陰謀論的兔子洞」(conspiratorial rabbit holes),鼓勵他們服藥、確保從樓上跳下去就能起飛,甚至誘導一些人自殺。
這些故事的共同點在於:用戶將人工智能人格化了。他們向它提出「深刻的問題」,尋求靈性建議,甚至將它當成朋友或愛人,並認真對待它表面有意義的回答。
但那些回應並不真正「有意義」——至少不是人類交流意義上的「有意義」。這一點被圍繞着人工智能的炒作與營銷所掩蓋,也被那些將人類視為「生物計算機」的世界觀所忽視。但越來越多的證據顯示,人工智能聊天機器人做的事情本質上並不是「思考」——至少不是以人類的方式。
蘋果公司最近發布的一項開創性研究《思考的幻覺》(The Illusion of Thinking)對此進行了揭示。研究者通過不斷加大複雜度的邏輯難題測試人工智能的推理能力。他們發現,即使是目前最先進的人工智能模型,也無法理解或解決問題,而只是進行模式匹配。
這些人工智能「推理模型」在面對更複雜的問題時不會學習、不會歸納,並不如真正有智能的存在那樣。相反,它們會「徹底崩潰」,無論研究者給予多少算力,結果都一樣。
即使在研究人員明確提供了解題算法的情況下,這些人工智能依然無法理解任務。《福布斯》的科妮莉亞·瓦爾特寫道:「這表明,這些模型實際上並沒有真正進行推理——它們只是依賴已學得的模式,在面對新挑戰時便崩潰……它們並不思考;它們只是基於龐大的數據集生成統計上可能的回應。它們產出的複雜性掩蓋了對內容缺乏真正理解的事實,這構成了研究人員現在所認識到的那種『智能的精緻假象』。」
這也印證了一些領域內頂尖研究者多年來的看法。Meta首席人工智能科學家揚·勒昆(Yann LeCun)曾表示,目前的「大語言模型」在五年內將基本過時,「不是因為它們會被相同技術的更好版本取代,而是因為它們代表了一種從根本上有缺陷的人工智能路徑」——一種把流暢表達誤認為是智慧的路徑。
所有這些都進一步強化了一個簡單卻重要的真理:社會早該明白,無論是那些人工智能恐懼的人,還是那些沉迷於與人工智能聊天的人——人工智能不是按照上帝的形象被造的。
事實上,它們甚至並不是真正按照人的形象製造的。它們更像鏡子,反映出我們的罪惡與幻想,卻毫無理解可言。即使那種「好像理解了」的假象,也會在嚴苛測試下徹底瓦解。
是的,無論人工智能技術的未來如何,無論它會帶來怎樣真實的威脅,有一點它永遠不可能自己擁有:善或惡。如果它在道德上產生了影響,那最終也是人類的行為所致。切斯特頓說得對:我們仍然是世界的問題所在。認識到這一點,是我們在思考人工智能以及我們所有創造物時,所必須邁出的關鍵一步。
肖恩·莫里斯是科爾森中心(Colson Center)的資深作家,也是「上游播客」(Upstream podcast)的主持人。自2010年以來,他一直是科爾森中心的代言人,與他人合作撰寫了數百篇「斷點」評論和專欄。他還為「世界」、「福音聯盟」、「聯邦主義者」、聖經男女關係委員會和高峰事工撰稿。他最喜歡戶外和水底活動,喜歡鸚鵡、鯊魚和C.S. 路易斯,並喜歡教孩子們了解他喜歡的人事物。他和妻子加布里埃拉(Gabriela)帶着四個孩子住在佛羅里達州的萊克蘭,加入當地的基督社區長老教會。
