🦸🏻#10: 當今的生成式人工智慧真的會推理嗎?
我們將討論“推理”的實際含義以及我們為接近通用人工智慧(AGI)應努力的思維模式
OpenAI 的 o1 和 o3、DeepSeek 的 R1 以及 Google 的 Gemini 2.0 等人工智慧模型的最新進展引發了一場持續的爭論:這些系統真的具備推理能力嗎?
本文旨在與兩位 Turing Post 讀者進行一次虛擬對話:課程設計中心創始人兼主席 Charles Fadel,以及《休閒人工智慧》作者和即將出版的《通向通用人工智慧之路》作者 John Thompson。我們討論的主題是推理——一個廣闊而複雜的主題。
然而,關於模型和代理系統中推理和規劃的技術細節,我們將在下週五再討論。今天,我們將重點關注我們所說的推理是什麼,探討其不同型別以及我們思考和處理資訊的各種方式。
為了回答這個問題,我們必須首先明確定義我們的術語。透過借鑑機器學習、哲學和心理學中的見解,我們旨在闡明推理是什麼——以及它不是什麼——然後評估人工智慧模型的“思考”與人類思維的比較。
🔳 Turing Post 在 🤗 Hugging Face 上駐紮 -> 點選關注!
這一切都始於 Charles Fadel 寫信給我,問我是否願意以他的論文《當今生成式人工智慧真的會推理嗎?》為基礎寫一篇文章。在那篇論文中,Charles 旨在闡明兩個基本問題:
人類推理涉及哪些認知過程?
生成式人工智慧能在多大程度上覆制或模仿這些過程?
我同意了,不久之後,我看到了 John Thompson 的一條富有洞察力的評論:
“我們必須謹慎使用術語。許多人一直在談論模型的推理。推理(至少對我而言)意味著某種程度的原創性思維或思想。大型語言模型不會推理。它們以令人難以置信的速度進行推斷,但它們不會推理。
現在我們聽到諸如模型在有更多時間‘思考’時會變得更好之類的說法。這不是思考。這是迴圈直到滿足條件。這是目標導向,而不是思考。”
約翰的觀點強調了一個關鍵問題——我們所說的推理到底是什麼?查爾斯在他的論文中承認了這一挑戰:
"解決這些問題的一個主要挑戰是,文獻中缺乏對推理甚至‘思維模式’的單一、普遍接受的定義。認知科學承認多種思維形式,從分析性、演繹性推理到創造性和直覺過程。然而,這些模式之間的定義和界限往往模糊不清。"
為澄清起見,查爾斯提出了以下推理定義:
- 一種有意識的認知過程。
- 根據前提、事實或證據形成結論、進行推斷或生成解釋的能力。
- 通常遵循結構化的邏輯原則,但不限於形式邏輯。
在審查了詞典和基於研究的定義後,他將推理綜合為一個簡潔的描述:
"推理是根據事實或前提進行思考,從而形成解釋、得出推論或做出決策的過程。"
推理是任何代理系統關鍵構建塊之一。
思維模式
隨後,查爾斯與合著者 Alexis Black 博士一起,承擔了一項艱鉅的任務,進一步闡述了人類推理和思維模式的分類,這為評估人工智慧的推理能力奠定了基礎:
“我們論文的核心貢獻是對人類思維模式的分類,它為評估人工智慧推理能力奠定了基礎。我們借鑑了認知科學、心理學和人工智慧領域的大量文獻來定義和分類這些模式。這些模式包括結構化推理方法(如演繹推理和歸納推理)、創造性和直覺過程,以及人類在決策和問題解決中使用的認知策略。”
這是他們得出的列表:
理解這些思維模式有助於我們確定人工智慧系統與人類推理的比較情況以及它們存在的不足。
哪些思維模式符合推理的定義?
根據查爾斯的說法:“並非所有思維模式都構成推理。有些,如演繹、歸納和溯因思維,明確是推理的形式。其他模式,如創造性、聯想性和情感性思維,與推理部分相關,但不能完全滿足其標準。
例如:
聯想思維——與推理部分相關,因為它連線思想但不遵循邏輯原則。
創造性思維——部分相關,因為它涉及創新性問題解決,但並非總是依賴邏輯推斷。
情感思維——不是推理,因為它受主觀情感而非客觀評估的引導。
這種分類使我們能夠系統地評估人工智慧可以複製推理的哪些方面。”
生成式人工智慧在多大程度上能夠復現人類推理?
有了所有這些模式,就非常清楚了,正如查爾斯所說,“生成式人工智慧在某些領域表現出色,但在其他領域則表現不佳”。他分析了生成式人工智慧複製不同推理模式的能力:
生成式人工智慧擅長的模式(認知處理):
- 計算思維——人工智慧在結構化、演算法式問題解決方面效率極高。
- 模式識別——人工智慧能夠識別海量資料集中的趨勢和關係。
- 聚合思維——人工智慧能夠為給定問題確定最優解決方案。
- 序列思維——人工智慧以結構化、按部就班的方式處理資訊。
生成式人工智慧可部分執行的模式(認知推理):
- 歸納推理——人工智慧可以從資料中進行概括,但在細微差別和偏見方面存在困難。
- 演繹推理——人工智慧可以應用形式邏輯,但僅限於明確程式設計的情況。
- 溯因推理——人工智慧可以生成合理的解釋,但缺乏直覺和創造力。
- 類比思維——人工智慧可以識別相似之處,但不能像人類那樣跨領域進行概括。
- 戰略思維——人工智慧可以協助規劃,但缺乏適應性。
發展認知推理的一個潛在途徑是將大型語言模型與符號規劃器結合起來——這些系統依賴明確的邏輯規則而非統計模式。與大型語言模型不同,後者基於機率推斷關係,而符號規劃器則遵循結構化的推理過程,確保決策的一致性和可靠性。透過將符號推理技術與神經網路相結合,我們可以開發出不僅能根據資料驅動的推斷生成響應,還能遵守嚴格邏輯約束的人工智慧模型,從而使其推理更加穩健和可解釋。
生成式人工智慧表現不佳或無法執行的模式(非邏輯思維):
- 反思性思維——人工智慧缺乏自我意識和真正的內省。
- 整體思維——人工智慧無法靈活地整合不同視角。
- 情感思維——人工智慧無法體驗情感,也無法進行情感思考。
- 創造性思維——人工智慧缺乏原創性,因為它只是現有思想的重新組合。
- 整合思維——人工智慧無法有效地綜合相互衝突的觀點。
人工智慧推理的主要侷限性:
- 缺乏真正的理解:人工智慧處理模式而不理解其含義。
- 依賴訓練資料:人工智慧無法超越其所學進行推理。
- 無自我反思:人工智慧無法評估自身的推理過程。
- 有限的適應性:人工智慧在動態的現實世界推理中表現困難。”
在論文的最後,查爾斯總結道:
“生成式人工智慧表現出一些類似推理的行為,但並未真正以人類的方式進行推理。儘管人工智慧可以模擬邏輯操作、識別模式和生成推斷,但它是在沒有深入理解或意識的情況下完成的。
- 人工智慧擅長結構化、計算式推理。
- 人工智慧在整體性、反思性和情感性推理方面存在困難。
- 人工智慧無法像人類那樣自主生成新見解或重新詮釋知識。
最終,生成式人工智慧以結構化、基於模式的方法運作,而人類推理則具有適應性、自我意識和情境敏感性。隨著人工智慧的不斷發展,未來的模型在推理方面可能會有所改進,但當前的系統距離實現類人認知能力還很遙遠。
為什麼理解這些思維模式對於大型語言模型的推理很重要?
大型語言模型在海量文字資料上進行訓練,這使它們能夠識別和模仿不同的推理模式。然而,與人類認知不同,它們的推理並非基於真正的理解,而是基於統計關聯。
透過將推理分解為不同的思維形式,我們可以更好地分析大型語言模型如何處理資訊,它們擅長哪些方面,以及它們在哪方面存在不足。這種理解還可以指導人工智慧模型的改進——無論是透過完善其應用邏輯結構的能力、提高其對因果關係的理解,還是使其推論更加透明和可解釋。
有趣的是,認知處理中的思維模式發展良好,而認知推理中的模式是研究人員旨在將大型語言模型提升到新“推理”水平的最熱門話題。然而,非邏輯思維中的模式仍然遙不可及。如果你真的想突破界限,這正是你應該將研究方向引導的地方——弄清楚如何實現這些難以捉摸的思維模式(如果可能的話)。
最終,探索不同形式的推理有助於我們評估大型語言模型如何模擬思維,以及這對它們在決策、問題解決和溝通中的應用意味著什麼。
你認為呢?你有什麼補充嗎?請在下方留言。
作者:Charles Fadel 和 Ksenia Se
📨 如果您想直接在收件箱中收到我們的文章,請在此訂閱