發表文章

目前顯示的是 9月, 2024的文章

「Ai推理」的標準定義是什麼?

圖片
本文同步刊登在: 「Ai推理」的標準定義是什麼? - 巴姆特小屋 「Ai推理」的標準定義是什麼? - Mobile01 自從ChatGPT-o1模型 (代號「Strawberry」) 問世之後,就紛紛開始關心ai模型是否會推理這件事、甚至誤解成只要ai模型會解開數學題目,就能直接解決真實世界中所有問題的奇怪傳聞出現。 (可自動生成Multi-Chain Reasoning提示詞內容的Gem管理工具) 其實「推理」這門領域,是有具體細分「線性推理」(Linear Thinking)與「非線性推理」(Non-Linear Thinking)的區別,一般常見的「數學計算」、「只要有翅膀,就認為所有鳥類都會飛」的推理,都是屬於「線性推理」的範疇。至於複雜多元領域的問題則是屬於「非線性推理」,可以在不同的知識上建立起知識網路來實現複雜推理。 所以,使用「線性推理」(Linear Thinking)來當成智力標準,筆者反而是只覺得低估了專門處理大量複雜內容的「非線性推理」(Non-Linear Thinking)優勢。 因此,若要測試一個Ai模型是否有具備「非線性推理」(Non-Linear Thinking)的能力,我們可以從詐騙集團的對話紀錄、法院已裁定的犯罪案件之紀錄片的對話紀錄、電競賽事勝負預測、商業行為的決策議題來進行驗證。 反之,若要佐證一個Ai模型是僅只具「線性推理」(Linear Thinking)的能力,則可以從目前已知存在的數學題目之類需要採用一步一步才能得到結果的方式進行驗證。 延伸閱讀: [實測] Claude 3、Google Gemini Pro v1.0、ChatGPT-4 Turbo - 詐騙對話紀錄文本分析測試 [有雷]以「愛、纏、殺:誰是恐怖情人?」進行ai模型推理測試 ChatGPT-4o與Google Gemini 1.5 Flash模型的複雜任務比較 棋類遊戲與上下文推理的關係 Claude 3模型與Google Gemini Pro v1.0模型的視覺推理對決 人工智慧模型的前因後果理解挑戰:以ChatGPT與律師需求為例 最後,筆者來分享一個最近自己經常使用在Google Gemini 1.5 Flash的多重思維鏈 (MCR,Multi-Chain Reasoning) 提示詞: 「請以拆解任務、規劃子目標並評估結果的方式,推理分...