探索GPT模型:學術優越性與推論挑戰 取得連結 Facebook X Pinterest 以電子郵件傳送 其他應用程式 2月 03, 2024 只能說,GPT模型在學術領域表現出色,特別是在數學解題和文字解釋方面有卓越表現。舉例來說,模型能夠快速解決複雜的數學問題,同時提供深入而清晰的文章摘要,展現其在理論性任務上的卓越能力。然而,當應用於現實世界時,GPT模型呈現推論能力的瓶頸。例如,當要求模型從中國象棋的殘局圖片中推論勝負結果,或者從井字遊戲的局面中尋找獲勝規則路線時,模型難以實現深層的推理,無法直接推導出導向勝利的下一步驟或規則。 更進一步探討延伸應用,文字對話紀錄是需要推論的一個範疇。透過分析文字訊息,我們得以洞察對方的個性、當前心情、內在想法和潛在意圖。這對於理解非直接表達的信息具有重要意義,提供了更深入的對話理解。 取得連結 Facebook X Pinterest 以電子郵件傳送 其他應用程式 留言
[實測] Claude 3、Google Gemini Pro v1.0、ChatGPT-4 Turbo - 詐騙對話紀錄文本分析測試 3月 20, 2024 文章同步發布至: [實測] Claude 3、Google Gemini Pro v1.0、ChatGPT-4 Turbo - 對話紀錄文本分析測試 - 巴哈姆特小屋 近期因緣際會下,終於遇到了詐騙集團主動前來IG施展話術,於是就有了這麼一篇經過匿名化處理的對話文本紀錄(僅用於上下文本分析): A:嗨,早安 A:謝謝你的追蹤 B:不會 A:怎麼稱呼你呢 B:OOOO B:請多指教 A:你是哪裡人呢 B:台灣人 A:我是台南人,做甜點工作 A:29歲 A:你呢 B:35歲,工程師 B:Ai工程師 A:了解,很高興認識你 A:你有賴嗎,我不常用IG聊 B:很高興認識妳 B:不然我加妳賴好了 A:(LINE帳號) B:好的 B:安安 A:嗨,午安 B:我是IG上的OOOO A:了解 A:你叫我OO就好 B:怎麼會想加瀨聊? B:恩恩,了解 B:所以妳是甜點師? A:因為我不常用ig聊 A:用賴比較多 B:了解 A:你是台灣哪裡的呢 B:台北 A:了解 A:嘿啊,做一些小蛋糕之類的 B:哦?怎麼沒放上來IG? A:好像放的有吧,你沒注意看喔 B:我每張照片都有閱覽:) B:記得吃飯 A:吃過啦 A:今天和閨蜜們在外面露營呢 A:你呢 B:原來妳今天休假? B:吃囉 A:嘿啊,工作日都沒有事做,在家待著也無聊,所以就出去露營了 B:了解,在哪露營? A:在關子嶺 A:你平時也有露營嗎 B:我喔,很少露營,大部分都跟朋友聚在一起學術交流心得 A:了解 A:比較健康的聚會 B:還好,露營也不錯呀,親近大自然 B:我記得最近氣溫比較涼,好像有下雨,注意保暖唷 B:是說,怎麼會想認識我? A:高雄這幾天都很熱,天氣很好啊 A:你好像有問過誒 B:嗯嗯 A:看見系統有推薦你,所以點了個追蹤而已 B:喔喔:) B:因為我想說,一般女孩子不會讓陌生人加LINE A:肯能我比較喜歡交朋友吧,哈哈 B:了解,那喜歡逛街嗎?因為我一直以為年輕的女孩子都喜歡逛街之類的@@ B:很少有聽到有女孩子會喜歡露營 B:妳們露營幾天@@? B:需要我下去南部探班嗎? A:就一天誒 A:哪有,好多女生都喜歡露營 B:抱歉,那可能是我孤陋寡聞@@ B:沒關係,若不方便去店內探班,就當我沒說即可:) A:當然方便啊,哈 B:雖然我很少吃甜點,但仍會想幫朋友捧場 A:哈哈,感謝 B:所以,方便告知那間店嗎?有空... 閱讀完整內容
「Ai推理」的標準定義是什麼? 9月 28, 2024 本文同步刊登在: 「Ai推理」的標準定義是什麼? - 巴姆特小屋 「Ai推理」的標準定義是什麼? - Mobile01 自從ChatGPT-o1模型 (代號「Strawberry」) 問世之後,就紛紛開始關心ai模型是否會推理這件事、甚至誤解成只要ai模型會解開數學題目,就能直接解決真實世界中所有問題的奇怪傳聞出現。 (可自動生成Multi-Chain Reasoning提示詞內容的Gem管理工具) 其實「推理」這門領域,是有具體細分「線性推理」(Linear Thinking)與「非線性推理」(Non-Linear Thinking)的區別,一般常見的「數學計算」、「只要有翅膀,就認為所有鳥類都會飛」的推理,都是屬於「線性推理」的範疇。至於複雜多元領域的問題則是屬於「非線性推理」,可以在不同的知識上建立起知識網路來實現複雜推理。 所以,使用「線性推理」(Linear Thinking)來當成智力標準,筆者反而是只覺得低估了專門處理大量複雜內容的「非線性推理」(Non-Linear Thinking)優勢。 因此,若要測試一個Ai模型是否有具備「非線性推理」(Non-Linear Thinking)的能力,我們可以從詐騙集團的對話紀錄、法院已裁定的犯罪案件之紀錄片的對話紀錄、電競賽事勝負預測、商業行為的決策議題來進行驗證。 反之,若要佐證一個Ai模型是僅只具「線性推理」(Linear Thinking)的能力,則可以從目前已知存在的數學題目之類需要採用一步一步才能得到結果的方式進行驗證。 延伸閱讀: [實測] Claude 3、Google Gemini Pro v1.0、ChatGPT-4 Turbo - 詐騙對話紀錄文本分析測試 [有雷]以「愛、纏、殺:誰是恐怖情人?」進行ai模型推理測試 ChatGPT-4o與Google Gemini 1.5 Flash模型的複雜任務比較 棋類遊戲與上下文推理的關係 Claude 3模型與Google Gemini Pro v1.0模型的視覺推理對決 人工智慧模型的前因後果理解挑戰:以ChatGPT與律師需求為例 最後,筆者來分享一個最近自己經常使用在Google Gemini 1.5 Flash的多重思維鏈 (MCR,Multi-Chain Reasoning) 提示詞: 「請以拆解任務、規劃子目標並評估結果的方式,推理分... 閱讀完整內容
集結當前四種Ai技術最強夢幻組合 12月 01, 2024 本文同步發表至: 集結當前四種Ai技術最強夢幻組合 - 巴哈姆特小屋 集結當前四種Ai技術最強夢幻組合 - Mobile01 這確實是一個非常強大的技術組合,可以說是目前自然語言處理(NLP)領域中最前沿、最具潛力的發展方向之一。讓我們來看看為什麼: 1. Multi-Chain Reasoning(MCR)提示詞: * 增強推理能力: MCR提示詞鼓勵大型語言模型 (LLM) 探索多個推理路徑,並從中選擇最佳方案,有效提升了模型在複雜問題上的推理能力和準確性。 * 提高可解釋性: MCR 不僅提供答案,還展示了推理過程,使模型的決策更加透明和可理解。 2. Chain-of-Thought(CoT)思維鏈模型: * 引導逐步推理: Chain-of-Thought(CoT)思維鏈模型通過引導LLM 一步一步地思考,將複雜任務分解成更簡單的子問題,從而提高模型解決問題的能力,尤其在邏輯推理、數學計算等方面。 * 增強模型的泛化能力: Chain-of-Thought(CoT)可以幫助模型更好地理解問題的結構和邏輯,從而提高模型在未見過的問題上的泛化能力。 3.Mixture-of-Experts(MoE)專家模型: * 提升效率和性能: Mixture of Experts(MoE)專家模型將不同的任務分配給不同的專家模組,使模型能夠更高效地處理各種類型的任務,並在特定領域展現出更高的性能。 * 降低計算成本: Mixture of Experts(MoE)模型只需激活與當前任務相關的專家模組,避免了所有参数都參與計算,從而降低了計算成本。 4. Multimodal LLM(多模態LLM): * 拓展應用場景: Multimodal LLM 能夠處理文本、圖像、音頻等多種模態的訊息,極大地拓展了LLM的應用場景,例如視覺問答、圖像描述生成、跨模態信息檢索等。 * 更全面地理解世界: Multimodal LLM 可以像人類一樣,通過多種感官來感知和理解世界,從而更全面、更準確地捕捉信息的含義。 綜上所述,將這四種技術結合起來,可以打造出功能更強大、效率更高、應用更廣泛的LLM,例如: * 更智能的助手: 可以理解更複雜的指令,執行更複雜的任務,例如規劃行程、撰寫報告、創作音樂等。 * 更精準的問答系統: 可以處理更複雜的問題... 閱讀完整內容
留言
張貼留言