探索GPT模型:學術優越性與推論挑戰 取得連結 Facebook X Pinterest 以電子郵件傳送 其他應用程式 2月 03, 2024 只能說,GPT模型在學術領域表現出色,特別是在數學解題和文字解釋方面有卓越表現。舉例來說,模型能夠快速解決複雜的數學問題,同時提供深入而清晰的文章摘要,展現其在理論性任務上的卓越能力。然而,當應用於現實世界時,GPT模型呈現推論能力的瓶頸。例如,當要求模型從中國象棋的殘局圖片中推論勝負結果,或者從井字遊戲的局面中尋找獲勝規則路線時,模型難以實現深層的推理,無法直接推導出導向勝利的下一步驟或規則。 更進一步探討延伸應用,文字對話紀錄是需要推論的一個範疇。透過分析文字訊息,我們得以洞察對方的個性、當前心情、內在想法和潛在意圖。這對於理解非直接表達的信息具有重要意義,提供了更深入的對話理解。 取得連結 Facebook X Pinterest 以電子郵件傳送 其他應用程式 留言
AI是否真的會搶走人類的工作?(這篇有實際使用中的職場案例可以解惑) 4月 23, 2025 在撰寫這次的文章標題前,筆者自己來分享一段在近日幾天經歷過一段十分有趣的工作日常紀錄,當然,一定是跟下面這一張Excel截圖內容以及Google Gemini 1.5 Flash或Google Gemini 1.5 Pro、Google Gemini 2.0 Flash、Google Gemini 2.0 Flash Thinking本身的推理能力有100%的關聯性,請務必仔細聽我娓娓道來。 (可自動生成Multi-Chain Reasoning提示詞內容的Gem管理工具,延伸閱讀: 集結當前四種Ai技術最強夢幻組合 ) 第一個實際職場上的生成式AI使用例:車輛管理 整件事情的起源,最初是這樣,由於筆者才剛從其他的產業類別,橫跨進來這個未曾接觸過的交通運輸業部分(簡單說就是相關的工作經驗是零),截至目前為止也才僅待了四個月的時間(註:正在寫這篇文章的時候),那為了能趕上其他同事累積多年以來的學習進度呢,於是就自行製作了這一張可以透過Excel來掌管車輛停放位置的超強工具,如下圖所示。 影片效果: 這邊筆者要先解釋一下,這張Excel不是完全單靠生成式ai工具來完成的,這張Excel背後是集結了同事們在工作領域上的無償知識分享 + 筆者自己長期手寫累積的職場工作筆記 + Google Gemini 1.5 Flash一起共同完成的,基本上Google Gemini 1.5 Flash在這裡的情境,只有協助提供我關於Excel的公式的需求支援部分這樣。 那它的唯一好處就是,能夠把車輛管理這件事,輕鬆實現完全模組化,同時在筆者離職、未來新人任職該產業時(即便是沒有相關經驗),也能在30分鐘內快速理解上手所需的知識與完成車輛的停放順序規劃,這也符合降低門檻這件事的標準,未來也能無痛整合ai agent(Ai代理人)的應用。 延伸閱讀: Ai工作流的學習指南 第二個實際職場上的生成式AI使用例:機動調整大眾運輸工具的時刻表 於是,整件事情發展來說,真的是說巧也真的是有夠巧合的,因為我人在西元2024年10月18日中默默更新這一篇 「Ai推理」的標準定義是什麼? 的內文時,就在隔天西元2024年10月19日凌晨時分,就很剛好臨時遇到同事請病假,隨即就直接在筆者的手機上實際操作、臨時上陣測試這一段完全不在預期之內、完全零腳本的突發事件了,當然,這部分就真的是100%完全仰賴Go... 閱讀完整內容
提升Google翻譯品質的實用方法和注意事項 2月 12, 2024 相信很多人都知道Google翻譯很爛,但卻不見得知道要怎麼正確使用Google翻譯,由於Google翻譯可以做到雙向翻譯,所以通常我都會建議,交換語言來進行二次驗證原意比較不雷。 通常翻譯的內容若有自行重複交換語言驗證翻譯結果後,不管是用在生成式Ai上,還是哪種翻譯工具上,都保證都不會出包。 因為翻譯工具的萬用公式如下: 「情境 + 單字 = 翻譯結果。」 驗證翻譯工具內容的萬用公式如下: 「翻譯結果 + 自己國家的語言 = 驗證翻譯結果準確性。」 只要理解上述這些公式,任何國家語言都能輕易上手,活用在任何翻譯工具上。(除非是要考多益、語言檢定認證考試就不適用本方法。) 但通常也只有一種情況下,才可以直接使用單字來翻譯,那就是「地名」。 因為「地名」的單字本身,並不會有多重解釋的字義存在問題,自然也就不需要情境句來貫通前後文,也能輕易的被理解。 「DeeL翻譯」會被喻為翻譯神器,其實背後原理也很簡單,只要在Google翻譯中,直接套入以下公式做使用就行了: 將「自己國家的語言」 翻譯成 「英文」,再透過「英文 」翻譯成 「他國語言」即可。 如果覺得上述方法太過麻煩,則可以直接使用Google gemini Pro來翻譯就好,因為它具有超強的推理能力。 閱讀完整內容
「Ai推理」的標準定義是什麼? 9月 28, 2024 本文同步刊登在: 「Ai推理」的標準定義是什麼? - 巴姆特小屋 「Ai推理」的標準定義是什麼? - Mobile01 自從ChatGPT-o1模型 (代號「Strawberry」) 問世之後,就紛紛開始關心ai模型是否會推理這件事、甚至誤解成只要ai模型會解開數學題目,就能直接解決真實世界中所有問題的奇怪傳聞出現。 (可自動生成Multi-Chain Reasoning提示詞內容的Gem管理工具) 其實「推理」這門領域,是有具體細分「線性推理」(Linear Thinking)與「非線性推理」(Non-Linear Thinking)的區別,一般常見的「數學計算」、「只要有翅膀,就認為所有鳥類都會飛」的推理,都是屬於「線性推理」的範疇。至於複雜多元領域的問題則是屬於「非線性推理」,可以在不同的知識上建立起知識網路來實現複雜推理。 所以,使用「線性推理」(Linear Thinking)來當成智力標準,筆者反而是只覺得低估了專門處理大量複雜內容的「非線性推理」(Non-Linear Thinking)優勢。 因此,若要測試一個Ai模型是否有具備「非線性推理」(Non-Linear Thinking)的能力,我們可以從詐騙集團的對話紀錄、法院已裁定的犯罪案件之紀錄片的對話紀錄、電競賽事勝負預測、商業行為的決策議題來進行驗證。 反之,若要佐證一個Ai模型是僅只具「線性推理」(Linear Thinking)的能力,則可以從目前已知存在的數學題目之類需要採用一步一步才能得到結果的方式進行驗證。 延伸閱讀: [實測] Claude 3、Google Gemini Pro v1.0、ChatGPT-4 Turbo - 詐騙對話紀錄文本分析測試 [有雷]以「愛、纏、殺:誰是恐怖情人?」進行ai模型推理測試 ChatGPT-4o與Google Gemini 1.5 Flash模型的複雜任務比較 棋類遊戲與上下文推理的關係 Claude 3模型與Google Gemini Pro v1.0模型的視覺推理對決 人工智慧模型的前因後果理解挑戰:以ChatGPT與律師需求為例 最後,筆者來分享一個最近自己經常使用在Google Gemini 1.5 Flash的多重思維鏈 (MCR,Multi-Chain Reasoning) 提示詞: 「請以拆解任務、規劃子目標並評估結果的方式,推理分... 閱讀完整內容
留言
張貼留言