Skip to main content

GPT的使用限制

和康顧問 版權所有 2024 © All Rights Reserved

前言

「生成預先訓練轉換器」(Generative Pre-trained Transformer, 簡稱GPT)的出現,讓電腦能自我學習來獲取語言知識,創造出能理解語言和對話的聊天機器人。然而,在GPT的背後,是一連串複雜的訓練和調整的作業;就算耗盡人類的量能,都無法完整協助GPT了解到對的資訊。這也表示:GPT未必能提供正確的資訊。

GPT並不具備真正的理解能力

GPT是深度學習的技術實踐,它透過大量的文字資料來自我學習。最初的階段,這些資料並不會有人工介入進行更正或標註意義。換言之:GPT無法知道這些資料的正確性。資料從何而來?都是GPT透過網路開放內容取得,這包含新聞或網站討論等。然而存在於網路的資料並非絕對正確或可靠,這也導致GPT可能學習錯誤的知識卻渾然不知。

雖然GPT也會由人工進行微調,但微調是指在其已完成訓練的基礎上,針對部分特定的工作或領域由人工來進行資料標註。然而人力資源有限,無法標註全部的資料,也因此無法涵蓋所有語言使用情境。當GPT使用到超過微調範圍的資料時,就可能出現錯誤或不合適的回應。此外,微調也僅針對資料內容進行確認,無法根本改變GPT的運作原理。

GPT 是一個深度學習的數學模型。這表示所有的內容,都是透過一連串複雜的計算,把學習到的資料進行統計,而計算出來的。這表示,GPT只是在模仿我們的語言,但它並無法真正理解背後的意義。

將GPT當成是一位魚販的助手。他每天都在觀察老闆和顧客是如何挑選魚貨,而從中他得知:「這條魚多重?」、「這條魚新鮮嗎?」等問答的方式和內容。之後,這位助手開始幫老闆回答顧客的問題。他能應對每個問題,但這位助手不知道如何計算魚貨的重量,也看不出魚貨的新鮮程度。他只是根據每天看到、聽到的內容,重新組合而已。他看似很聰明,但從未理解每天看到的一切是如何運作的。

所以,在使用GPT時務必留意:它從未理解我們的問題。它只是透過識別和計算、統計,根據我們提出的問題來產生合適的答覆而已。

使用者沒有辦法了解GPT的運作機制

GPT 內部包含數千億個參數,而這些參數和訓練資料彼此互動,使用者無法直接了解GPT的計算過程。此外,即使了解GPT處理輸入資料的方式,但GPT的運作基於一系列複雜的數學運算,這需要專家才得以解讀。但就算專家能解讀,也未必能掌握足夠的資料量。再者,GPT大量運算的步驟難以逐一追溯;即便觀察到輸入和輸出的關係,仍然難以明確了解其中每一步是如何計算得出的。

GPT的運作原理是基於模式識別統計學,並非真正理解語言的意義。因此,GPT在某些情境下會生成看似合理但實際上並不正確的回答。此外,由於GPT的生成過程是概率性的,每次輸出的結果可能會有所不同,這也增加了不確定性。目前由於GPT尚未公布對資料微調的內容和結果,因而缺乏透明度,這讓使用者也無法了解資料微調對於GPT表現所帶來的影響。

GPT雖然展現優秀的語言處理能力,但並未具備理解能力。它的運作原理基於模式識別和統計學,僅能模仿語言模式和結構,並未能夠理解背後的意義。這導致GPT在某些情境下可能會產生錯誤或不合適的回答。現階段使用者難以了解GPT的具體運作機制,因為其內部藉由數千億的參數與大量的訓練資料互動,這些複雜的運算過程超出人力可以全面掌握的範疇。使用GPT時,應當保持謹慎,並了解其限制,切勿過度依賴而將其生成的內容作為唯一的資訊來源。

重點摘要

  • GPT能自我學習語言知識,但無法提供絕對正確的資訊。
  • GPT有針對資料進行微調,但僅限於特定工作或領域,無法涵蓋所有語言使用情境。
  • GPT的參數龐大,超過人力可以探討的上限,而其計算過程難以逐一追溯和解釋。
  • GPT透過計算和統計模仿語言模式,無法真正理解語言背後的意義。

延伸討論

  • 如何增加GPT訓練資料的來源和多樣性?
  • 如何驗證GPT產生內容的正確性和可靠性?
  • 如何制訂相關法規來避免GPT產生的問題?