ChatGPT有什麼缺陷?這5缺失都是ChatGPT自己說的

ChatGPT有什麼缺陷?這5缺失都是ChatGPT自己說的

ADVERTISEMENT

2022年11月,OpenAI研發的ChatGPT震撼發表。ChatGPT可以高品質地回答各類問題、像是整合匯總文獻、完成作文、譜寫樂曲、撰寫詩詞歌詞劇本、編寫和調試程式碼、模擬各種終端甚至Linux系統。在發表後的短短兩個月左右,ChatGPT就達到了一億使用者規模,同時引起了工業界和學術界等各方面的重大回響和討論。比爾·蓋茲認為ChatGPT的重要性堪比Internet的發明,「會改變我們的世界」。 

ChatGPT以其強大的回答效果驚豔眾人,但也有其天生的內在缺陷,本文透過向ChatGPT提問的方式,整理出ChatGPT幾大缺陷的表現,分析其內在的技術性原因,可能產生的後果,並提供了相關的應對措施。 

無法提供即時資訊

ChatGPT不能提供最新的、即時的資訊,它的回答基於過去的知識,不具備獲取最新新聞、即時資料和其他動態資訊的能力,無法掌握某個主題的最新端動態和提供其實時情況相關的詳細內容,可回答的知識範圍有明顯的時間邊界。 

技術性原因 

人工智慧模型有特定的訓練資料截止日期,ChatGPT透過在大規模文本資料上進行預訓練生成回答,這些資料是在過去收集的,具體截止至2021年9月,這意味著它無法瞭解2021年9月之後發生的事件和資訊。同時,ChatGPT無法直接連接到即時資料源,如新聞網站、社群媒體、論文資料庫等,以獲取最新的資訊,所以它只能使用預訓練模型中已經存在的知識和語言模式生成回答。

後果

ChatGPT可能提供不準確或過時的回答,這會導致使用者收到不準確的指導、資訊或建議。特別是對於新的法律法規、政策制度、研究成果、新聞事件,ChatGPT依據舊的資料訓練而成的模型作出不符合最新情況的回答,可能會引導使用者做出錯誤的決策或產生誤解。

應對措施 

除了ChatGPT,使用者可以透過其他管道和工具來獲取即時資訊,這包括查閱官方網站、新聞網站、社群媒體、專業論壇、使用搜尋引擎等,以獲取最新的資訊和觀點。對於特定領域的問題,使用者可以諮詢相關領域的專業人士或專家,以獲取準確和即時的資訊。在ChatGPT提供的資訊上,使用者應該進行自主驗證和交叉檢查。透過查閱多個來源、對比不同觀點和驗證事實,以判斷資訊的準確性和時效性。 

缺乏對現實世界的理解

ChatGPT只能處理概念空間的問題,無法解決現實空間的問題。其局限迮對文本輸入的處理和生成回復,無法直接感知和理解現實世界的各種如視覺、聽覺、觸覺等感官資訊,沒有與現實空間互動的能力。

技術性原因

ChatGPT基於文本資料進行訓練,訓練資料主要捕捉的是書面內容,它沒有直接接觸和學習其他如圖像和聲音之類的感官資料。然而,文本資料並非現實世界的完美代表,並不能完整地代表現實世界的經驗。另外,ChatGPT不具備視覺、聽覺、觸覺、味覺和嗅覺等物理感應器,因此ChatGPT很難形成對現實世界的真正理解。

後果

ChatGPT無法提供準確的資訊或解答需要具體感知的問題。例如,對於關於外觀、顏色、聲音等的問題,ChatGPT可能只能給出基於文本資料的猜測。ChatGPT無法真正體驗情感或情緒,它產生的回復可能缺乏情感支持或情感理解。這可能導致使用者在尋求情感支持或理解時感到失望或不滿。這些情況限制了使用者與ChatGPT的對話模式和體驗。

應對措施

使用者在與ChatGPT互動時,應盡可能明確和具體地表達問題和需求。如果問題涉及到圖像、聲音、觸覺等感官相關的內容,可以儘量提供更詳細的描述,以幫助ChatGPT更好地理解。使用者可以借助現有的輔助工具彌補ChatGPT缺乏感官理解的限制,例如,對於圖像相關的問題,使用者可以使用圖像搜尋引擎或圖像描述工具來獲取更準確的資訊。使用者也可以使用更新的GPT-4V(ision)之類的large multimodal models,該模型已經可以處理圖像輸入。

沒有價值觀

ChatGPT沒有價值觀和自主意識,無法根據固定的價值觀回答觀點性問題,可能提供不符合特定國家和地區價值觀的建議。ChatGPT可能會重複或放大訓練資料中的偏見、歧視性內容和非法資訊,進而在回答中表現出歧視性言論、傳播不恰當言論,對某些群體或個人進行攻擊或辱駡,甚至提供不符合當地法律法規的建議。

技術性原因

ChatGPT使用reinforcement learning from human feedback(RLHF)的方法為輸出的答案排序,所體現的是人類的價值觀。但人類的價值觀是分裂的,不同國家、民族、性別、階層的人都有不同的價值觀。這是RLHF方法與生俱來的缺陷。

後果

ChatGPT的回答可能會和使用者本身的價值觀產生衝突,也可能提供違反使用者所處國家的法律法規的建議,進而錯誤引導使用者作出不恰當的決策和行為。

應對措施

在與ChatGPT進行互動時,使用者應保持批判性思維並對其回答進行評估。不要盲目接受ChatGPT的回答,而是對其提供的資訊進行驗證和核實,尤其是在涉及重要決策、敏感話題或價值觀問題時。使用者應不僅僅依賴於ChatGPT的回答,還要尋求其他來源的資訊和意見。透過與多個人對話、查閱可靠的資料和諮詢專業人士,可以獲得更全面和多樣化的觀點,以幫助自己做出準確和明智的決策。使用者還應瞭解人工智慧的局限性和倫理問題,提高對技術的意識和理解,可以更好地應對ChatGPT沒有價值觀的情況。

存在隱私和資料安全隱患

ChatGPT提供的回答可能包含非授權資訊,使用ChatGPT時可能洩露使用者相關資訊。

技術性原因

ChatGPT需要大量資料訓練和提高其性能。這些資料包括公開資料,但公開資料並非全部是授權資料,訓練資料也可能包括使用者輸入,其中可能包含個人資訊、敏感性資料,甚至是涉密資訊。由於與ChatGPT的互動必然會將使用者輸入上傳至其伺服器,所以OpenAI必然可以獲取使用者的輸入資料。

後果

基於非授權資料產生的回答可能包含非授權資訊。使用者的輸入可能洩露個人敏感資訊或機密資料,例如姓名、位址、電話號碼、銀行帳戶等。這可能會導致個人隱私被侵犯或資料被濫用,例如用於追蹤使用者行為、進行廣告定向等,甚至可能被用於身份盜竊、釣魚攻擊、垃圾郵件等。機密資料的洩露可能對相關組織、甚至國家安全產生嚴重的後果。

應對措施

在與ChatGPT進行交換時,應確保不向其提供個人敏感資訊或機密資料。避免在對話中透露個人身份、財務資訊、家庭位址等敏感內容。如果確實要使用ChatGPT進行相關資料的處理,可以在使用前先進行脫敏操作,並使用虛擬身份、匿名帳號或匿名瀏覽器等方式進行互動。

總結

總體來說,使用者在使用ChatGPT的同時,應該注意ChatGPT由於技術性原因所導致的內在性缺陷,採取相應的應對措施,以更好地享受人工智慧所帶來的服務和便利。

bigdatadigest
作者

大數據文摘(bigdatadigest)成立於2013年7月,專注數據領域資訊、案例、技術,在多家具有影響力的網站、雜誌設有專欄,致力於打造精準數據分析社群。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則