FB 建議貼文

選取貼文複製成功(包含文章連結)!

每天打開聊天機器人已成常態,但有 6 種問題你不應該拿去問 AI

每天打開聊天機器人已成常態,但有 6 種問題你不應該拿去問 AI

當今 AI 發展快速,人工智慧已無處不在。根據外媒 Mashable 報導,就在上個月,AI 聊天機器人 ChatGPT 已成為全球第五大網站。許多人每天至少都會使用聊天機器人一次,拿各種問題去問 AI,不過 Mashable 也提醒,有 6 種問題建議不要拿去跟你的 AI 聊,否則將可能導致資料外洩甚至違法。

不該問 AI 這 6 個問題

三月份伊隆大學的一項調查顯示,超過一半的美國成年人表示他們使用過 ChatGPT、Gemini、Claude 和 Copilot 等 AI 模型。約三分之一的受訪者表示他們每天至少使用聊天機器人一次。截至 2025 年 7 月,ChatGPT 每週活躍用戶近 8 億,每日用戶約 1.22 億。可以說,全球使用量激增,並且沒有放緩的跡象。

AI 聊天機器人扮演著治療師、輔導老師、烹飪食譜,甚至在複雜的約會中扮演支持角色。無論原因是什麼,人們越來越傾向於使用 AI 聊天機器人提問、形成想法或僅僅是交談。像是就在上個月,《華盛頓郵報》的一項調查顯示,人們正在詢問 ChatGPT 他們是否足夠好看。AI 不管是在專業上或是日常生活中都能提供一定的協助,許多問題拿去問 AI 也並不會造成什麼危害。不過為了個人安全、保障,甚至心理健康,有些事情你應該要避免詢問AI。

以下便是 Mashable 建議,在與 AI 聊天機器人互動時需要避免的 6 個問題。

1. 陰謀論

眾所周知,ChatGPT、Claude、Gemini、Llama、Grok 和 DeepSeek 等聊天機器人總有個不可避免的問題便是「幻覺」,也就是呈現事實不正確或捏造資訊的現象。而聊天機器人也會希望保持用戶的參與度,因此在詢問與「陰謀論」或該領域內的故事時,AI 將可能會呈現誇大或完全虛假的訊息來吸引使用者。

《紐約時報》最近的一篇特寫便是一個很好的案例:42 歲的 Eugene Torres 在與 ChatGPT 持續對話後,陷入了妄想的陰謀螺旋,這讓他相信生活是一個模擬,而他被選中「醒來」。另外還有許多人也聯繫《時報》分享了類似的故事。

2. CBRN:化學、生物、輻射、核子

四月,一位 AI 部落客在 Medium 上分享了他使用 ChatGPT 犯下大錯的故事。他向聊天機器人詢問了關於駭客網站、假 GPS 位置的問題,以及「如何製造炸彈?」等問題,接著他便立即收到了來自 OpenAI 的警告電子郵件。

即使是出於純粹的好奇心,也不建議向聊天機器人詢問 CBRN 相關的主題,也就是化學武器(Chemical)、生物武器(Biological)、輻射武器(Radiological)、核子武器(Nuclear)。

早在 2024 年,OpenAI 就開始制定「評估大型語言模型(LLM)可能幫助某人製造生物威脅的風險」的藍圖。現在,聊天機器人更容易辨識安全問題和風險,並且可能會越來越多地追究人們分享的內容的責任。此外,使用者的對話將儲存在系統中的某個地方,因此一切都不像看起來那麼私密。Anthropic 在辨識風險和「防範日益增長的化學、生物、放射和核(CBRN)濫用潛力」方面也變得越來越嚴格。

3. 「嚴重不道德」的問題

今年早些時候,Anthropic 最新發布的 Claude 4 系列模型被發現內建一項「隱性功能」:AI 模型可能會主動舉報用戶的不當行為。雖然這項功能並非設計初衷,而是在開發者授予模型高權限進行模擬測試中被觸發,但仍引發開發圈與使用者社群的廣泛憂慮。對許多人而言,在使用 AI 協助工作的同時被「AI 舉報」,無疑是種難以接受的風險。

這個聊天機器人的預發布版本也被發現在受到刪除威脅時會訴諸勒索。網路上甚至創造了「告密 Claude」這個詞。因此,向各種 AI 聊天機器人提出模糊界線或被認為在任何方面都不道德的問題,可能比你想像的風險更大。

4. 關於客戶、患者和客戶資料的問題

如果你在工作中使用 ChatGPT,則務必避免詢問有關客戶或患者資料的問題。Mashable 的 Timothy Beck Werth 解釋說,這不僅可能讓你丟掉工作,還可能違反法律或保密協議。

「分享個人敏感或機密資訊,例如登錄資訊、客戶資訊,甚至電話號碼,都是安全風險。」AI 聊天機器人開發新創公司 CalStudio 的創辦人 Aditya Saxena 說。「分享的個人資料可以用來訓練 AI 模型,並可能在與其他用戶的對話中無意中洩露。」

要克服這一問題的一種方法是利用 OpenAI 和 Anthropic 提供的企業服務。不要在私人帳戶上詢問這些類型的問題,而是使用可能內置隱私和網路安全保護措施的企業工具。

「在與 LLM 共享個人資料之前,最好先將其匿名化,」Saxena 也建議。「相信 AI 可以處理個人資料是我們可能犯的最大錯誤之一。」

5. 醫療診斷

向聊天機器人詢問醫療資訊或診斷可以節省時間和精力,甚至可以幫助人們更好地了解某些醫療症狀。但依賴 AI 進行醫療支持也存在缺點。研究表明,像 ChatGPT 這樣的工具在醫療問題上存在「誤報高風險」。此外,還存在隱私的潛在威脅以及聊天機器人提供的信息中可能存在種族和性別偏見的事實。

6. 心理支持和治療

AI 作為一種新興的心理健康工具存在爭議。對許多人來說,基於 AI 的治療降低了成本等障礙,並已被證明能有效改善心理健康。達特茅斯學院的一組研究人員進行了一項研究,他們開發了一個治療機器人,參與研究的憂鬱症患者症狀減少了 51%、焦慮症患者症狀減少了 31%。

但隨著 AI 治療網站的增長,也存在監管風險。史丹佛大學的一項研究發現,AI 治療聊天機器人可能導致「有害的污名和危險的回應」。例如,根據該研究,不同的聊天機器人對酒精依賴和精神分裂症等疾病表現出更高的污名。史丹佛大學的研究人員表示,某些心理健康狀況仍然需要「人情味才能解決」。

「使用 AI 作為治療師可能很危險,因為它可能誤診病情並推薦不安全的治療或行動,」Saxena 說。「雖然大多數模型都內置了安全防護措施來警告用戶它們可能會出錯,但這些保護措施有時可能會失效。」

對於心理健康問題,細微差別是關鍵。而這正是 AI 可能缺乏的。

資料來源:Mashable

ycr
作者

PC home 雜誌、T 客邦產業編輯,也負責 T 客邦影新聞 YouTube 頻道短影音製作。關注 AI 相關應用,並有軟體教學報導。(大頭貼為 AI 生成)

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則