Google 正進一步將其生成式人工智慧模型 Gemini 深度整合進 Gmail 中,希望使用者在處理電子郵件時能更多加利用這項工具,同時也對外大力保證,用戶的隱私與資訊安全絕對不會因此受到損害 。
AI 代勞寫信、摘要,功能大進化
目前,Gemini 已經在 Gmail 中擔任多種得力助手的角色,例如自動生成和潤飾信件內容、提供回信建議、校對文法措辭、針對收件匣進行優先順序分類,以及自動摘要長篇郵件的重點等 。對於每天需要處理海量信件的上班族來說,這些功能無疑是一大福音。然而,隨著 AI 介入私人通訊,不少人也開始擔憂自己的機密信件是否會淪為科技巨頭訓練 AI 的免費素材。
為此,Google 在最新發布的官方部落格文章中大派定心丸,強調即便使用者在 Gmail 中呼叫 Gemini 幫忙,這些信件資料依然是「完全安全且私密」的 。

看完即忘:Gemini 的私人小房間機制
Google 特別聲明,旗下所謂的基礎人工智慧模型(包含 Gemini 在內),絕對不會使用用戶的個人電子郵件內容來進行模型訓練 。Google 表示,Gmail 在設計之初就是以安全為最高指導原則,使用者在 Gmail 裡交辦給 Gemini 處理的任務,全部都是在一個受到嚴格管控的隔離環境中完成的 。
從資料存取的運作機制來看,Gemini 對於信箱資料的使用權限是非常短暫的 。也就是說,AI 模型只有在執行使用者當下下達的指令時,才會短時間存取相關的信件資料,一旦任務完成,系統就會立刻撤銷 AI 對收件匣內容的存取權限,透過這種流程設計來大幅降低資料外洩的風險 。
Gmail 產品副總裁 Blake Barnes 用了一個很生動的比喻來解釋這個過程:這就像是讓 Gemini 暫時走進一間裝著用戶私密資料的「私人房間」,模型在這個房間裡利用這些資訊完成交辦的工作後就會立刻離開,而且離開後就再也無法接觸到這些資訊了 。
AI 隱私成兵家必爭之地
過去一段時間以來,科技業界已經發生過多起因為 AI 模型處理不當而導致機密資料外洩的案例,這也是為什麼 Google 這次要頻頻強調自家作法與同行不同的主要背景 。
舉例來說,之前就有外媒報導指出,微軟曾被發現意外將使用者的機密信件上傳到 Copilot 伺服器進行摘要處理,這起事件在當時引發了外界對於隱私保護和資料使用方式的強烈質疑 。在這種風聲鶴唳的氛圍下,Google 顯然極力避免被大眾歸類為同一種輕忽隱私的公司 。
Google 的策略很明顯,一方面透過持續強化 Gemini 在 Gmail 中的各項實用功能來吸引使用者買單,另一方面又必須不斷向外界保證隱私和安全絕對無虞 。在 AI 逐漸接管我們數位生活的時代,各大科技巨頭都面臨相同的挑戰。誰能讓使用者在享受 AI 帶來的生產力大躍進時,又能真正對隱私感到安心,誰就能在下一波的科技戰中穩操勝算。
- 延伸閱讀:Gmail 垃圾信灌爆收件匣、收信延遲?Google 官方證實搶修中
- 延伸閱讀:Gemini 推「個人化智慧服務」:可連結 Gmail、Google 相簿等應用程式,提供量身打造的答案
- 延伸閱讀:Gmail 邁入 Gemini 時代:AI 摘要、智慧回覆、AI 收件匣 3 大功能上線
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!