FB 建議貼文

選取貼文複製成功(包含文章連結)!

防範機密外洩,OpenAI採用「物理隔離」方式保護AI核心模型

防範機密外洩,OpenAI採用「物理隔離」方式保護AI核心模型

根據《金融時報》7月8日的報導,OpenAI 近期全面升級內部資安系統,進一步防範企業間諜與機密洩漏風險。新措施中最受矚目的,是針對 AI 核心模型與新產品開發所實施的「資訊隔離政策」。

報導指出,在開發 o1 模型的過程中,僅有通過嚴格審查、且具備特定權限的員工,才被允許在公開辦公區討論相關內容,避免機密資訊意外曝光。

除了限制內部人員的存取權限,OpenAI 也將最敏感的模型與演算法部署在離線運作的電腦系統中,並於辦公空間設置生物辨識門禁系統,例如指紋掃描,確保只有授權人員能夠進入特定區域。

此外,OpenAI 採取「預設不連網」的政策,所有連網需求均須先提出申請、經過核准後才能執行。也就是說,即使是內部人員,若未經授權,也無法讓開發機器上網,確保資料不會經由網路外洩。

該報導也提到,OpenAI 不只強化實體空間的防護措施,還擴編了網路資安團隊,並提升資料中心的整體安全等級,力求從內外部全面封鎖潛在風險。

這一系列動作反映出,OpenAI 對「外部勢力試圖竊取AI技術」的擔憂已達到新高。不過外界也認為,除了來自國際的競爭壓力,美國本土 AI 人才爭奪戰也越趨白熱化,加上先前執行長 Sam Altman 內部發言頻頻外流,OpenAI 這次升級防線,很可能也是為了補強內部資訊安全漏洞。

 

 

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則