
根據《金融時報》7月8日的報導,OpenAI 近期全面升級內部資安系統,進一步防範企業間諜與機密洩漏風險。新措施中最受矚目的,是針對 AI 核心模型與新產品開發所實施的「資訊隔離政策」。
報導指出,在開發 o1 模型的過程中,僅有通過嚴格審查、且具備特定權限的員工,才被允許在公開辦公區討論相關內容,避免機密資訊意外曝光。
除了限制內部人員的存取權限,OpenAI 也將最敏感的模型與演算法部署在離線運作的電腦系統中,並於辦公空間設置生物辨識門禁系統,例如指紋掃描,確保只有授權人員能夠進入特定區域。
此外,OpenAI 採取「預設不連網」的政策,所有連網需求均須先提出申請、經過核准後才能執行。也就是說,即使是內部人員,若未經授權,也無法讓開發機器上網,確保資料不會經由網路外洩。
該報導也提到,OpenAI 不只強化實體空間的防護措施,還擴編了網路資安團隊,並提升資料中心的整體安全等級,力求從內外部全面封鎖潛在風險。
這一系列動作反映出,OpenAI 對「外部勢力試圖竊取AI技術」的擔憂已達到新高。不過外界也認為,除了來自國際的競爭壓力,美國本土 AI 人才爭奪戰也越趨白熱化,加上先前執行長 Sam Altman 內部發言頻頻外流,OpenAI 這次升級防線,很可能也是為了補強內部資訊安全漏洞。
- 延伸閱讀:OpenAI 確認今夏推出 GPT-5:「史上最強多模態 AI 模型」將整合文字、語音、影像
- 延伸閱讀:前OpenAI研究員忙說「根本沒見過1億簽約金」,Meta高額挖角傳言純屬虛構?
- 延伸閱讀:OpenAI 執行長警告:別對 AI 過度信任,ChatGPT 並非萬無一失
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!