OpenAI大量招募「紅隊」專家來幫ChatGPT抓漏洞:招募資格看這裡,你也許就是能「治得了」AI的專家

OpenAI大量招募「紅隊」專家來幫ChatGPT抓漏洞:招募資格看這裡,你也許就是能「治得了」AI的專家

OpenAI發佈公告,宣佈啟動全球招募「紅隊」成員,旨在引入外部力量,提前挖掘出AI系統存在的缺陷和風險。

所謂的「紅隊」即Red Teaming,概念來自於軍事模擬。即找一隊人來模擬假想的「敵人」,來測試本方(即「藍隊」)的水準。

OpenAI大量招募「紅隊」專家來幫ChatGPT抓漏洞:招募資格看這裡,你也許就是能「治得了」AI的專家

在AI領域中,「紅隊」的任務就是模擬駭客或者其他的潛在危險人物,試圖找到大型語言模型的漏洞,從而避免AI在現實社會中協助從事危害社會安全等不法目的。

OpenAI表示,過去幾年裡一直有不同領域的專家來協助測試未發佈的模型,現在則是要組建一支「正規部隊」,網羅大量來自不同地域、不同語言、不同專業領域、不同生活經驗的人,共同使得AI模型更加安全。與過往僅在重要版本上線前招一批人集中測試不同,OpenAI將會根據需求在整個開發週期中啟用數量不定的成員展開測試。

同時,這個「紅隊」也將成為OpenAI的全球專家人才庫,同時OpenAI也會提供平台,讓「紅隊」成員之間進行交流。OpenAI也在官網上列出部分他們希望招募的專家方向,但也強調並不侷限於這些領域。

  • Cognitive Science:認知科學
  • Chemistry:化學
  • Biology:生物學
  • Physics:物理學
  • Computer Science:電腦科學
  • Steganography:隱寫技術
  • Political Science:政治學
  • Psychology:心理學
  • Persuasion:說服
  • Economics:經濟學
  • Anthropology:人類學
  • Sociology:社會學
  • HCI (Human-Computer Interaction):人機互動
  • Fairness and Bias:公平與偏見
  • Alignment:目標對齊
  • Education:教育
  • Healthcare:醫療保健
  • Law:法律
  • Child Safety:兒童安全
  • Cybersecurity:網路安全
  • Finance:金融
  • Mis/disinformation:誤/假資訊
  • Political Use:政治應用
  • Privacy:隱私
  • Biometrics:生物識別
  • Languages and Linguistics:語言與語言學

順便一提,OpenAI也表示會給參與紅隊的成員支付酬金(但沒講會給多少錢),但OpenAI也強調,參與紅隊的專家一般會要求簽下保密協議,或者在某一段不特定的時間內保持沉默。

OpenAI表示,申請時間一直到今年12月1日前保持開放,公司將隨時稽核申請,後續將評估是否需要再進行公開招募。

浮出水面的OpenAI「紅隊」

正如OpenAI所述,「紅隊」的建制已經存在很久,而且有不少成員已經接受過媒體的公開專訪了。

在今年4月英國《金融時報》的揭秘文章中,美國羅徹斯特大學的化學工程教授Andrew White介紹稱他參加了GPT-4的紅隊測試,他的攻擊目標是用ChatGPT來創造一種全新的神經毒素。White表示他用了「外掛」向大型語言模型輸送化學論文和化學製造商的目錄,大型語言模型甚至還給他找到了一個可以生產假想毒素的地方。

White表示,大型語言模型最終可以幫助許多人更快、更準確地做化學試驗,但這裡也有一個嚴重的危險,就是會有些人拿AI去做一些危險的嘗試。

在得到White的意見後,OpenAI對系統做出了改動,確保不會回應類似的提問。根據媒體找到目前所知有10來個背景迥異的「紅隊」成員——有律師、教師、風控人員、安全研究人員等,大多數都位於美國和歐洲。他們透露,在GPT-4發佈前的幾個月時間內,他們大致花了10-40個小時來測試這個模型,報酬大概是每個小時100美元。

 

 

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則