在遊戲裡稱讚你「幹得漂亮」的同伴,可能是個機器人?

在遊戲裡稱讚你「幹得漂亮」的同伴,可能是個機器人?

今年 5 月索尼 CEO 吉田憲一郎發表了一個有意思的聲明:他們的人工智慧研究部門 Sony AI 將與 PlayStation 開發者合作,創建機器人 AI 玩家。這沒啥新意,關鍵是他提到「透過利用強化學習,我們正在開發可以成為玩家對手或同伴的遊戲 AI 。」強化學習是機器學習的一個領域,人工智慧在其中能夠透過反復試驗有效地自學如何作出反饋。

圖片來源:Karina Nooka

簡而言之,這些機器人玩家將模仿人類玩家。某種程度上來講,他們(它們)會思考。

這只是人工智慧在電子遊戲開發中不斷迭代和發展的最新例子。隨著開放世界遊戲變得越來越復雜和宏大,如今已經擁有數百個角色和多個互相交織的故事。開發人員必須構建起能夠產生智慧的、有反應的、有創造力的角色應對突發情況的系統。

遊戲開發商 Monolith 創建了廣受好評的 Nemesis AI 系統,讓遊戲里的敵人記住它們與玩家的戰斗,然後在整個冒險過程中製造血腥和仇恨,也就是說,遊戲角色不再健忘,而會記仇。最近的遊戲《看門狗》為玩家和與之互動的每一位倫敦市民生成了生活故事、人際關係和日常生活。因此,如果有一天玩家挽救了一個角色的生命,那麼他們最好的同伴很可能會在下一天加入玩家的陣營。對的,遊戲角色不光會記仇,也會報恩。

《看門狗》. 圖片來源:epicgames

如何自動而隨機地讓遊戲角色和玩家產生互動和故事其實也不是什麼難事,之前文本冒險遊戲 AI Dungeon 使用 OpenAI 的自然語言建模器 GPT-3 來創建新出現的敘事體驗。也就是說,電腦現在自己會寫故事了。

不過人工智慧領域存在多樣性問題,主要是女性和有色人種比例不高。紐約大學 2019 年發表的研究發現,在重大活動中發言的人工智慧教授中 80% 是男性,Facebook 的人工智慧研究人員中只有 15% 是女性,而在Google只有 10%。科技行業有色人種的統計數據更糟:Google只有 2.5% 的員工是黑人;Facebook 也只有 4%。這種同質化工作文化的風險在於,性別和種族偏見可能會不受控制地影響 AI 演算法,產生的結果會復制根深蒂固的不平衡和偏見。

在過去的五年里,已經有很多這樣的例子,比如有些面部辨識系統會歧視有色人種;或者是人工智慧招聘工具表示更喜歡男性應聘者。

在遊戲裡稱讚你「幹得漂亮」的同伴,可能是個機器人?

其實,電子遊戲開發也存在類似的同質性問題,如果我們未來看到人工智慧生成了多樣化的角色和故事,開發人員是否也需要考慮讓背後的團隊實現多樣化呢?電腦自己寫的故事和劇情,會不會總是兩個美國男人之間的故事?對不起,我們比較喜歡看《美國心玫瑰情》,而不是《美國男人》。

雖然現狀不太樂觀,不過遊戲界已經意識到這個問題,然後開始解決了。

Uma Jayaram 是美國藝電公司創新與應用研究團隊 SEED 總經理,作為一名女性高層,她天然是支援多樣性的。另外,作為一名有影響力的科技企業家,她曾從事雲端運算、虛擬實境和大規模數據以及人工智慧領域的工作,身份,影響力和工作屬性讓她尋求組建自己的全球團隊。最終,她團隊成員位於瑞典、英國、加拿大和美國,並有著不同的性別、種族和文化。她說:

一個多元化的團隊能夠融合多種觀念,然後更標桿產品(遊戲)的可能性也就更大。這種標桿遊戲還可以讓我們眼光廣闊,識人知人,增強我們的同理心。電子遊戲在某種程度上是我們物理世界的延伸,是人們消磨時間體驗快樂的地方,這種體驗可以回溯到自我和社群的集體意識中。因此,面對這種絕佳的機會,我們有兩種方式引入多樣性:讓設計和構建這些世界的團隊實現多樣性,以及讓正在創建的世界和居住在其中的居民實現多樣性。

Uma Jayaram. 圖片來源:businesswire

EA目前正在研究開發系統,該系統可以透過機器學習從視訊和照片中復製麵部表情、皮膚類型和身體動作等,不再需要將演員帶入動作捕捉工作室中。

從理論上講,這應該會擴大遊戲中可以產生的性別和種族范圍。Jayaram 表示,藝電公司致力於在其研發項目中使用多樣化的數據。該公司還在考慮在遊戲中使用使用者生成的內容,並允許玩家透過在智慧型手機或網路鏡頭上捕捉自己的肖像和表情,並將其上傳到遊戲中,進而製作出獨特的頭像。

這種小功能我們並不陌生,關鍵是我們願不願意上傳我們的面部數據。

EA. 圖片來源:businesswire

強調多樣化的數據的重要性,是因為它實際上是在糾正福斯了對人工智慧的一個誤解:它在某種程度上是客觀的,因為它是計算的結果。

實際上,AI 演算法依賴於數據,如果該數據來自單個人口統計數據,那麼它將反映該群體的偏見和盲點。

「我們習慣於把人工智慧看作物理引擎或多人遊戲程式碼,有時看作是一些發生在幕後的技術,」人工智慧研究員和遊戲開發者 Michael Cook 說。「但今天的人工智慧是創造性工作的一部分。它控制著《模擬市民》中 AI 人的行為和相處;它會在《卡德洞窟》和《Ultima Ratio Regum》這樣的遊戲中產生文化和宗教,它也會是《看門狗》遊戲中政治聲明的一部分。人工智慧工程師對玩家的責任與編劇和設計師一樣大。他們能創造快樂體驗,也可以製造男默女淚的傷害,即便他們並不撰寫劇情。比如最近文字冒險遊戲 AI Dungeon 就在沒有任何警告的情況下生產了可能對玩家造成傷害的故事。

遊戲《Ultima Ratio Regum》. 圖片來源:Youtube@Blind

在微軟,該公司位於劍橋的人工智慧研究團隊正在進行幾項關於機器學習和遊戲的研究,包括名為 Paidia 項目,該項目正在研究強化學習在遊戲人工智慧代理中的應用,比如 AI 代理可以與人類玩家協作。

微軟還看到了玩家建模的潛力——人工智慧系統透過觀察人類玩家在遊戲世界中的行為來學習如何行動和反應。只要您擁有廣泛的玩家基礎,這就可以成為增加輸入 AI 學習系統的數據多樣性的一種方法。微軟在劍橋的首席研究員 Katja Hofmann 說:

下一步將是經過訓練以提供更多樣化或更人性化的角色。機器人玩家向人類玩家學習的場景是最具挑戰性的場景之一,但也是最令人興奮的方向之一。

Katja Hofmann. 圖片來源:slideslive

和前文幾位遊戲業內人士觀點類似,Katja Hofmann 也在強調:人工智慧技術不會自動帶來多樣化的遊戲體驗。開發者和創作者需要選擇如何使用人工智慧技術,這些選擇決定了由此產生的角色和體驗是否反映多樣性。

不管是星際爭霸中的機器人對手,或者是 AlphaGo 或者騰訊絕悟這樣的圍棋 AI,遊戲行業都傾向於把人工智慧設計成對抗系統,人工智慧的作用是創造更強的對手或者隊友。但如果我們把目光放遠一點,我們確實看到了其他選擇。Coder 和紐約大學教授 Mitu Khandaker 與技術專家 Latoya Peterson 一起建立了她的 Glow Up Games 工作室,為不同的觀眾製作社群敘事遊戲。該團隊目前正在開發 Insecure: The Come Up Game,這是一款基於熱門 HBO 劇集的手遊,可以讓玩家探索角色之間的關係。

圖片來源:twitter@insecuregame

開發工作室 Tru Luv 之前創建了大受歡迎的 Self-Care 應用程式,如今他們正在開發反映公司自身多樣化、進步和支援性工作室文化的人工智慧技術。這個工作室創始人 Brie Code 說他們公司目前有三分之一的黑人、土著和有色人種,三分之二的女性,決策團隊是 100% 女性,董事會是三分之一的 BIPOC(黑人、原住民和有色人種)和三分之二的女性,他們與來自巴基斯坦、突尼西亞和摩洛哥等新興發展社群的顧問和合作夥伴開展合作。

與 Khandaker 一樣,Code 認為多元化的勞動力不僅可以消除傳統遊戲中存在問題的偏見,還可以開發新的互動體驗。「多年來,遊戲行業一直專注於人類心理學的一小部分,」她說。「它非常擅長創造幫助人們感受到成就感或支配感的體驗。由多元化勞動力創造的遊戲 AI 將為 NPC 和代表人類體驗的廣度和深度的體驗帶來生命。我們會看到更多的非零和體驗、更多的同情心、更多的情感共鳴、更多的洞察力、更多的超越。我們將會看到全新的遊戲形式,它會更加調動玩家創造力、熱愛和快樂的感覺,而不僅僅是勝利與支配感。」

圖片來源:syncedreview

現在遊戲主機和高階 PC 有著更強大的計算能力,人工智慧系統的復雜性也將隨之增加。開發人員將探索自然語言處理、玩家建模和機器學習等元素,以開發富有想像力的、反應式的人工智慧角色。其中的關鍵問題,就是上面說到的,多樣性的問題。Mike Cook 說因為 AI 研究領域的人員構成問題,我們錯過了很多的想法和觀點。

多樣性不僅僅是為了避免錯誤或傷害——它是關於新的想法、不同的思維方式和新的聲音。遊戲 AI 多樣化意味著聰明的人可以將他們的想法付諸實踐,這意味 AI 不僅將以全新方式出現在遊戲里。還可能意味著新的遊戲類型呼之慾出。

多樣化的遊戲代表《模擬市民》. 圖片來源:origin

所以,回到標題所說,AI 在遊戲像真人那樣和玩家交流對話其實並不重要,重要的是,AI 以何種身份與玩家交流對話……

ifanr
作者

ifanr依托於中國移動互聯網的發展大潮,用敏銳的觸覺、出色的內容,聚焦 TMT 領域資訊,迅速成為中國最為出色的新銳科技Blog 媒體。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則