2019.02.12 08:30

演算法當道!為什麼人類和人工智慧越來越像?

ADVERTISEMENT

演算法告訴我們該如何思考,而這正在改變我們。隨著電腦學會如何模仿,我們是否正開始變得越來越像它們呢?

矽谷正越來越多地預測人們會如何回覆電子郵件,會對某人的Instagram照片做出什麼樣的反應,越來越多地決定人們有資格享受哪些政府服務,不久以後,即將到來的谷歌語音助理Google Assistant將能夠為人們即時打電話預約理髮師。

ADVERTISEMENT

從醫院到學校,再到法庭,我們幾乎將演算法帶到了所有的地方。我們被各種自動化系統所環繞。幾行程式碼就可告訴我們應該看什麼媒體內容,與誰約會,甚至告訴司法系統應該把誰送進監獄。

我們把如此之多的決策權和控制權交給這些程序,是對的嗎?

我們之所以痴迷於數學程式,是因為它們能對一系列錯綜複雜的問題給出快速而準確的答案。機器學習系統已經被應用於我們的現代社會的幾乎每一個領域。

演算法是如何影響我們的日常生活的?在一個不斷變化的世界裡,機器正在快速而出色地學習人類的行為方式,我們喜歡些什麼,討厭些什麼,以及什麼是對我們最好的。我們現在生活在由預測性技術主宰的空間裡。

ADVERTISEMENT

透過分析整理巨量的資料,給我們提供即時且相關的結果,演算法極大地改變了我們的生活。多年來,我們讓公司們收集了大量的資料,讓公司變得能夠給我們提供各種建議,能夠決定什麼是對我們最有利的。

Google母公司Alphabet或Amazon等公司一直在為各自的演算法灌輸從我們身上收集到的資料,並指導人工智慧利用收集到的訊息來適應我們的需求,變得更像我們。然而,隨著我們習慣了這些便捷的功能以後,我們的說話和行為方式是否會變得更像一台電腦呢?

「演算法本身並不公平,因為構建模型的人定義了成功。」——資料科學家凱茜‧奧尼爾(Cathy O』Neil)

按照當前這樣的技術發展速度,我們不可能不去想像在不久的將來,我們的行為會變得由演算法引導或支配。事實上,這已經在發生了。

ADVERTISEMENT

去年10月,谷歌為旗下電子信箱服務Gmail推出了名為「Smart Reply」的智慧回覆功能,意在幫助你編寫回信或者快速回覆。此後,該助理功能在網路上掀起了一場風暴,很多人都批評它,稱其量身定製的建議具有侵害性,讓人看起來像機器,甚至有人認為,它的回覆最終可能會影響我們的交流方式,甚至可能改變電子郵件的規範。

演算法的主要問題在於,隨著它們變得如此巨大而複雜,它們會開始給我們當前的社會帶來負面影響,會危及民主。隨著機器學習系統在社會的許多領域變得越來越普遍,演算法會統治世界,接管我們的思想嗎?

現在,讓我們來看看Facebook的做法。早在2015年,他們的新版News Feed訊息流的設計初衷就是篩選使用者的訂閱內容,使其變成個性化的報紙,讓使用者能夠看到與他們之前曾點讚、分享和評論的內容相關的東西。

ADVERTISEMENT

「個性化」演算法的問題在於,它們會將使用者放入「過濾氣泡」或者「回聲室」。在現實生活中,大多數人不太可能接受他們覺得困惑、討厭、不正確或可恨的觀點。就Facebook的演算法而言,該公司給予使用者他們想要看到的東西,因此,每個使用者的訊息流都變成一個獨特的世界,它們本身就是一個獨特的現實。

過濾氣泡使得公開論證變得越來越困難,因為從系統的視角來看,訊息和假訊息看起來完全一樣。正如羅傑·麥克納米(Roger McNamee)最近在《時代》(Time)雜誌上所寫的那樣,「在Facebook上,事實不是絕對的;它們是一種選擇,最初留給使用者和他們的朋友決定的一種選擇,但隨後被演算法放大,以便促進傳播和使用者的互動。」

過濾氣泡製造了一種錯覺:每個人都相信我們在做著同樣的事情,或者有同樣的習慣。我們已經知道,在Facebook上,演算法因為加劇了兩極化而讓這一問題進一步惡化,最終損害了民主。有證據表明,演算法可能影響了英國公投或2016年美國總統大選的結果。

「Facebook的演算法推崇極端訊息,而非中性訊息,這會讓假訊息凌駕於真實訊息之上,讓陰謀論凌駕於事實之上。」——矽谷投資人羅傑‧麥克納米(Roger McNamee)

在無時無刻都充斥著大量訊息的當今世界,篩選訊息對一些人來說是一個巨大的挑戰。如果使用得當,人工智慧可能會增強人們的在線體驗,或幫助人們迅速處理不斷增長的內容資訊負荷。然而,要能夠正當運作,演算法需要關於真實世界中發生的事情的準確資料。

公司和政府需要確保演算法的資料不存在偏見,且是準確的。由於沒有什麼是完美無瑕的,存在自然偏差的資料估計已經存在於許多的演算法中,這不僅給我們的網路世界帶來了危險,也給現實世界帶來了危險。

倡導實施更強有力的監管框架是必要的,這樣我們就不會陷入技術上的蠻荒。

我們也應該非常謹慎於我們賦予演算法的能力。人們正變得越來越擔心演算法帶來的透明度問題,演算法做出的決策和流程背後的倫理意味,以及影響人們工作生活的社會後果。例如,在法庭上使用人工智慧可能會增加偏見,造成對少數族裔的歧視,因為它會考慮到「風險」因素,比如人們所在的社區以及與犯罪的關聯性。這些演算法可能會犯下災難性的系統性錯誤,把現實中無辜的人類送進監獄。

「我們有失去人性的危險嗎?」

安全專家布魯斯‧施奈爾(Bruce Schneier)在他的書《點擊這裡殺死所有人》(Click Here to Kill Everybody)中寫道,「如果我們讓電腦為我們思考,而底層的輸入資料是糟糕的,那麼它們會進行糟糕的思考,而我們可能永遠都不會察覺。」

英國倫敦大學學院的數學家漢娜‧佛萊(Hannah Fry)帶領我們進入了一個電腦可以自由操作的世界。在她的新著作《世界你好:在演算法的時代裡做個人類》(Hello World: Being Human In the Age of Algorithms)中,她認為,作為公民,我們應該更多地關注鍵盤後面的人,即那些編寫演算法的人。

「我們不必創造一個由機器來告訴我們該做什麼或者該如何思考的世界,儘管我們最終很可能會進入這樣一個世界。」她說道。在整本書中,她多次問道:「我們有失去人性的危險嗎?」

現在,我們還沒有到人類被排除在外的階段。我們在這個世界上的角色還沒有被邊緣化,在很長一段時間內都不會。人類和機器可以結合各自的優勢和劣勢一起運作。機器有缺陷,會犯和我們一樣的錯誤。我們應該注意我們交出了多少的訊息,放棄了多少的能力,畢竟演算法現在是人類固有的一部分,它們不會在短時間內消失。

  • 本文授權轉載自

ADVERTISEMENT