是智慧還是智障?細數這些年大公司因演算法搞出的烏龍事件

是智慧還是智障?細數這些年大公司因演算法搞出的烏龍事件

相信很多人在網路購物的時候,當你瀏覽完一個商品,下面都會有「買了這個商品的人,還會購買這些商品」的推薦購物選項。而上週一,英國電視台 Channel 4 報導,就有消費者在亞馬遜網站上購買廚房用品時,在推薦更多選項裡,被推薦了一些能夠幫助他製作炸藥所需的材料。

雖然這些推薦物品在英國均屬於合法商品,但經過最近的幾次爆炸案,倫敦對這類事件已經非常敏感,因此這條新聞引起了不小的關注。

是智慧還是智障?細數這些年大公司因演算法搞出的烏龍事件

《紐約時報》的記者在做追蹤報導時發現在美國也有同樣的情況,當他們在亞馬遜上購買了鎂條時,相關推薦裡同樣列出了一些用於製作炸藥的粉末。

因此,有些人就說,是不是因為有太多的恐怖份子利用網購來製造炸彈,導致被亞馬遜演算法拿來當成推薦的參考?不過,也有許多人指出,按照亞馬遜演算法的推薦配方所製作的炸彈,其威力並不足以實施恐怖襲擊。

但無論怎樣,這都是一件乍看可笑,但仔細思考卻相當恐怖的事情。亞馬遜在上週三做出官方回應稱:「亞馬遜所售的所有商品必須符合公司的銷售指南,並且我們只銷售符合英國法律的產品。」

「鑑於最近發生的事件,我們將會對網站進行審查,確保所有這些商品以適當的方式呈現。」同時亞馬遜還將助英國警方與執法機構進行調查。 

先行者 Google 的演算法笑話

搜尋本來就具備了人工智慧的基因,而全球最大的搜尋引擎 Google 自然也早早地開始了人工智慧的實踐,但同樣,因為早期技術的不成熟,Google 也鬧出過各種各樣的糗事。

2015 年 7 月 3 日,推特上的一位網友 Jacky Alciné秀出了一張剛發佈不久的 Google Photos 應用抓圖,圖片上他的黑人朋友被 Google 相簿標記成了大猩猩,Jacky 對此表示十分氣憤,「Google Photos,你太混蛋了,我的朋友不是大猩猩。」

是智慧還是智障?細數這些年大公司因演算法搞出的烏龍事件

隨後,Google 對此做出了回應,他們向該使用者表示道歉,並稱「圖片自動標記功能顯然還有很多改善空間,我們希望今後能避免此類錯誤再次發生。」

誤把人類識別成猩猩和動物的事不止發生在 Google 的演算法上,同年 5 月推出標記功能的雅虎旗下 Flickr 也曾經出現過類似的差錯。總體來說這類問題在演算法不斷改進、資料不斷豐富之後就會得到明顯的改善。

更早的時候,Google 曾推出一款針對孩子的影片應用程式 YouTube Kids,但這款聲稱能夠擋掉不良內容的應用服務仍然會播出一些不當影片,這點引起了許多家長的不滿,Google 再次澄清「目前演算法還無法達到 100% 的精確度」。

是智慧還是智障?細數這些年大公司因演算法搞出的烏龍事件

2015 年的 5 月,有人在 Google 地圖上搜尋「nigga house」,得到的結果卻是美國首都華盛頓特區的白宮 White House,也就是美國總統居住辦公的場所。Nigga 是一個有著種族歧視意味的詞語,通常翻譯成「黑鬼」,名人在公開場合開玩笑時都會選擇用「N-word(N 字開頭的詞)」來代替。

而令這件事性質更加嚴重的是,當時白宮的主人還是美國第一任黑人總統奧巴馬。

是智慧還是智障?細數這些年大公司因演算法搞出的烏龍事件

出現這種差錯的原因是一項名為「Google Bomb」的功能,這項功能極容易被使用者利用,改變一些 Google 的直接搜尋結果。透過在大量的網站上連結 nigga 和白宮這兩個詞就有可能達到上述的效果。 

微軟聊天機器人 Tay

在美國,種族歧視是一個非常敏感的問題,不止是 Google,其他公司也遇到過類似的問題。去年五月,微軟在推特上線聊天機器人 Tay,不到 24 小時就被網友們調教成了一個「種族主義者」,發表了多條刻薄、仇恨的言論。

是智慧還是智障?細數這些年大公司因演算法搞出的烏龍事件

微軟不得已匆忙下架了 Tay,其負責人也出面表示道歉,但究其原因,Tay 的失控兼具網友的放肆和其演算法本身較為脆弱兩方面原因。 

Facebook 的廣告演算法

Facebook 最近也因為種族主義的問題而遭到了社會各界的批評。

據報導,上週有人發現 Facebook 平台上的廣告商可以定位到那些將自己標記為「反猶太主義者」的人群,並投放相應的廣告。Facebook 回應表示他們已對其廣告政策進行重新評估,進一步限制了廣告商的權限,並且刪除了有關「反猶太主義者」的標籤。

但這次事件並不是 Facebook 廣告問題最大的麻煩,官方上週表示,在美國總統大選期間,Facebook 可能向與俄羅斯有關的假帳號出售了約價值 10 萬美元的廣告,這些廣告從某種程度上影響力美國總統大選。 

別擔心,笑話雖難免、但演算法正變得越來越可靠

有意無意間,Internet上的智慧型演算法每每出現問題都會影響到我們的生活,小到使用者自己接觸的新聞內容,大到一個國家的政治形勢,在一個全面智慧化的時代,演算法的力量正變得越來越大。

但我們可以看到,Google 的搜尋已經很少出現上述的失誤,微軟重新上線的聊天機器人 Zo 也越來越「百毒不侵」,亞馬遜、Facebook 推薦演算法的問題也會很快得到解決,演算法在不斷改進,變得越來越可靠。

我們有理由相信,現在偶發的小烏龍,小失誤不過是因為人工智慧正處在一種過渡期,沒有人知道未來什麼時候我們才能擁有一個完美的演算法,但可以肯定的是,演算法正在變得越來越難以被調戲,被利用。

你不必百分百地依賴機器,但在人工智慧時代到來之際,請你一點一點地讓它改變你的生活。

 

36Kr
作者

36氪(36Kr.com)累計發表超過10.8萬條包含圖文、音訊、影片在內的優質內容。氪原創內容體系涵蓋新創公司、大公司、投資機構、地方產業與二級市場等內容模組,設置有快訊、深度商業報導

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則