中國遇到十年來最嚴重的沙塵暴,但為什麼多數手機都拍不出來真實的樣貌?

中國遇到十年來最嚴重的沙塵暴,但為什麼多數手機都拍不出來真實的樣貌?

沙塵暴來襲,北京市生態環境監測中心實況顯示,空氣質量指數為500,全市達到6級嚴重污染,空氣質量指數已「爆表」,懸浮微粒PM10濃度在延慶、昌平等地區已超2000。北京天空甚至出現藍太陽,不少人將其拍照上傳網路。

中國遇到十年來最嚴重的沙塵暴,但為什麼多數手機都拍不出來真實的樣貌?

這場被稱為「十年來最嚴重的沙塵暴」,算是近幾年相當嚴重的惡劣天氣狀況,也算是一個值得記錄的時刻。智慧型手機影像的進步,讓每一個普通人都有機會成為「歷史」記錄者。

沙塵暴中的角樓(效果很誇張)

不過,縱觀這些往路上的照片,所呈現的「沙塵」天氣有著些許的色差,有拍出「末日黃昏」的橙紅色,有拍出寂靜嶺裡「白霧重重」的景象,彷彿住在不同的平行時空,享受著不同的沙塵。

圖片來源微博@奶爸小張

而還有攝影愛好者,趁機放出教程,如何用手機拍出「真實的北京」。裡面最為重要的一步就是將拍攝模式切換為專業模式,調整色溫,也就是「擺脫 AI 演算法」的控制,奪回控制權。

中國遇到十年來最嚴重的沙塵暴,但為什麼多數手機都拍不出來真實的樣貌?

按照這個教程,把色溫拉高,調整到 8000K 之後,隨手拍了一張照片,倘若空氣再差一點(或者來一場大霧),絕對就有沙塵暴的味了。

人們一直想把拍照這件事變得簡單

不論是從膠片時代走來,還是從數位時代入坑。紀錄影像的工具一直在朝著自動化方向發展,從機械到電子,從 35mm 膠片到 CMOS 成像,自動過片、自動對焦、自動曝光等等,這些技術的出現都是想讓人們從複雜的測光、曝光程式中解放,把所有的精力放在記錄、創作和表達上。

中國遇到十年來最嚴重的沙塵暴,但為什麼多數手機都拍不出來真實的樣貌?

相機全面電子化之後,基於演算法的識物功能,其實早就出現在相機上,比如曾經索尼的高階自動模式(也就是金相機模式),它會做很基本的情境辨識,對直出進行優化,之後又被移植到 Xperia 手機之上。只不過當時的識物算力比較有限,最終的成像效果區別不大。

中國遇到十年來最嚴重的沙塵暴,但為什麼多數手機都拍不出來真實的樣貌?

隨著移動影像的發展,拍照的門檻再次降低,幾乎唾手可得。但由於體積受限,和物理光學的限制,智慧型手機們只去跟隨傳統光學廠商腳步,想要在影像方面實現彎道超車,幾乎是個不可能完成的任務。

智慧型手機們揚長避短,發揮出了自己在晶片領域的優勢,發展出「運算攝影」這一新流派。它的思路並不違背影像發展的大潮流,同樣遵循「把拍照變得簡單」。

中國遇到十年來最嚴重的沙塵暴,但為什麼多數手機都拍不出來真實的樣貌?

簡單說,智慧型手機們利用晶片的 AI 算力,在識物、識景、多幀降噪、合成等等方面去針對性的優化感應器捕捉到的圖像。隨著技術的不斷推進,AI 調色的功力也愈發深厚,對照片的把控也更為深入。從一開始的大刀闊斧,漸漸變成潤物細無聲,愈發細膩。

如今,你只要稍微懂一點構圖和光影,用智慧型手機就很容易拍出很不錯的照片。AI 對圖像處理介入的越深,人們獲取照片也愈發簡單,而其中的快樂也就被越來越多的人感受到了。

「AI 增強」會是一把雙刃劍嗎?

但,隨著 AI 們對照片調整的權限變大,它也引發了一些爭議。

拍不出沙塵暴真實的顏色,只是一個例子。AI 是在依據程式內的演算法去調整,當辨識出天空後,會調用「藍天」這個固有演算法。這個演算法簡單來說會讓天更藍、空氣更透徹,黃色的反色相就是藍色,一遇到橙黃色的沙塵暴就被「優化」成了顏色寡淡的白霧。

中國遇到十年來最嚴重的沙塵暴,但為什麼多數手機都拍不出來真實的樣貌?

其實這還只是比較初級的變化,不過只是改變了一下色相、白平衡,對圖片本身並沒有影響,而且這種效果在一些相機中也會存在。對於 AI 增強模式爭議最大的其實還是曾經的「月亮事件」,以及各種軟體上的「美顏演算法」。

爭論的核心都是「拍」還是「畫」,「真」還是「假」,是無中生有,還是錦上添花。

圖片來源:知乎@小城

以月亮事件為例,實則是為了保證長焦能拍出人人都喜歡的月亮,AI「用力過猛」,在辨識類似月球的景物時,會自動優化處理,甚至還會添兩筆,讓你的照片中出現環形山、環形坑。

而拍月亮這個其實跟近年來不少軟體的「美顏」有很大的類似,過渡的美顏演算法,可以讓大媽變少女,猛男變嬌妻,且這類美顏濾鏡也伴隨著很多的「詐騙」相關聯。

中國遇到十年來最嚴重的沙塵暴,但為什麼多數手機都拍不出來真實的樣貌?

這兩類 AI 用力過渡的例子,都有些讓人反感,上升到「欺騙」的層次。但,遇到相同的情境,我仍然還是會打開 AI,讓它給我一個「月亮」,或者給我一張無痕無胡的臉龐。

追求還原「所見」,是攝影領域一個原則性的底線。不論你去創作什麼,都應該以真實出發。後期元素過多,也就會漸漸擺脫攝影作品的範疇。世界攝影大賽中,很多是不允許對照片進行過渡的後期,要的就是記錄感。

中國遇到十年來最嚴重的沙塵暴,但為什麼多數手機都拍不出來真實的樣貌?

對於普通人的我們來說,要的就是用最簡單的設備,最簡單的步驟去拍出一張很好看的照片。且拍出的照片也多是用於社群網路分享,分享自己想分享的「所見」,到底是否真實反而沒有那麼重要了。

可能對於攝影師、或者攝影愛好者來說,AI 增強它會對圖片介入過多,喪失了對照片的全局把控,難以匹配到你想記錄的情境。

但智慧型手機裡的 AI 增強對於普通人來說,它是一個降低拍照門檻的輔助性工具,讓更多的人能夠參與進來,把它從一個小眾群體的活動變成了大眾的娛樂。

中國遇到十年來最嚴重的沙塵暴,但為什麼多數手機都拍不出來真實的樣貌?

快速向前的 AI 拍照模式,是否是一把雙刃劍,還是要看我們如何去使用它。這就好似 DC 宇宙中的「母盒」,它是則是,在達克賽德手中它就是一個毀滅武器,而在鋼骨手中,它便可成為復活超人的關鍵物。

如正義聯盟中的英雄們一樣,對於母盒,他們知之甚少。我們現在對於 AI 拍照模式也處於摸索之中。

為什麼拍不出「所見所得」?

簡單回答,就是 AI 還不夠強。

對於藍天,對於鮮花,對於夕陽,AI 們會依據特定的演算法去優化,錦上添花也好,無中生有也罷,最終得到的都是我們腦海中那般空淨、豔麗、濃郁的圖片。但對於「沙塵暴」這種極端天氣,AI 們沒有一個標準答案去優化,以至於出現了「負優化」。

中國遇到十年來最嚴重的沙塵暴,但為什麼多數手機都拍不出來真實的樣貌?

曾經霧霾肆虐時,各大廠商,甚至 Adobe 旗下的 Photoshop、Lightroom 都推出了相應的去霾的功能,在照片裡還給你一片藍天。倘若沙塵暴再來幾次,相信不久後也會有「去沙」或者「銀翼殺手」濾鏡出現吧。

除了對特定的環境無法針對性優化外,現在還處於初級階段的 AI 拍照模式,演算法比較接近,產出的照片風格也比較接近,沒辦法去突出風格化。

另外,AI 拍照模式遠不夠智慧,暫時還無法自主學習,去學習每個人拍照的喜好、後期的喜好,利用本機的大數據去針對性優化。比如,我喜歡拍高對比、低色彩、曝光稍低的風格,那在拍攝時,利用 AI 拍照模式可以直接產生類似的風格,這應該會是 AI 或者說計算攝影後續發展的一個大方向。怎麼說,用相同的設備,創作出不同的結果才是高階的玩法。

中國遇到十年來最嚴重的沙塵暴,但為什麼多數手機都拍不出來真實的樣貌?

每個人的「所見」都有著很主觀的意願在裡面。相同的情境,不同的心情,可能想去呈現的畫面也會不同。也許在未來的某一天,你發現手機 AI 拍照模式能夠八九不離十的猜出你想呈現的風格,那再刷朋友圈,可能就不會有人再用《銀翼殺手》的劇照來充當北京沙塵暴的情境了。

ifanr
作者

ifanr依托於中國移動互聯網的發展大潮,用敏銳的觸覺、出色的內容,聚焦 TMT 領域資訊,迅速成為中國最為出色的新銳科技Blog 媒體。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則