相關文章

0630c89f8954146afaa5a2ed08ed33de iPhone 不是第一個使用雙鏡頭的手機,但由於蘋果的產量優勢,往往會把還未能量產、或成本太高的新技術,透過大量生產的方式來降低售價,這些零件才能得以普及,促使整個產業跟進。考慮到 iPhone 的影響力,相信手機的雙鏡頭年代快將開始。

為什麼手機要用雙鏡頭?關鍵在於手機照相能力已到了盡頭。

手機作為一個大眾化的消費級產品,一直都處於照相能力的軍備競賽之中。最初手機照相能力之爭,重點在於解析度:由 60 萬、200 萬、500 萬、800 萬一直鬥到千萬級以上,然後業界才發現手機 CMOS 的尺寸與解析度已經發展到了技術難以突破的地步。

然後,產業之間開始不斷的增加鏡片數目、也不斷的增大鏡頭光圈、不斷的增大 CMOS 面積、不斷的加入光學防手震等元件,直至連 iPhone 也有一個醜得不能再醜的凸出鏡頭(下圖),大眾才開始留意到:手機已經難以單純透過硬體來提升成像能力。

apple-iphone-6s-live-_2160_12

更重要的是:手機廠商值得為了提升相機的成像能力而作進一步的犧牲嗎?在經濟學上有一個邊際效用遞減定律 (Law of diminishing marginal utility),指的當消費者會增加一個單位產品所取得的額外效用,會隨著數量的增加而下降,直至邊際效用達到負值時(即每增加一單位產品,效用反而減 少),消費者將不會喜愛該產品。

 

手機鏡頭的邊際效用定律

同樣地,手機鏡頭的性能增長,也受到邊際效用遞減定律所桎梏。在手機鏡頭發展的初期,手機的拍攝品質實在太爛,所以我們可以每一次增加解析度、每一次增加新的鏡片、每一次加大鏡頭和感光元件,都會帶來用戶在拍攝體驗上的飛躍。

但是,成像能力的到了 iPhone 5s 開始進入死胡同。

當時就有不少評測者,開始把 iPhone 5s 與專業級的單眼相機 (DSLR) 相比;但這絕不是指 iPhone 5s 的真的達到專業級相機的水準,而是指一般用戶開始不太在意手機與專業級相機照片的細微差距 ── 儘管對於攝影愛好者來說,差別是巨大的。

當一般使用者已經不再重視那些「細微」的成像提升,但手機公司為了與對手競爭,仍然肆意的把相機元件提升,直至 iPhone 6 那個醜陋的「凸鏡頭」後,導致怨聲四起,業界才開始留意到:手機的空間已經不容我們無限量增加提升成像能力

當年被 iPhone 5s 的鏡頭所打動的使用者,很難再為 iPhone 6s 的鏡頭而心動。同樣地,我們不是說單鏡頭不能再繼續提升,但改良鏡頭時所付出愈來愈多的成本、在機身裡所作出愈來愈多的妥協,只能換來攝影愛好者的讚美,但對於一般消費者來說,卻是愈來愈微不足道。

故此,廠商必須在最小的犧牲下,為用戶帶來最新的價值。所以,雙鏡頭就應運而生了。


手機鏡頭作為感測器

雙鏡頭的重要性在哪裡?因為它拍出來的不光是「成像」,而是「資料」。

相機鏡頭已經由單純的「鏡頭」,變成手機的其中一個「感測器」。事實上自手機進入智慧化時代開始,開發者就不斷為手機鏡頭加入「拍照」以外的新功能:很多App會把手機鏡頭當作二維條碼掃描器、文件辨識器,也有手機APP能把鏡頭用作測距,或是把鏡頭作為 AR 應用。

儘管照相機進入數位化已經有不短的日子,但一直以來手機廠商重視的是「成像」不是「資料」,所以大家的關注點仍然是「光學」。直至 HDR (High Dynamic Range) 流行後,手機廠商才開始採用多重照片合成,來改善相片質素。

蘋果在 2011 年的 iPhone 4s 開始,在Sony的 CMOS 以外再自行研發自家的圖像信號處理器 (ISP, Image Signal Processor),在 iPhone 5s 發表會裡,蘋果展示 iPhone 如何在一次的拍攝裡生成大量的照片,再合成最好的照片(下圖)。當中的每一次光學成像,在處理器裡已經不再是單純的光學影像,而是資料和演算法。

iPhone-5s-camera

同樣地,雙鏡頭的重要性並不是因為它有雙鏡頭。

單純從硬體來看,雙鏡頭拍出來的成像,就是兩張不同質素的照片,單獨看起來意義不大。但如何發揮雙鏡頭的優勢,關鍵已經不單單是光學,而是合成演算法 ── 蘋果近年雖然在人工智慧上沒有發表什麼成果,但實際上他們早就對此深度研發;剛好在 iPhone 7 的發布會上,蘋果的高層 Phil Schiller 指出,他們在 iPhone 7 的鏡頭裡大量使用機器學習 (Machine Learning)(下圖)。

iphone-7-camera

簡言之,未來手機鏡頭將會步入新的時代:影像演算法和人工智慧。

 

雙鏡頭的「感測器」作用

目前的消費級裝置上的雙鏡頭運算,主要以兩種方式為主,一是雙目「疊加」,二是雙目「視差」。

手機的雙鏡頭運算,目前主要以「疊加」來增強攝影功能。HTC One 和 iPhone 7 一樣,均以雙鏡頭為手段,讓手機在沒有變得更厚的情況下,把兩個影像資料對比,然後進行像素疊加,借此達至無損/低損的數位變焦功能。

而華為在雙鏡頭的處理則有點不同:它們以一個黑白、一個彩色的鏡頭組合,利用黑白感測器有更佳光線感應能力的優勢,再把彩色鏡頭的色彩訊息疊加(下圖),借此取得更好的低光源拍攝能力。不過,兩者都可以把不同焦距的效果疊加,然後讓用戶能在後期調整景深。

Huawei P9

相反,目前不少非手機裝置的雙鏡頭運算,卻是以「視差」來測距,借此進行 3D 建模。目前的體感遊戲裝置、VR 裝置、無人機和無人駕駛汽車的自動避障功能,均過雙鏡頭攝影機透過鏡頭之間的距離,使影像出現「視差」,然後再把兩個不同的影像資料對比,用三角算法計算出鏡頭與對像之間的距離(下圖),並即時繪畫立體影像,以算出虛擬影像、或計劃安全的行駛路線。

然而,由於 VR/AR 技術、以及自動避障技術愈來愈流行,導致不少媒體誤以為 iPhone 為首的雙鏡頭陣營,將會把手機帶到 VR 世界裡。

問題是「雙目疊加」和「雙目視差」的裝置,在目前的科技下仍然是個矛盾:雙鏡頭的兩個影像的差距愈少愈好,系統才能更準確的把影像無瑕疊加,故此,兩個鏡頭必須儘量靠攏在一起;但 VR/AR 所用的雙目視差,兩個影像必須有夠差距,兩者之間的夾角才能增加,運算精度才能提高,所以兩個鏡頭之間的距離必須愈遠愈好。

Stereoscope

除了是雙鏡頭距離之間的矛盾之外,目前使用雙目視差來進行 3D 建模,所需要的計算能力遠遠比影像疊加要高。大 疆 Phantom 4 就以專門的 FPGA 來進行雙目運算,而 HTC Vive 更需要高階桌機推動,而坊間大部份的無人駕駛汽車也要使用專門圖像處理器來計算。但以目前手機晶片的處理速度和手機的續航力來 說,根本不足以進行 3D 建模。

簡言之,iPhone 在短期內,除了拿來玩Pokemon Go之類的遊戲,不可能透過雙鏡頭做到任何與 VR/AR 有關的事。

但是這代表蘋果「未來」真的不可能透過相機頭加入 VR/AR 陣營嗎?我們並不知道。但是蘋果 CEO 庫克之前曾說:VR 和 AR 兩者,他們更重視的是 AR。而 AR 正是需要大量使用鏡頭作感測器的互動方式。

所以,也許 iPhone 在今天的水平仍然不足以在 AR 做些什麼事,但蘋果在 iPhone 7 上開始,累積雙鏡頭的演算法,等候幾年後的硬體爆發時,就可能是時候了。


手機攝影將會進入新時代

雖然如此,也許目前的科技未能協調兩者的矛盾,但在雙鏡頭的帶領下,未來手機攝影仍然不可避免的進入「智慧」、甚至是「電腦視覺」的時代。

同樣地,相機元件廠商未來也要面對巨大的挑戰。以往只提供硬體平台的他們,將要進一步提更完善的相機演算法方案,更可能要與手機晶片製造商合作,把運算能力和影像整合,並為未來的手機元件產業帶來更大的衝擊,就例如高通 (Qualcomm) 就準備好雙鏡頭模組方案,手機廠準備打開錢包買新組件吧。

 

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則