Google Pixel 4手機如何拍下美麗星空?全新Night Sight技術大解析

ADVERTISEMENT

 

化解構圖難題

由於單眼相機具有光學取景窗,所以即便在昏暗的環境下,攝影師還是可以順利構圖。

由於智慧型手機沒有光學取景窗,所以需要看著螢幕上的預覽畫面進行構圖。在手機相機運作的過程中,為了要讓預覽畫面即時反應鏡頭對準的方向,所以最低畫面更新頻率至少要維持在15幀,如此一來最長曝光時間將只有66毫秒,進而產生進光量不足、畫面會昏暗不清的問題。

在大約等同滿月的光照條件下,手機畫面大概會變成黑漆漆一片,沒有任何風景,只剩下幾顆明亮的星星還看得見,對於構圖來說是個相當大的挑戰。

為了解決這個問題,Night Sight採取比較折衷的快門後取景窗(Post-Shutter Viewfinder)解決方案,系統會將每段長時間曝光拍到的照片顯示在螢幕上,由於這些照片的曝光時間長達16秒,所以比即時預覽中感光元件捕捉的光線量多出250倍。

所以在按下快門的16秒之後,攝影師就可以查看構圖,並調整手機的角度,待確定構圖正確無誤後,再刪掉這張「試拍」的照片,並進行正式拍攝。雖然這種方式在產生每張預覽畫面時都需要等待16秒,不需要真正等待4分鐘才能看到構圖畫面,能夠增加拍攝的成功率。

至於相機的自動對焦方面,也會因為入射的光線不足而面臨挑戰。在一般攝影的環境下,系統會偵測並微調鏡頭與感光元件的距離,讓景物能正確聚焦在感光元件上,如此一來才能拍下清晰的照片。然而在微弱光線環境下,預覽圖片的畫面可能會太暗且充滿顆粒狀雜訊,讓系統難以確認是否對焦成功。

所以Night Sight也導入了快門後自動對焦(Post-Shutter Autofocus),當使用者按下快門鍵後,系統會拍攝2張曝光時間最長為1秒的預覽圖片,用於當作檢驗自動對焦的依據,能在光線量低於肉眼可以清晰地分辨物體的情況下進行對焦。但是當光線還是不足以滿足自動對焦系統的需求,系統則會將焦距放在無限遠處(適合拍攝風景與星空),或是使用者也可以透過手動對焦調整照片焦距。

上圖是Night Sight模式的即時預覽畫面,除了遠處建築物發出的燈光外,風景和天空基本上是看不見的。下圖則是快門後取景窗預覽畫面,可以看到畫面清晰許多。

人工智慧調暗天空顏色

我們都認為晚上的天空是黑暗的,但是如果透過Night Sight拍攝的照片太過明亮,與現場實際環境差異太大的話,可能會讓觀看照片的人產生混亂,以為拍攝時間是白天。為了解決這種問題,Night Sight借助人工智慧的力量,選擇性調低照片中天空部分的亮度,來抵消這種混亂感。

在實際運作過程中,系統會在手機上執行以10萬張圖片訓練的捲積神經網絡(Convolutional Neural Network),並辨識照片中哪些區域為天空,哪些區域不是天空。如此一來系統就能知道要調整哪些區域的亮度,還可以針對天空進行降噪,並選擇性增加對比度、顏色漸變,來強化雲、星空、銀河的特徵,讓照片更加漂亮。

從目前的成果來看,Night Sight可以在搭配三腳架的情況下,拍攝出滿天星空的清晰照片,或是在少量的月光的照耀下拍出清晰多彩的風景。然而手機攝影的能力並不是無限的,而且總有進步空間,目前主要的限制是照片的對比度大約被限制在500,000:1,造成拍攝天文照片時,風景只能隱約看到輪廓,而拍攝風景時光源(如月亮、路燈)就會過曝。

即便如此,Pixel 4仍可以在沒有月亮的夜晚拍下人馬座周圍(銀河系中最亮的部分)的漂亮照片,並呈現更多肉眼無法看到的星星與細節。

在月圓之夜拍攝的風景照片,左半部為原始圖像,而右半部有進行天空處理,可以看到天空更像晚上的色調,而風景不會因此變暗。

Google官方提供的Night Sight展示照片。

讀者可以到Google官方的Night Sight相簿欣賞更多展示照片,或官方提供的夜間戶外拍攝指南,進一步瞭解Night Sight的效果與操作技巧。

國寶大師 李文恩
作者

電腦王特約作者,專門負責硬派內容,從處理器、主機板到開發板、零組件,尖端科技都一手包辦,最近的研究計畫則包括Windows 98復活與AI圖像生成。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則