首頁 新聞 人工智能 Google Research 與大學研究 NeRF   用照片拼砌出自由視點影像

Google Research 與大學研究 NeRF   
用照片拼砌出自由視點影像

Google Research 與大學研究 NeRF 用照片拼切出自由視點影像

相信大家都有玩過 Facebook 3D 相片功能,只要拍一張照片就能做出有輕微 3D 效果。不過細心看就會發現相片有不少瑕疵,而光影反射也是固定了的,不太真實。早前加州大學柏克萊分校和聖地牙哥分校就與 Google Research 合作,開發出一套名為手 NeRF 的技術,透過新的神經網絡機械學習,就能生成可以自由地從不同角度來觀看的立體照片,非常像真。

NeRF 使用一種名為 MLP (多層感知)神經網絡來學習,沒有使用一般機械學習生成影像時所用的卷積神經網絡( CNN, Convolutional Neural Network ),而產生出更高精度的結果。

花卉的立體感非常豐富,而且沒有其他用照片生成 3D 圖像時出現的拉扯材質現象。
留意恐龍的每一條胸骨都清晰可見。

研究人員從不同角度拍攝 20-50 張目標物件的照片,將各照片拍攝的 3D 座標和 2D 視線方向資料輸入,讓人工智能去預測不同視角的物體密度和 RGB 色彩,從而合成出新的連續影像。合成出來的影像,連光的反射方向都能重現,觀察者變更觀看角度時,反射程度也會同時改變,令影像看來來更加真實自然,更具立體感。

研究人員從不同角度拍攝 20-50 張目標物件的照片,將各照片拍攝的 3D 座標和 2D 視線方向資料輸入,讓人工智能去預測不同視角的物體密度和 RGB 色彩。
其他使用 CNN 卷積神經網絡技術所生成的圖像(左)和 NeRF 相比,精細程度高下立見。

▲ 改變觀察視角時,連房間背後電視的反光都會跟隨移動(左),相當迫真。

此外,研究人員更可以在生成出來的影像主體前後放入虛擬物件,虛擬物件能按照觀察角度而被前景的物件遮蓋,就像虛擬物件真的存在於照片當中。

可以在生成出來的影像主體中置入虛擬物件(紅球),就像物件本來就在影像裡一樣。

想更進一步了解 NeRF 技術的利害之處,可以欣賞以下影片介紹。

Exit mobile version