ai如何修復老照片(AI修復老照片)

夢晨 發自 凹非寺
       量子位 報道 | 公眾號 QbitAI

AI給老照片上色,近來確實很火爆,但上的顏色真的準確嗎?

有人便就此做了個實驗,把20世紀初俄國的彩色照片去色後,再與AI上色的結果做對比。

如此對比結果之下,這位網友直接指出:

AI總是傾向於選擇不鮮豔的顏色,讓天空總是灰濛濛,人們的穿著都很樸素,地面充滿灰塵和泥土。

但更進一步的,她所擔心的還有另外一點——AI會加重人們對過去“是枯燥乏味、死氣沉沉”的偏見

她認為給老照片上色這種工作,還是應該交給人類專家完成。

AI,不行☝️。

此帖一出,在Reddit上的機器學習社羣和歷史愛好者社羣引發了大激辯

不到一天的時間蓋起一千多樓,總計3萬5千贊

但後來,因為吵得太厲害,原帖都被版主刪了……

來自不同社羣的網友們,又在爭吵些什麼呢?

技術界:你這演算法靠譜嗎?

來自機器學習版塊的選手首先提出了質疑:

你用的這個演算法,他是State of the Art嗎?一看就是簡單地將損失函式設計成計算周圍畫素的均方誤差(MSE)一類的東西,這樣就會促使AI選擇低飽和度的顏色。

有人給出了改進思路,應該把色相、飽和度和亮度的差異單獨加權,然後“懲罰”異常值,減少演算法選擇低飽和度顏色的動機。

懂攝影的選手指出,彩色照片去除RGB通道 ≠ 黑白相機原片。像適馬SD1 Merill和徠卡M Monochrom這樣的專業裝置感測器能捕捉到更大的動態範圍。

目前的資料集為了方便,都是用彩色影象去色做的,還沒見到過用真正的單色相機原片做訓練的。

不服的人說,黑白照片就是有誤導性。

你看這一排柿子椒,去色以後質感都一樣,人類也不能分出哪些是紅色哪些是綠色的。

有人認為,人們不能把AI當作魔法或奇蹟,商業公司也不能把AI生成的內容當成事實去銷售。這是個商業倫理問題,而不是AI倫理問題。

手藝人:最重要的是文化

在照片上色愛好者聚集地,人們認為手動給老照片上色最有價值的環節其實是蒐集資料。

尋找照片中事物應有顏色的過程中總是能學到很酷的歷史知識。

也有人指出,在網上釋出AI上色的照片,人們的焦點都放在對技術進步的慶祝了。老照片背後的人文價值卻被忽略。

有人認為AI在計算光照陰影方面很強,但挑選顏色還是需要人類專家的指導。

AI應該像實習生一樣成為人類的助手,而不是人們把工作全丟給AI去做。

人與AI協作

其實人類指導AI給照片上色的研究已經有了。這項研究發表在SIGGRAPH 2017大會上。

在演示中,人類可以在灰階影象的任意畫素指定顏色,AI會自動計算適用的範圍,並實時給出預覽。

該演算法使用卷積神經網路(CNN),灰階影象和人類指定顏色作為輸入,自動計算顏色的分佈。

訓練集包含130萬張彩色照片的去色版本,其中包含很多著名攝影作品。每個選色的人類使用者平均在每張照片上平均花費1分鐘。

模型使用Caffe開發,後來補充了PyTorch版本,已在Github上開源。

CPU或GPU計算都支援,可以下一個玩玩。

Github地址:
   https://github.com/junyanz/interactive-deep-colorization

論文地址:
   https://arxiv.org/abs/1705.02999

SIGGRAPH演講:
   https://www.youtube.com/watch?v=rp5LUSbdsys

參考連結:
   [1]https://www.reddit.com/r/MachineLearning/comments/mqqnxj/d_r_aiml_colorisation_versus_actual_color_photos/
   [2]https://www.reddit.com/r/Colorization/comments/mqn103/the_problem_with_ai_colorization/

— 完 —

量子位 QbitAI · 頭條號簽約

關注我們,第一時間獲知前沿科技動態