人看一張圖片只花13毫秒。如果你多花點時間仔細看,可能會發現一些會讓你更驚訝的事。
這張是納米比亞的獵豹。你能看出來這是不是AI生成的嗎?PHOTOGRAPH BY FRANS LANTING, NAT GEO IMAGE COLLECTION
假圖片一天比一天逼真。如今誰都能利用網路上的程式如Midjourney或Dall-e,不費多少力氣就生成人工圖片或改圖。
根據水牛城大學資訊工程教授呂思偉(Siwei Lyu)的看法,好消息是人類天生就能直覺性嗅出這些圖片。呂教授他們這一群學者,是用AI對抗AI──他們發現,教AI找出合成圖片的最佳辦法,就是讓它們看人類是怎麼找的。
我們面對假圖片已經非常久了。改圖的歷史,差不多就跟攝影本身一樣悠久。就以這張1860年的照片來說好了,這張照片把林肯的頭接在另一個男人的身上──這可是耗費了很大的心力和技巧才能做到維妙維肖。
而現在已經不一樣了,就連毫無專業知識的人要做出逼真的東西都非常容易──結果造就了量多到嚇死人的合成圖片。不過呂教授也大力主張我們無須驚慌。以下就是利用人類本能找出怪異之處的方法──還有如何跟上AI的光速演進。
這是一張真正的獵豹照片,是攝影師法蘭斯.藍汀(Frans Lanting)在納米比亞拍的──本文首圖也是。你猜對了嗎?PHOTOGRAPHS BY FRANS LANTING, NAT GEO IMAGE COLLECTION
這張AI生成的照片是由DALL·E 2生成,用的提示詞是「國家地理風格的非洲獵豹肖像照」。AI通常很難生成逼真的眼睛,對光線的物理特性也不太行,包括反光。PHOTOGRAPHS BY FRANS LANTING, NAT GEO IMAGE COLLECTION
揪出假照片
第一步就是慢下來。我們整天都泡在媒體裡,消化一張照片的時間少到只要13毫秒。這可能夠你知道照片裡是什麼,但沒有足夠時間思考那到底是不是真的。當一張圖片與你所知的真相有牴觸時,你會覺得驚訝,所以不要忽略這種本能。
「下次再看到有趣或好笑的東西時,希望我們都能暫停一下下,想一想,」呂教授說:「如果我們對可疑的東西都抱持懷疑態度,就不會立刻轉貼──這樣就能把問題擋在門外,而不是也變成問題的一部分。」
訓練AI程式的方法,就是觀看海量的真圖,以生成逼真的影像。呂教授口中所謂的AI的「關鍵弱點」,就是這些程式認識的只有人類餵給它們的東西──而它們不知道應該注意哪些細節。結果就會造成「破綻」,也就是仔細檢視就會很明顯的問題影像。比方說,深偽(Deepfake)影片中的人很少眨眼,因為訓練AI用的影像裡面,人的眼睛通常都是睜開的。
「會露出馬腳的通常都是接縫的地方。」保羅.奧多維薩(Paulo Ordoveza)說,他是前端工程師(web developer)也是影像確認專家,經營專門揭穿瘋傳的假照片貼文的推特帳號@picpedant。這可能包括像是「有皺褶的衣袖逐漸變成皮肉」而中間並沒有明確區別。他也說基於同樣理由,也要仔細找有沒有「行徑怪異的髮絲、眼鏡、帽子、珠寶、背景」。
如果圖片裡有人,呂教授建議要看他們的手和眼睛。
目前的AI程式不善於生成逼真的手部──可能會有六根手指,或是手指長度都一樣,或者姿勢很奇怪。3月時,有一幅教宗方濟各(Pope Francis)穿著一件「巴黎世家」(Balenciaga)羽絨外套的照片在網上瘋傳。如果你仔細看他的手,他是拎著咖啡杯蓋的邊緣──這樣拿咖啡蠻奇怪的,就算杯子是空的也一樣。
再來,為什麼要看眼睛?人類很擅長記下臉部特徵。利用眼球追蹤儀,我們可以看到人會來來回回地看別人的眼睛,以取得資訊。舊金山州立大學的心理學教授暨微表情專家松本大衛(David Matsumoto)表示,這種能力是演化出來的。他說我們是藉此判斷敵我、並評估遇到的人的情緒狀態。我們需要迅速評估,才能決定該如何回應他們,或者,有必要的話,趕快逃走。
人類的瞳孔幾乎全都是圓形的,但AI常常在眼睛中心生成奇形怪狀的陰影。眼睛的反光也應該在兩眼的相同位置,這個也是目前AI有困難的地方。
基本上光線和陰影對AI來說都是很不好複製的東西。尤其如果影像中有窗戶或會反光的表面,就可能會有出現錯位的光線或陰影。這也是AI碰到諸如重力之類物理法則時會出現的問題之一。
許多合成影像在應該有紋理的地方會出現不自然的光滑感,而應該要筆直的地方可能會有一點點彎曲。在那張AI生成的教宗照片中,他的十字架項鍊邊緣看來是彎的,而且有點懸在他胸口上(忽視重力)。
有用的工具
但所有這些AI生成媒體的「馬腳」都有一個缺點:專攻媒體鑑定的加州大學柏克萊分校教授哈尼.法里德(Hany Farid)解釋說,「不管我今天告訴你什麼,一個月以後就不管用了。事實上就是這個領域的進展非常非常迅速,實際上你是無法只仰賴自己的視覺系統的。」
相反的,更務實、也能撐得更久的辦法,就是要普遍地對媒體抱持懷疑,要質疑來源,並重複檢視真實性,他說。
有一種簡單的工具,就是用Google的反向圖片搜尋,使用者可以上傳圖片,搜尋看看有沒有關於生成這張圖片的相關討論。像那張教宗照片那樣廣傳的圖片,就會有用,但如果是比較沒有知名度或獨創的作品,就比較沒有用。
碰到這類狀況時,有像Reality Defender這類的公司為企業提供收費的AI偵測服務。這些公司會執行「大宗搜尋」像是先進浮水印之類的東西,麻省理工學院的電腦科學與人工智慧實驗室主任丹妮拉.勞斯(Daniela Rus)表示。「這些精細的技術證明是有效的。」她補充說。
法里得說,AI創造者有義務確保自己的內容含有某種浮水印或指紋,以供辨識是完全由電腦生成的──尤其是把照片分享在網路上以後。比方說,那張教宗照片原本是分享在AI創作者的社群裡面,並沒有打算要愚弄誰──但那張照片很快就傳到網上各個角落,並未包含重要的原始脈絡。
「當你容許大眾製作非常精細的音訊與影片和影像的時候,會發生什麼事是非常明顯的。大眾會利用這個來做壞事,」他說。「這些AI公司會說,『欸,聽著,不要怪我們。我們只是開發了這種技術而已』──我才不吃這一套。」
現在,能辨識AI生成媒體的的免費資源還很稀少,而且也不是很可靠。
呂教授和他的團隊研發出一個免費的網路程式,名為DeepFake-o-meter,但尚未開放給大眾使用。
呂教授說,問題有部份在於投資者都蜂擁去投資AI的創造,而不是AI的反制手段。「我們這一邊的工作得到的關注少太多了,基本上我們已經資源耗盡。」呂教授說。和深偽背後的程式不一樣,「我們不會直接產生收益,我們做的是努力避免大眾有金錢損失或心理上遭到誤導。」
在AI持續進步的同時,呂教授說我們將來會需要更多免費的網路AI偵測程式,還有其他可以顯示眼睛看不到的AI標記的工具,就像X光可以看見人體內部運作那樣。現存的這類程式需要有相當程度的專業才能操作,而且也不見得是免費或者很便宜。
不過,就算沒有這些資源,你也可以從今天就開始注意AI生成的影像,只要心存警惕就好──在相信雙眼所見之前,記得先查證。
延伸閱讀:打造「聊」癒系機器人!看圖說故事,AI 也略懂略懂 / AI 當法官,會是正義女神的化身嗎?專訪李建良