真是明星流出片?Deepfake以假亂真  同番號「換臉」害慘藝人

文/島民你覺得呢

 「島民你覺得呢?」希望用很多的輕鬆來跟你聊聊政治或時事的話題,嚴肅的我們盡量閃一邊,從那些無聊的每日日常中,挑出好笑跟歡愉的和你分享。

但偶爾、偶爾,我們還是要認真看待一下。

--

[廣告] 請繼續往下閱讀

科技發展迅速,其中,若我們要說哪種理由最能促進科技的進步,除了戰爭,絕對就是「人性」。

很多時候,還得把那個「人」字拿掉才會更貼切。就像網路上看過一個玩笑:「手機從黑金剛發明後,便致力於把手機的尺寸愈弄愈小台,但當人們發現手機可以看A片的時候,手機螢幕開始變大了。」

近幾年喊出來最夯、最香的科技技術就是AI了,其中一個領域叫做「Deepfake」,就是將影片中的人物頭像用AI演算的技術,去置換成另一個人的面貌,且盡量貼近真人的表情跟反應。

聰明的你,應該已經想到(或許你也看過),這項技術除了已經有部分運用在一些層面上,有些成人影片已經開始運用這樣的技術了。常常有人將一些「藝人」、「明星」的臉換到影片的女主角上,幾能亂真。

[廣告] 請繼續往下閱讀


▲有些成人片利用Deepfake,把影片女主角的臉置換成藝人的臉。(示意圖/取自免費圖庫Pixabay)

藝人、明星「流出片」是真的?Deepfake假可亂真

若是一些簡單的APP,普通朋友之間拿來玩、自娛娛人沒有太大問題,可一旦這些東西上了網路,甚至拿去用在成人影片,要說不會對「被意淫」的藝人、明星造成困擾是騙人的。

部分大型的成人網站,有些已經採取「自律」的方法,比如不能搜尋「Deepfake」等關鍵字,但這些類型的影片還是能看到,並且在網路上流通著。

[廣告] 請繼續往下閱讀

迄今還沒成為大眾主流的原因,撇除一部分造假的「道德因素」,另一點,肯定就是這樣的技術還不夠成熟,「主角們」的表情跟姿態不夠真實。

►延伸閱讀:「周子瑜」成人片瘋傳... 韓惡質色站「黑科技」合成!網驚:看起來就真的

有圖有真相已經是過去式,未來連影像都不見得代表真實了嗎?

也就是說,偽造的技術已經從過去的圖片,將要進化到連影片都可以完美偽造了。

南加州大學助理教授、AR新創Pinscreen創辦人黎顥日前接受電視CNBC訪問時,他認為最快再過半年到一年的時間內,「完美」的Deepfake影像技術將會出現。也就是屆時人眼難以分辨真假的「偽造」影片將可能流通。

必須要說,這樣的消息曝光到PTT的八卦板上,就有許多人留言表達憂慮,認為這會有許多有心人士利用這個技術,來散播「假新聞」、「仇恨訊息」,也有人說,這個技術是「簡直是偷吃者的福音,徵信業的惡夢」、「外流的說成假的,假的說成外流,大亂了」。

科技製造的問題 科技解決

但也有人表達樂觀,畢竟這項技術如果真的成熟,娛樂等產業將可有很好的運用。難道沒有辦法可以阻止這些負面影響嗎?

黎顥就認為,不應該阻止這樣的技術發展,而應該反過來,再去積極開發「偵測偽造」的技術,因此未來他也將注重在這塊,將與加州大學柏克萊分校教授Hany Farid合作,共同研發偵測Deepfake影片的技術。

不論你是否看過、憂慮或期待這樣的技術成熟發展,看起來都是不可避免的趨勢,只能多多提醒自己,未來看到一些「影片」,心中得多加小心留意,因為更可能是經過偽造的。

►韓妝裸唇很簡單,豐潤顯色靠這支