生成式AI讓影片真偽霧煞煞?YouTube將新增提醒標籤!
隨著生成式AI的逐漸成熟及快速發展,ChatGPT、Bard、Bing等數位程式在2023年掀起了一波AI浪潮。在「無法禁止孩子使用網路及數位工具」的共識下,我們除了引導孩子將生成式AI轉換為學習利器外,你是否也注意到生成式AI使得資訊的真偽辨識變得更困難了呢?
起源自PTT批踢踢的「沒圖沒真相」,不僅是一句流行用語,同時反應圖像可以是我們探查真相的線索之一。然生成式AI根據不同需求、受眾,而創造出對話、故事、影像、視訊和音樂等個性化內容的能力,似乎也在提高學習或工作效率之餘,讓使用者不能再更加輕易地「眼見為憑」,相信自己雙眼所見。作為科技標竿企業的Google,其一舉一動不但受業界重視,旗下所推出的影片分享網站「YouTube」更在全球擁有廣大使用者。
依據BBC News中文「AI生成影片與兒童錯誤資訊推送」一文指出:在YouTube有大量由AI生成、有錯誤資訊的影片,正在以「教育性質」推送給兒童。BBC找到超過50個頻道在製作20種語言以上的錯誤訊息影片,內容包含各式偽科學與陰謀論。
而面對生成式AI帶來的一體兩面及新風險,Google又打算如何因應呢?在YouTube Official Blog最新發布的「Our approach to responsible AI innovation」一文中,提及YouTube接下來將在未來幾個月和新年期間推出「揭露要求和新內容標籤」。當創作者上傳影片時,YouTube將提供選項供創作者選擇及表明內容是否經過變造、合成或使用AI生成工具。若創作者選擇不揭露,則可能受到移除影片、停權合作夥伴計畫等處置。其說明面板亦會新增標籤明確標示及提醒閱聽人內容已經過修改、合成或生成,對於涉及敏感議題的內容,則將套用更顯眼的標籤。
然在YouTube新增提醒標籤前,我們有什麼辨識妙招能夠嘗試判斷影片的真偽嗎?有的!中研院資創中心的陳駿丞副研究員在「眼見不能為憑,生成式AI好用卻危險?Deepfake 5種分辨深偽小絕招」一文中,即傳授5種獨家分辨小絕招供大家參考!快來看看是哪5招吧!
• 注意「姿勢」:深偽影片可能會出現一些不自然的怪異姿勢
• 關注「背景」:影片的背景可能會突然出現裂痕
• 看看「衣服」:你有可能會發現破圖的蹤跡
• 瞧瞧「側臉」:影片若是出現側臉,也比較容易發現瑕疵,如:頭髮動得很怪、眼神不對、牙齒沒牙縫等等。
• 檢視「解析度」:如果影像的解析度太低,也會影響深偽偵測的準確性,所以,對於太過模糊的圖片、影片,都應該格外小心。
文章圖片來源:Freepik
參考資料來源:
Our approach to responsible AI innovation
眼見不能為憑,生成式AI好用卻危險?Deepfake 5種分辨深偽小絕招