人工智能(AI)聊天機械人ChatGPT應用範圍廣泛,更有傳媒機構嘗試由其協助撰寫新聞稿。不過哥倫比亞大學數碼新聞中心主任貝爾在《衛報》撰文提醒,AI撰寫的稿件沒有真實性保障,完全可能引述未經證實的資料,導致虛假信息氾濫,絕非傳媒機構理想的商業模式。
貝爾表示,AI聊天機械人的工作原理是利用「大型語言模型」,篩選數以億計的文章和數據庫,再模仿特定行文風格,串聯AI系統認為「正確」的詞句,從而生成文章。但AI系統引用的資料並非全數經過事實核查,系統拼湊生成的文章也可能充斥邏輯和事實錯誤,「ChatGPT可沒有承諾會提供真相。」
AI生成LinkedIn虛假個人檔案
包括科技新聞網站CNET在內,部分傳媒近期使用AI協助撰寫的新聞稿已被揭存在不少事實錯誤。英國牛津大學互聯網研究所近期訪問150多名記者和新聞出版商,多數受訪者都表示,AI有助完成相對繁瑣的數據收集工作,但檢查資料來源、確認報道可信度,避免歧視或偏見等工作,幾乎都要由記者自行完成。
貝爾更擔憂的是,AI技術發展或會讓假新聞更能以假亂真。她提及史丹福大學近期就發現,在專業社交平台LinkedIn上,有網絡團隊一直在使用AI技術生成虛假的個人檔案。貝爾警告長此下去,普通用戶使用AI稍有不慎,都或有外洩個人資料的風險。
貝爾指出,圍繞AI聊天機械人的輿論炒作甚囂塵上,資本和用戶的熱情淹沒了謹慎的聲音。正如史丹福大學人工智能實驗室主任曼寧的提醒,「生成式AI模型目前還存在很多問題,但當其投入使用,人們就會將問題拋在腦後,喜歡上AI改變的日常工作和娛樂方式。」◆綜合報道
领取专属 10元无门槛券
私享最新 技术干货