人工智能(AI)聊天機械人ChatGPT近期備受關注。不過在使用過程中,該系統也暴露出不少缺陷。《日本經濟新聞》分析稱,AI聊天機械人不擅長追逐最新信息,對話中雖能提供似模似樣的答案,卻顯得缺乏常識和邏輯,尤其不擅長計算,似乎很難說AI真正理解了問題本意,以及作答詞彙的「含義」所在。
報道指出,AI聊天機械人的數據庫很難頻繁更新,系統保存的信息普遍比較陳舊。AI系統還很難理解所使用詞彙的含義、事物或現象的因果關係等「邏輯」,從而反覆出現失誤。例如向ChatGPT詢問「哥哥和姐姐有什麼不同」時,得到的回答是「雖然兄弟姐妹關係因家庭結構和出生順序不同而存在差異,但哥哥通常比姐姐年紀大。」
複雜乘法多會算錯
專家分析稱,現有AI系統多採用「深度學習」模式,使用的語言基本上是單詞和短語的「排列」。系統會分析識別眾多資料的排列類型,再計算出各類型出現的概率,找出與問題銜接的概率較高的字符串作答,但並未理解詞語的概念和相互關係,有時自然就會給出邏輯不通的答案。
由於不擅長邏輯,ChatGPT的計算能力也比較一般。例如稍微複雜的乘法多會算錯,反覆輸入相同算式時還會給出不同的錯誤答案。報道認為現有的AI聊天機械人暫不適用於事實核查。只能協助生成一些自然語句或軟件程序。 ◆綜合報道
领取专属 10元无门槛券
私享最新 技术干货