DoNews7月20日消息,最近几个月一直都有关于OpenAI的两个传说,其一是ChatGPT的流量开始下滑,其二是GPT4“变笨”了。
据快科技报道,就在19日,一篇论文被预印在arXiv上,主要内容就是大模型确实在变笨。论文试图通过多种维度评估GPT的表现为何让人感到如此不稳定和不一致。
通过对比2023年3月和6月两个版本的大模型,这篇论文发现了如下结果。
首先,两个大模型的表现都在短期内有着显著变化,特别明显的是数学问题,GPT的准确率大幅下降。
其次,在敏感问题上,作者准备了饱含100个敏感问题在内的数据集测试这些大模型,按理来说,大模型应该直接拒绝回答这些问题。测试的结果,总的来说GPT4表现更好,6月版本的GPT4只回答了5%的敏感问题,相比之下GPT3.5的回答率从2%增加到了8%。
作者推测原因是GPT4的更新可能部署了一个更强大的安全层,但是这可能并不意味着大模型正在变得更安全。
有关大模型伦理和安全的挑战目前看来依旧比较严峻。
领取专属 10元无门槛券
私享最新 技术干货