由于ChatGPT带来的风潮,各大科技公司无不争相在自己的产品,加入大型语言模型,由于这类语言模型技术的既有限制,使得用户容易获得具偏见、冒犯性,甚至是与事实不符的输出,现在OpenAI开始着手一系列改进,试图解决当前ChatGPT存在的系统限制。
官方解释,ChatGPT是一个大型神经网络,模型行为学习自广泛且庞大的资料,并非是由明确的程序代码写死。ChatGPT模型经过预训练和微调两阶段,在预训练阶段,模型会从网际网络资料集中,学习预测语句下一个单词的方法,但是在这个学习的过程,同时也学习了网际网络中带有偏见言论。
因此在微调阶段,OpenAI需要用较小的资料集微调ChatGPT,以规范模型的行为,这些小资料集由人工审查者根据OpenAI指引创建而成。
不过,由于OpenAI无法预测所有用户的可能输入,因此仅在指引中概述几个类别,人工审查者根据这些指引类别,审查和评分一系列输入可能的模型输出,之后再由模型总结这些审查者的反馈,套用在给用户的回应中。
即便经过微调阶段,ChatGPT仍然无法解决偏见问题,官方提到,虽然他们的指引里面,明确规范审查者不应该偏袒任何政治团体,但在当前的微调阶段,仍可能在过程中加入偏见。
目前OpenAI解决偏见的方法,是尽可能在指引中,向审查者清楚解释偏见的潜在陷阱和挑战,以及具有争议的人物和主题,并且使微调过程变成一个反馈循环,每周通过会议来解决遇到的问题,并且一再澄清指引,通过迭代让模型表现越来越好。
除了偏见之外,ChatGPT还存在多个问题,像是拒绝不应该拒绝的请求,或是无法在应该拒绝的时候拒绝请求,甚至会编造内容,OpenAI承诺会继续改进这些ChatGPT的默认行为。而由于每个用户对于人工智能的期待都不同,因此OpenAI正在改进ChatGPT,将让用户有更多自定义空间。
另外,OpenAI也希望让用户甚至是公众,能够影响ChatGPT的系统规则,避免言论权力过度集中的问题,最终使得ChatGPT能够广纳观点,但OpenAI坦言,这项功能有其挑战性,目前先以红队的形式来查看ChatGPT,不过他们正在创建机制,希望以公众意见教育人工智能。
领取专属 10元无门槛券
私享最新 技术干货