什么!ChatGPT也会变懒?
作为人类,我们本指望能有一个全天候、24小时、无差别、任劳任怨,我说什么它就做什么的AI女...啊不是,AI助手。
但现在它居然开始对我们交给它的工作敷衍了事,甚至爱搭不理?
根据很多网友的反映,目前ChatGPT最爱在写代码时偷懒,经常是你让它写一段代码,它只回复部分信息,不给你完整的代码。
你问它,它也不给,更可气的是,它居然有时候还会告诉你:“你可以自己完成这些工作”。
我估计已经习惯用AI辅助工作的人,这时候心态早炸了。
由于GPT4在11月11号更新以后,这种偷懒的情况频繁出现,网友们也都开始了花式自救,尝试用各种不同的方法,来让chatgpt回答的更完整、更准确。
有用道德绑架法的,直接说自己“没手”,或者说“你不回答有人会死”之类的,方法还挺奏效,前后回答的差别很大,你们看下图:一个是before,一个是after.
出现这样的原因是因为大语言模型对你说话的理解,会被情绪刺激性的词语加强。
所以这也算是一个小技巧,大家不妨可以试一下。
还有的网友直接用“利诱”的方式,也起到了一些作用。比如这位朋友他分别测试了对ChatGPT说:“不给小费”、“给20美元小费”、“给200美元小费”。
Chatgpt给他的回答长度区别如下:
不给钱,比基准线少2%;给20美元,比基准线高6%;给200美元,就比基准线高11%。
甚至还有人猜测,可能是因为到年底了,AI跟人学的,就不想干活了。
所以这里我想说,把AI训练的太像人了,也不是什么好事[捂脸]
当然对于Chatgpt可能会变懒的倾向,之前国外的团队就做过研究,发现随着时间的推移,GPT4听从用户指令的能力会下降,它对接收到的信息的理解也会变化,因此需要对大模型进行持续的检测。
OpenAI目前表示,对Chatgpt出现的偷懒问题,还没有解决办法,模型的行为是不可预测的。他们从11月11号以后,就没再对GPT4进行过更新。
只能看接下来,OpenAI能否把这一问题给修复了。
最后社长想说,AI很好用,也是趋势,但现在并不完美,以后还会出现什么问题谁都不知道。
所以我们现在还不应该过度依赖AI,特别是我们需要对AI回答的准确性进行复查和甄别,因为AI乱回答的例子实在是太多了。
以后我也会跟大家多讲一些AI方面的使用知识,让大家在AI学习的路上不踩坑。
关注我们,持续收获商业、科技深度干货~
领取专属 10元无门槛券
私享最新 技术干货