当要求大型语言模型(LLMs)在1-50范围内生成"随机"数字时,它们表现出明显的偏向性,特别是对数字27的强烈偏好。 这一现象并非技术缺陷,而是反映了人类认知偏差的深层镜像——因为这些模型是在人类生成的文本数据上训练的, 它们学会了复制人类在"随机"选择中的系统性偏差。研究表明,数字27位于心理学上的"黄金地带"—— 既不太明显(如1、10、25、50),也不太无趣(如20、30),给人以"随机而独特"的感觉。
这个现象不仅仅是国外主流模型出现,国内模型似乎也在遵循这个法则。
为什么会有这个 27 Magic Number 存在呢?下面是我使用 Agent 做的一个 DeepReaserch~,来看看模型怎么解释模型的