因为组织 2050 的论坛,我前天认识了一个研究婴儿学习与认知科学的小姐姐,很开心地和她聊起人类大脑和大语言模型的相似,翻出好些有趣的陈年旧文章。
比如满篇错字人类能看得懂,LLM 也能读懂。
在 GPT4 识图功能刚出来时我甚至还翻出认知心理学教材,对照着视觉实验一个个做着玩儿,好多都能和人脑的特点对应上。我玩得乐此不疲,觉得一年前就在公众号开了个“AI 认知心理学”的专题真是很高明。
研究认知科学的小姐姐也觉得有意思,补充说她在牛津大学 babylab 访问学习的时候,实验室教授就希望通过研究婴儿的学习来为机器学习提供框架。
---
还是前天,晚上我看到微信群里大雨聊伪代码 prompt,有一些故意为难 LLM 的误用,就顺手点评了几句。在我看来最适合在 prompt 里使用伪代码的,是那些用自然语言表述特啰嗦还有歧义的场景,换成伪代码简洁精确效果就会好很多。
那具体何时该在 prompt 里用伪代码呢?我建议大雨用人类的感受去做判断。如果一件事复杂到你在对人表述的时候会想要定义特定名词、画流程图,那你的 prompt 里用上伪代码就会很有帮助。
---
同一天里,两次,我把大语言模型和人脑做了类比。突然就想起 Seymour Papert 在 Mindstorms 一书里的观点:孩子们通过思考计算机程序是如何运行的(计算机是如何“思考”的),能反过来帮助理解自己该如何去思考。
1980 年代的计算机,还只能机械地执行程序。孩子们通过它,能反观自身的逻辑思维。
如今的大语言模型可就复杂多了:它有机器幻觉,它会“忘记/想不起”一些事儿,用不同的 prompt 能让它给出刻板或灵活的回复……总之,它简直就像个小孩,有自己的脾性。
那探索 LLM 的特点,或许能帮助我们理解自己思维的特点。这,就是提升元认知的机会了吧。
其实把自己的大脑看成一个大语言模型,也挺有意思的。
说话时是凭感觉直接往外吐字,还是添加了思维链一步一步想好再回答?
对方的话语是否模糊?大脑是否因此开始胡乱做假设?
有没有因为被对方的话语带到一个特别的情境里,而给出针锋相对的回答?(对方的话语就好比 prompt 里的例子)
此时此刻大脑的注意力在哪里?是否变化输入形式/格式,能帮助自己更好地思考?
……
最简单却又最有启发的,莫过于关于数据的类比: 你选择看什么书或视频?喂给大脑的数据质量,决定了大脑输出的质量。
领取专属 10元无门槛券
私享最新 技术干货