传统的验证码方案主要依赖文本扭曲[1]、图像分类[2,3]或逻辑推理[4]来区分人类与机器,但随着多模态LLMs(Large Language Model)的发...
在这场专题讨论会上,TUB计算机科学教授Fatma Deniz与奥特曼、数据奇才Volker Markl,以及企业家Nicole Büttner共同探索了AI对...
近日,来自清华UIUC等机构的研究者提出了PRIME(Process Reinforcement through IMplicit REwards):通过隐式奖...
大语言模型的能力越来越强,各大厂商的目标也逐渐从简单的「互联网搜索」扩展到「可操作设备的智能体」,可以帮用户完成订外卖、购物、买电影票等复杂的任务。
在OpenAI与Perplexity绞尽脑汁去动谷歌搜索的蛋糕时,斯坦福研究团队却「于无声处响惊雷」,一鸣惊人推出了支持避开信息盲点、全面整合可靠信息、从头写出...
9. Yang X, Cheng W, Wu Y, et al. Dna-gpt: Divergent n-gram analysis for training...
有网友猜测,4o mini是一个大约有40B参数的MoE模型,其中激活参数为8B。
最近,微软下一代小模型Phi-4正式亮相。在GPQA和MATH基准上,其数学性能直接碾压GPT-4o、Gemini Pro 1.5。
最近,Ilya在NeurIPS 2024中宣布:预训练结束了!瞬间一石激起千层浪。
在人工智能领域,我们一直以为顶尖的多模态大模型已经无所不能,GPT-4o在ASR(音频转文字)任务上已经达到了97%的正确率,更是凸显了强大的音频理解能力。
只进行过「预训练」的模型是没办法直接使用的,存在输出有毒、危险信息的风险,也无法有效遵循人类指令,所以通常还需要进行后训练(post-train),如「指令微调...
我们都知道,在科研界,LLM在解决简单科学问题时表现得游刃有余,但在应对复杂问题时往往会出现幻觉。于是,为了让模型更靠谱,研究人员尝试给模型装上科学工具,帮助它...
这件事,真真切切地发生在日常的交易中。对于一件产品进入市场来讲,能够成功盈利最重要的因素无疑是定价合理。
而想要充分发挥LLM的巨大潜力,指令调优(Instruction Tuning)是至关重要的一步。
那么,LLM究竟有没有「性格」这种维度的特征?最近加州大学伯克利分校发表的新研究VibeCheck就证实了这种推测。
也就是说,使用GPT-4o来预测网站上操作的结果,可以提供强大的性能,同时还能提高安全性和效率。
LLM 规模扩展的一个根本性挑战是缺乏对涌现能力的理解。特别是,语言模型预训练损失是高度可预测的。然而,下游能力的可预测性要差得多,有时甚至会出现涌现跳跃(em...
一周前,谷歌的 Gemini-Exp-1114 模型取代 GPT-4o,坐上了 Arena 榜单的头把交椅。
值得一提的是,要在更少的 GPU 上运行 Modded-NanoGPT,只需修改 run.sh 以获得不同的 --nproc_per_node。如果内存不足,只...
AFLOW 作者团队来自于 MetaGPT 开源社区。AFLOW 论文共同第一作者为香港科技大学(广州)的博士生张佳钇和 DeepWisdom 研究员向劲宇,共...