首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

17日直播|揭示o1核心原理,大模型的推理标度率与计算最优推理

报告主题:LLM Inference Scaling Law | 大模型的推理标度率与计算最优推理

报告日期:10月17日(周四)14:30-15:30

报告要点:

近期,随着o1的问世,学术界对推理时计算(inference-time compute)的关注显著增加。推理时计算已被证明是除训练以外提升模型性能的有效途径。本报告将介绍我们于8月初完成的工作——《An Empirical Analysis of Compute-Optimal Inference for Problem-Solving with Language Models》。该研究系统地分析了大语言模型在推理任务上的推理标度率(inference scaling law),揭示了模型性能与推理计算量、模型规模及推理策略之间的关系。

我们进一步提出了“计算最优推理”这一新问题:在给定的固定计算资源下,通过引入更复杂的推理方法和选择合适的模型规模,最大化模型的推理性能。除常规的投票方法和蒙特卡罗树搜索(MCTS)外,我们还提出了全新的推理策略 REBASE,其在多种任务上展现出较投票和MCTS更优的计算效果和性能表现。

报告嘉宾:

伍垟圳,清华大学在读姚班本科生。本科期间在卡耐基梅隆大学语言技术研究所(LTI)访问研究,导师是Yiming Yang和Sean Welleck。曾获Kaggle首届人工智能数学奥林匹克第二名。

扫码报名

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OLe0GR_urOaq4SAtXkTa6a_A0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券