首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    博弈论笔记--03--迭代剔除和中位选民定理

    如果是Player1,他的BR(Best Response)? 选择”上”是对应Player2选择”左”的最佳选择 选择”中”是对应Player2选择”右”的最佳选择 当对手选择左右的概率相等的时候,此时最好的选择是下。 Ui(u)=0.5*5+5*0=2.5收益 Ui(M)=1*0.5+4*0.5=2.5收益 Ui(D)=0.5*4+0.5*2=3收益 但是情况可能不一样,比如Player2选择左右的概率为pos1,pos2时就需要重新计算。 假设Player2选择右的概率为PxPxP_x,收益如下: u(U,L)u(U,L)u(U,L) = (1−Px)(1−Px)(1-P_x)* 5 + 0 * PxPxP_x= 5*PxPxP_x u(D,L)u(D,L)u(D,L) = (1−Px)(1−Px)(1-P_x) * 1 + 4 * PxPxP_x = 4 - 3 * PxPxP_x u(M,L)u(M,L)u(M,L) = (1−Px)(1−Px)(1-P_x)* 4 + 2 * PxPxP_x = 2 + 2 * PxPxP_x 所以画图表示如下: 其中P1P1P_1=u(U,L)u(U,L)u(U,L),P2P2P_2=u(D,L)u(D,L)u(D,L) ,P3P3P_3=u(M,L)u(M,L)u(M,L),横坐标表示Player2选择左的概率。

    04

    J. Med. Chem. | FFLOM:一种基于流的从片段到先导化合物优化的自回归模型

    今天给大家介绍浙江大学药学院侯廷军教授和康玉副教授团队、齐鲁制药合作在Journal of Medicinal Chemistry发表的一篇论文“FFLOM: A Flow-Based Autoregressive Model for Fragment-to-Lead Optimization”。该文提出了一种新的基于流(flow)的自回归模型FFLOM,可用于先导化合物优化任务中小分子的连接子(linker)和R基团设计,使用者可自定义待修改片段和生成长度,在保留优势区域及其构象的前提下对局部片段进行改进。在ZINC、CASF和PDBbind等多个测试集上的评估显示,FFLOM生成的分子在有效性、唯一性、新颖性和重现率指标上均表现良好;在片段连接、PROTAC设计、R基团生长和R基团优化四个实际应用案例中,不仅能够复现实验验证的基线分子,且能生成大量结合亲和力打分更优的新颖结构。

    02

    在GPU上加速RWKV6模型的Linear Attention计算

    本文主要讲一些看到的RWKV 6模型的Linear Attention模块推理加速方法,在这篇博客中暂不涉及对kernel的深入解析。首先,flash-linear-attention(https://github.com/sustcsonglin/flash-linear-attention )这个仓库旨在对各种线性Attention架构进行工程加速,例如RetNet,GLA,Manba,RWKV6(2024年4月引入)。它使用Triton来编写代码,并针对不同的线性Transformer架构使用不同的优化方式。例如对于RWKV 6就采用在时间维度进行kernel fuse的方式来加速。其次,RWKV-CUDA是RWKV系列模型迭代中针对Linear Attention模块的改进开发的自定义高性能cuda kernel(https://github.com/BlinkDL/RWKV-CUDA)。flash-rwkv(https://github.com/BBuf/flash-rwkv)仓库在RWKV-CUDA的最优性能算子的基础上进行了封装,提供了rwkv5_cuda_linear_attention和rwkv6_cuda_linear_attention两个接口方便在HuggingFace模型实现中直接加速推理的prefill阶段速度。

    01
    领券