首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    脑机接口最新研究:失语瘫痪者每分钟“说”出近30字符,平均错误率仅8.23%

    大数据文摘转载自学术头条 只要一个人的大脑神经活动还在,科学家们就有可能帮助失语瘫痪患者(由于严重声带和肢体瘫痪而交流受限)恢复应该有的交流能力。 脑机接口被寄予厚望,是近年来神经科学中最前沿的研究领域之一。 在一项最新研究中,来自美国加州大学旧金山分校的科研团队设计了一个神经假体,这种神经假体可以将脑活动转译为单个字母,实时拼出完整句子,展示在一名失语瘫痪患者面前。 据介绍,由该神经假体能构成的拼写系统能够以每分钟 29.4 个字符的速度生成句子,平均字符错误率仅为 6.13%,且可以推广到包含

    03

    J.Cheminform| MACCS密钥:在逆合成预测中弥补SMILES的局限性

    今天给大家介绍的是韩国江原国立大学Umit V.等人在2021年发表的一篇名为“Substructure-based neural machine translation for retrosynthetic prediction”的文章。随着机器翻译方法的快速改进,神经网络机器翻译开始在逆合成规划中发挥重要作用。作者利用无模板的序列到序列模型,将逆合成规划问题重新转化为语言翻译问题,不像先前的使用SMILES字符串来表示反应物和产物的模型,作者引入了一种新的基于分子碎片的方法来表示化学反应,并使用古本系数进行结果评估。结果表明,与目前最先进的计算方法相比,该方法能获得更好的预测结果。该方法解决了现有的逆合成方法产生无效SMILES字符串等主要缺陷。具体来说,我们的方法预测高度相似的反应物分子的准确率为57.7%。此外,作者的方法得到了比现有方法更稳健的预测。

    01

    EMNLP 2022 | 复杂标签空间下的Prompt调优( 将关系分类转换成填充问题)

    目前,利用提示(Prompt)对预训练模型进行微调,并将其应用到下游任务中是非常常用的方法。(对Prompt不了解的小伙伴可以读一下我之前的文章:一文了解预训练模型 Prompt 调优)但是当应用于复杂标签的关系分类时,由于严格的提示限制,一般的Prompt Tuning方法难以处理具有任意长度的标签表达。受预训练生成模型的文本填充任务的启发,「本文提出了一种新的生成提示调整方法,即将关系分类重新表述为填充问题,从而摆脱了当前基于提示的方法的限制,完全利用了实体和关系类型的丰富语义」。实验证明了本文模型在完全监督和低资源设置下的有效性。

    02

    深度学习知识抽取:属性词、品牌词、物品词

    更具体的任务有,在解析一段工作经历长文本的时候,我们希望提取其中的动宾组合来表示该应聘者之于此段工作经历的主要工作内容。以“ 了解市场情况 , 进行一些项目的商务谈判 ”为例,HanLP分词器的结果为“ 了解市场情况 , 进行一些项目的商务谈判 ”,此时可以提取的粗动宾组合有“了解- 情况 ”和“ 进行 - 谈判 ”,而我们更希望得到更加完整且意义更加丰富的宾语,因此需要将“市场 情况”合并为“市场情况”,将“商务 谈判”合并为“商务谈判”。因此,我们需要一个能够准确提取名词短语(Noun Pharse)的序列标注模型来克服NP字典召回不足的问题。

    02

    J Cheminform.|基于子结构的神经机器翻译用于逆合成预测

    随着机器翻译方法的快速改进,神经机器翻译已经开始在逆合成设计中发挥重要作用,为目标分子找到合理的合成路径。以往的研究表明,利用神经机器翻译的序列到序列框架是解决逆合成设计问题的一种有前途的方法。这项工作中,研究人员使用一个无模板的序列到序列的模型将逆合成设计问题重构为语言翻译问题。该模型是以端到端和完全数据驱动的方式进行训练。与之前翻译反应物和产物的SMILES字符串的模型不同,研究人员引入了一种基于分子片段的新的化学反应表示方式。事实证明,新方法比目前最先进的计算方法产生了更好的预测结果。新方法解决了现有逆合成方法的主要缺点,如生成无效的SMILES字符串。此外,研究人员的方法比现有的方法产生更稳健的预测。

    03

    手把手:自然语言处理太难?按这个套路走,就是砍瓜切菜!(附Python代码)

    大数据文摘作品 编译:小饭盆、周佳玉、笪洁琼、钱天培 豆瓣水军检测、《权游》续写、越来越神的谷歌翻译...... 最近自然语言处理(NLP)的各路应用可是被玩得风生水起。 这些NLP应用看起来炫酷到没道理,但其实背后的原理并不难理解。 今天,文摘菌就来扒一扒最常用的自然语言处理技巧和模型,手把手教你做一个简单神奇的小应用。 不吹不黑,90%的NLP问题都能用类似方法解决。 今天这个教程从数据处理的三大阶段教你自然语言处理: 收集,准备、检查数据 建立简单的模型(包括深度学习模型) 解释、理解你的模型 整篇

    02

    CS231n第九节:循环神经网络RNN

    本章我们将介绍 循环神经网络 Recurrent Neural Networks (RNNs),RNN的一大优点是为网络结构的搭建提供了很大的灵活性。通常情况下,我们提及的神经网络一般有一个固定的输入,然后经过一些隐藏层的处理,得到一个固定大小的输出向量(如下图左所示,其中红色表示输入,绿色表示隐藏层,蓝色表示输出,下同)。这种“原始”的神经网络接受一个输入,并产生一个输出,但是有些任务需要产生多个输出,即一对多的模型(如下图 one-to-many标签所示)。循环神经网络使得我们可以输入一个序列,或者输出一个序列,或者同时输入和输出一个序列。下面按照输入输出是否为一个序列对RNN进行划分,并给出每种模型的一个应用场景:

    04
    领券