首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    老年人Theta-Gamma跨频率耦合与工作记忆表现的纵向关系研究

    Theta-gamma耦合(TGC)是支持工作记忆(WM)的一种神经生理机制。TGC与N-back表现(一种WM任务)相关。与TGC相似,theta和alpha事件相关同步化(ERS)和去同步化(ERD)也和WM相关。很少有研究探讨WM表现和TGC、ERS或ERD之间的纵向关系。本研究旨在确定WM表现的变化是否与6到12周内TGC(主要目的),以及theta和alpha的ERS或ERD的变化有关。包括62名60岁及以上的被试,无精神疾病或缓解型重度抑郁障碍(MDD)且无认知障碍。在N-back任务(3-back)期间使用脑电(EEG)评估TGC、ERS和ERD。在控制组中,3-back表现的变化和TGC、alpha ERD和ERS、以及theta ERS的变化之间存在相关。相比之下,在缓解型MDD亚组中,3-back表现的变化只和TGC的变化之间存在显著相关性。我们的结果表明,WM表现和TGC之间的关系随着时间的推移是稳定的,而theta和alpha ERD和ERS的变化则不是这样。

    02

    强化学习从基础到进阶-案例与实践[5]:梯度策略、添加基线(baseline)、优势函数、动作分配合适的分数(credit)

    如图 5.1 所示,强化学习有 3 个组成部分:演员(actor)、环境和奖励函数。智能体玩视频游戏时,演员负责操控游戏的摇杆, 比如向左、向右、开火等操作;环境就是游戏的主机,负责控制游戏的画面、负责控制怪兽的移动等;奖励函数就是当我们做什么事情、发生什么状况的时候,可以得到多少分数, 比如打败一只怪兽得到 20 分等。同样的概念用在围棋上也是一样的,演员就是 Alpha Go,它要决定棋子落在哪一个位置;环境就是对手;奖励函数就是围棋的规则,赢就是得一分,输就是负一分。在强化学习里,环境与奖励函数不是我们可以控制的,它们是在开始学习之前给定的。我们唯一需要做的就是调整演员里面的策略,使得演员可以得到最大的奖励。演员里面的策略决定了演员的动作,即给定一个输入,它会输出演员现在应该要执行的动作。

    03
    领券