首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

在推荐系统中,我还有隐私吗?联邦学习:你可以有

推荐系统在我们的日常生活中无处不在,它们非常有用,既可以节省时间,又可以帮助我们发现与我们的兴趣相关的东西。目前,推荐系统是消费领域最常见的机器学习算法之一[1]。...通过对物品进行多次关联性分析,发现我多次在某宝中的点击之间的关联性,从而生成推荐结果,将“女式羽绒服” 推荐到我的某宝首页中。...在 Fed-NewsRec 框架中,新闻平台(网站或应用程序)上的用户行为存储在用户的本地设备中,而不需要上传到服务器中。...而且,与现有方法基于集中存储的用户行为数据训练的方式不同,Fed-NewsRec 中的用户行为数据分散存储在本地用户设备上,从不上传。...TEE 在连接设备中提供一个安全区域,确保敏感数据在隔离、可信的环境中存储、处理和保护。

4.7K41
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    TensorFlow RNN Cell源码解析

    在上图网络结构中,对于矩形块 A 的那部分,通过输入xt(t时刻的特征向量),它会输出一个结果ht(t时刻的状态或者输出)。网络中的循环结构使得某个时刻的状态能够传到下一个时刻。...__call__(inputs, state) 实际上是调用了父类 Layer 的 __call__() 方法,但父类中 __call__() 方法中又调用了 call() 方法,而 Layer 类的...RNNCell 类的子类中实现 call() 方法即可。..._linear([inputs, state])) return output, output 可以看到在初始化的时候,最终要的一个参数是 num_units,意思就是这个 Cell 中神经元的个数...在经过 Forget Gate 和 Input Gate 处理后,我们就可以对输入的 Ct-1 做更新了,即把Ct−1 更新为 Ct,首先我们把旧的状态 Ct−1 和 ft 相乘, 把一些不想保留的信息忘掉

    1.3K50

    Attention原理及TensorFlow AttentionWrapper源码解析

    可以看到图中有一个中间状态c向量,在c向量左侧的我们可以称之为编码器(Encoder),编码器这里示意的是 RNN 序列,另外 RNN 单元还可以使用 LSTM、GRU 等变体, 在编码器下方输入了 ?...,代表模型的输入内容,例如在翻译模型中可以分别代表“我爱中国”这四个字,这样经过序列处理,它就会得到最后的输出,我们将其表示为c向量,这样编码器的工作就完成了。...,在 TensorFlow 中常用 score 变量表示。 接下来再回到 __call__() 方法中,这里得到了 score 变量,接下来可以对齐求 softmax() 操作,得到 ?...RNNCell 的实例,这里可以是单个的 RNNCell,也可以是多个 RNNCell 组成的 MultiRNNCell。...在第二步中,其实就是调用了普通的 RNNCell 的 call() 方法,得到输出和下一步的状态。

    5K40

    java中的基本数据类型一定存储在栈中吗?

    大家好,又见面了,我是你们的朋友全栈君。 首先说明,“java中的基本数据类型一定存储在栈中的吗?”这句话肯定是错误的。...下面让我们一起来分析一下原因: 基本数据类型是放在栈中还是放在堆中,这取决于基本类型在何处声明,下面对数据类型在内存中的存储问题来解释一下: 一:在方法中声明的变量,即该变量是局部变量,每当程序调用方法时...,系统都会为该方法建立一个方法栈,其所在方法中声明的变量就放在方法栈中,当方法结束系统会释放方法栈,其对应在该方法中声明的变量随着栈的销毁而结束,这就局部变量只能在方法中有效的原因 在方法中声明的变量可以是基本类型的变量...引用变量名和对应的对象仍然存储在相应的堆中 此外,为了反驳观点” Java的基本数据类型都是存储在栈的 “,我们也可以随便举出一个反例,例如: int[] array=new int[]{1,2...}; 由于new了一个对象,所以new int[]{1,2}这个对象时存储在堆中的,也就是说1,2这两个基本数据类型是存储在堆中, 这也就很有效的反驳了基本数据类型一定是存储在栈中

    1.2K21

    空间深度学习——ConvLSTM原理及其TensorFlow实现

    从图中可以看出,此时输入与各个门之间的连接由前馈式替换成了卷积,同时状态与状态之间也换成了卷积运算。新的ConvLSTM的工作原理可以由以下公式表示: ?...图中*表示卷积,值得注意的是,这里的X,C,H,i,f,o都是三维的tensor,它们的后两个维度代表行和列的空间信息,我们可以把ConvLSTM想象成是处理二维网格中的特征向量的模型,其可以根据网格中周围点的特征来预测中心网格的特征...不过在实现之前,让我们先来看一下TensorFlow中常见的RNNCell的代码设计,TensorFlow中常见的RNNCell有BasicRNNCell,GRUCell以及LSTMCell,它们都是继承自...RNNCell,并且都需要实现一个共同的方法就是call(),call的作用就是指明每一步循环时候input, state, output分别是什么关系。...,因为它增加了多个门,而这里的state也不单单是一个变量,而是一个状态组合,为了提高矩阵运算效率,这里采取的方法是把图1中的四个运算表达式拼接到了一起同时计算,计算过后再将它们分开即可,最后再计算出c

    3.6K40

    业务用例的研究组织可以在同一个建设系统中可以变化吗

    2013-02-08 9:44:15 上孙安俊(359***041) 请问大家一个问题,业务用例的研究组织可以在同一个建设系统中可以变化吗?...2013-02-08 9:44:51 潘加宇(3504847) 没有必要变化了 2013-02-08 9:46:55 潘加宇(3504847) 这个划定的范围,能把你要改进的场景被包在里头就可以。...2013-02-08 9:51:42 潘加宇(3504847) 部门就可以了,把这些场景组织到部门的用例下面 2013-02-08 9:54:44 潘加宇(3504847) 既然改进的范围波及整个部门,...2013-02-08 10:14:41 上李帅(958**7) 意味着缺少了资源 2013-02-08 10:25:47 上孙安俊(359***041) 请假与加班是相对的,可以进行调休 2013-02...-08 11:04:09 潘加宇(3504847) 我上面讲的不知道是否理解了?

    2.7K30

    味觉可以被识别吗?脑机接口在味觉感知中的新应用

    在识别过程中,大多数EEG研究所获得的ERP强度都呈现出从咸到甜的递减规律(咸>酸>苦>甜)。因此,这些强度差异可以用于对特定味觉辨别的研究。...然后对校正后的图像进行重建,得到所有被试均匀的MEG图像。根据实验范式,将对事件相关响应、学习状态响应和静息状态响应进行数据提取。MEG图像包含空间、时间和频率等多维数据成分。...关于味觉刺激诱发大脑相关事件的实验中,人们的味觉体验除了会受到上述几种因素影响之外,温度、原始配料的比例、酸碱度、黏度等因素也对食物的口感起着重要的作用,另外,味觉的情感体验是一个相对主观的过程,个体的认知状态也是个一个重要因素...当行业为特定的受众(比如老奶奶人)设计/开发食品时,通过BCI技术可以从特定的客户群体中收集最直观的感官体验数据,相比传统的数据收集手段,这种方式更高效且在消费群体中接受度更高,且对直观信号(神经活动)...的测量可以在更大程度上降低感官分析的偏差。

    3K20

    【DB笔试面试745】在Oracle中,RAC环境下的Redo文件可以放在节点本地吗?

    ♣ 题目部分 在Oracle中,RAC环境下的Redo文件可以放在节点本地吗? ♣ 答案部分 不能。...同单实例的系统一样,在RAC环境中,每个节点实例都需要至少两组Redo日志文件,且每个节点实例有自己独立的Redo日志线程(由初始化参数THREAD定义),例如: SQL> SELECT B.THREAD...4 STALE +DATA/lhrdb/onlinelog/group_4.266.660615543 52428800 YES INACTIVE RAC环境中的...Redo日志文件必须部署到共享存储中,而且需要保证可被集群内的所有节点实例访问到。...当某个节点实例进行实例恢复或介质恢复的时候,该节点上的实例将可以应用集群下所有节点实例上的Redo日志文件,从而保证恢复可以在任意可用节点进行。

    2.9K30

    iScience|不确定性量化问题:我们可以相信AI在药物发现中的应用吗?

    图1 Softmax函数给出的概率不能被可靠地视为是预测的置信度 图1B显示的是模型在训练集和测试集上给出的概率。可以看出,该模型在训练部分拟合良好,但在测试部分给出了过于自信的错误预测。...例如,在回归设置下,UQ模型是否可以精确估计误差分布的方差,这对于置信区间估计是有用且重要的。...相应地,UQ的概念更广泛,可以指用于确定预测是否可靠的所有方法。因此,UQ 在概念上涵盖了AD定义方法。...具体来说,在贝叶斯系统中,总不确定性可以根据不同的来源分为偶然不确定性和认识论不确定性。前者是不可约和固有数据噪声的结果,后者是由训练集提供的知识不足引起的。...因此,预测的不确定性在总预测不确定性中的比例可以用来估计一个模型是否达到了可能的MAA。

    2.4K30

    TensorFlow 中 RNN 实现的正确打开方式

    也就是说,每调用一次 RNNCell 的 call 方法,就相当于在时间上 “推进了一步”,这就是 RNNCell 的基本功能。...RNNCell 有一个很明显的问题:对于单个的 RNNCell,我们使用它的 call 函数进行运算时,只是在序列时间上前进了一步。...在 TensorFlow 中,可以使用 tf.nn.rnn_cell.MultiRNNCell 函数对 RNNCell 进行堆叠,相应的示例程序如下: import tensorflow as tf import...因此,我们还需要额外对输出定义新的变换,才能得到图中真正的输出 y。由于 output 和隐状态是一回事,所以在 BasicRNNCell 中,state_size 永远等于 output_size。...Char RNN 的实现已经有很多了,可以自己去 Github 上面找,我这里也做了一个实现,供大家参考。

    1.4K80

    Tensorflow 之RNNinputs: shape = (batch_size, time_steps, input_size)cell: RNNCellinitial_state: shape

    (image-e4cb03-1533547159062)] 也就是说,每调用一次RNNCell的call方法,就相当于在时间上“推进了一步”,这就是RNNCell的基本功能。...堆叠RNNCell: MultiRNNCell 将x输入第一层RNN的后得到隐层状态h,这个隐层状态就相当于第二层RNN的输入,第二层RNN的隐层状态又相当于第三层RNN的输入,以此类推。...在TensorFlow中,可以使用tf.nn.rnn_cell.MultiRNNCell函数对RNNCell进行堆叠,相应的示例程序如下: 在经典RNN结构中有这样的图: ?...找到源码中BasicRNNCell的call函数实现: 说明在BasicRNNCell中,output其实和隐状态的值是一样的。因此,我们还需要额外对输出定义新的变换,才能得到图中真正的输出y。...由于output和隐状态是一回事,所以在BasicRNNCell中,state_size永远等于output_size。

    71320

    开发 | TensorFlow中RNN实现的正确打开方式

    也就是说,每调用一次RNNCell的call方法,就相当于在时间上“推进了一步”,这就是RNNCell的基本功能。...在TensorFlow中,可以使用tf.nn.rnn_cell.MultiRNNCell函数对RNNCell进行堆叠,相应的示例程序如下: import tensorflow as tf import...因此,我们还需要额外对输出定义新的变换,才能得到图中真正的输出y。由于output和隐状态是一回事,所以在BasicRNNCell中,state_size永远等于output_size。...Char RNN的实现已经有很多了,可以自己去Github上面找,我这里也做了一个实现,供大家参考。...我主要向代码中添加了embedding层,以支持中文,另外重新整理了代码结构,将API改成了最新的TensorFlow 1.2版本。

    1.3K50

    TensorFlow 1.2正式发布,新增Python 3.6支持

    RNNCell现在为tf.layers.layer的子类对象。严格来说,在tensorflow 1.1版本已经发布这个子类:第一次使用了RNNCell单元,缓存了其作用域。...在接下来用到该rnncell单元时,可以重复使用同一作用域中的变量。在TensorFlow1.0.1版本及其以下中,这个关于RNNCells的调整是个突破性变化。...在TensorFlow1.1版本中,已经确保先前代码能够按照新的语义正确运行;这个版本允许更灵活地使用RNNCell,但是TensorFlow版本低于1.0.1时,可能会报错。...如果你原来的checkpoints中含有这样的RNN单元,这可能导致传播过程中的不兼容性,则可以使用checkpoint_convert scrip工具更改原有checkpoints中的变量名。...先前的tf.nn.rnn函数更名为tf.nn.static_rnn,双向静态和状态存储静态rnn函数也被放回tf.nn命名空间中。

    77840

    TensorFlow 1.2.0新版本发布:新增Intel MKL优化深度学习基元

    现版本比TensorFlow1.1更灵活:当一个RNNCell对象被第一次使用时,它的作用域(scope)就被缓存记录了。后期对RNNCell的使用会对同一作用域的变量作再使用。...TensorFlow 1.1 用了一些检验来确保旧版本的代码可以在新版本的环境下成功运行;本版本允许了更灵活的RNNCell使用方法,但在TensorFlow 1.0.1以下版本编写的代码也可能在新版本中出问题...比如说,MultiRNNCell([lstm] * 5)在新版本中会建立一个5层的LSTM堆栈(5-layer LSTM stack),每个堆栈有相同的参数。...这可能会与你之前设置的包含这类RNNCell的检查点(checkpoint)反馈不兼容,在这种情况下你可以用checkpoint_convert script来修改旧变量名。...原先的tf.nn.rnn现在变成了tf.nn.static_rnn,而双向静态(bidirectional static)和状态保存静态(state saving static)的RNN函数现在也被移回了

    1.4K40

    RNN Layer

    (100, 20)中100指的是用一个长度为100的向量表示一个单词,20指的是hidden_size RNN的forward函数与CNN定义的方式有点不太一样,具体见下图 image.png 参数中的...都是有关联的,必须要把上面我写的内容看懂了才能理解 $h_t$和$out$很容易搞混,我们先看一个2层的RNN模型 image.png 在解释$h_t$和$out$之前要先理解一个概念——时间戳,时间戳是针左右而不是上下...,什么意思呢,就是上图是一个两层的RNN,假设这两层的RNN右边分别又各接一层,那这样的左右结构就是时间戳,基于此,给出$h_t$和$out$的定义: $h_t$:最后一个时间戳上面所有的memory状态...$out$:所有时间戳上的最后一个memory状态 而第几个memory是针对层来说的,比方说第一层的memory就是第一个memory,最后一层的memory就是最后一个memory 看下代码 import...,用RNNCell的方式,手动循环进行训练 下面在看一个两层的RNN,用RNNCell的方式怎么做 import torch import torch.nn as nn cell1 = nn.RNNCell

    98820

    【致敬周杰伦】基于TensorFlow让机器生成周董的歌词(附源码)

    200的歌词(你们期待机器生成周董的歌词吗?)...比如对于 天青色等烟雨 而我在等你 我们是不是可以把“天青色等烟雨”看作X,把“ 而我在等你”看作Y,如果我们将X输入进网络,而网络输出的是Y,那就说明我们构建的网络已经具备写歌词的能力了。...主目录下面的utils.py是公共函数库,preprocess.py是数据预处理代码,seq2seq_rnn.py是模型代码,sample.py是抽样生成过程,train.py是训练过程; log目录中存储的是训练过程中的日志文件...; save目录中存储的是训练过程中的模型存储文件; data目录中存放的是原始歌词数据库以及处理过的数据库; result目录中存放的是生成的序列; analysis目录中存放的是用于可视化的代码文件...5、编写抽样生成函数 如上所述,在抽样生成的时候,我们首先需要一个种子序列,同时在第一步的时候,我们需要向网络传入一个0的初始状态,并通过种子序列的第一个字得到下一个隐含状态,然后再结合种子的第二个字传入下一个隐含状态

    4K50

    【TensorFlow1.2.0版发布】14大新功能,增加Intel MKL集成

    RNNCell 对象现在从属于 tf.layers.Layer,在TensorFlow 1.1 发布时的严格描述已经被删除:一个RNNCell首次被使用,它自己缓存其范围(scope)。...所有将来使用的RNNCell都会对来自相同的范围的中的变量进行重复使用。对于TensorFlow1.0.1及其以下版本中的RNNCell来说,这是一个突破性的改变。...如果你的旧的checkpoints中包含了这样的 RNN cells,这可能会导致反馈的不一致,此时你可以使用工具checkpoint_convert script来改变旧的checkpoints中的变量名字...原始的 tf.nn.rnn 功能现在变成了 tf.nn.static_rnn, 双向的数据和状态存储数据rnn功能现在有备移回tf.nn 命名区。...在RNN的解码中,这一功能性将会被一个在tf.contrib.seq2seq. 中可用的API取代。 14.

    1.2K90
    领券