首页
学习
活动
专区
工具
TVP
发布

ml

专栏成员
664
文章
663062
阅读量
64
订阅数
如何为Dash/Zeal生成c++ 文档: 以abseil文档为例
目录 1. 软件安装 2 Sample源文件下载: 3. 生成步骤 3.1 使用doxygen生成html文件 3.2 使用docsetutil 生成 dash/Zeal 格式 1. 软件安装: 1. brew install doxygen 2. brew install swiftdocorg/formulae/docsetutil 2.Sample源文件下载: git clone https://github.com/abseil/abseil-cpp.
Gxjun
2021-12-16
8480
在使用asan的时候,如果我们想关闭/取消:use-after-poision 检测
使用这个allow_user_poisoning=0,来取消 以这个例子为例: // example1.cpp // use-after-poison error #include <stdlib.h> extern "C" void __asan_poison_memory_region(void *, size_t); int main(int argc, char **argv) { char *x = new char[16]; x[10] = 0; __asan_poi
Gxjun
2021-11-10
1.7K0
yaml配置文件编写小案例(python版)
#!/usr/bin/env python # -*- coding: utf-8 -*- from __future__ import absolute_import from __future__ import print_function from __future__ import unicode_literals __author__ = 'gongxijun' import yaml from easydict import EasyDict as edict conf_path = "./t
Gxjun
2021-02-02
3890
NN[神经网络]中embedding的dense和sparse是什么意思?
假设embedding对输出size=3,也就是hidden层的size=3*3;
Gxjun
2020-06-12
9.8K1
NN[神经网络]中embedding的dense和sparse是什么意思?
假设embedding对输出size=3,也就是hidden层的size=3*3;
Gxjun
2020-06-10
3.5K0
记一次失败的docker排障经历
表明docker在不断的重启容器,但是启动失败,应该是容器信息损坏了,删掉/var/run/docker/libcontainerd/containerd/xxxx,对应的信息,然后再试着重启,就可以解决了.
Gxjun
2020-03-02
6870
paddlepaddle关于使用dropout小案例
1 import numpy as np 2 import paddle.fluid as fluid 3 import paddle.fluid.layers as layers 4 5 debug = True 6 bs = 1 7 c = 1 8 h, w = 3, 1 9 10 main_program = fluid.Program() 11 startup_program = fluid.Program() 12 with fluid.program_guard(main_
Gxjun
2020-01-15
9990
paddlepaddle如何预加载embedding向量
使用小批量数据时,模型容易过拟合,所以需要对全量数据进行处理,我是用的是word2vec训练的词向量. 那么训练好对词向量如何加载呢?
Gxjun
2019-12-10
9950
fluid.io.load_inference_model 载入多个模型的时候会报错 -- [paddlepaddle]
将多个模型部署到同一个服务时,会出现stack错误. 原因是program为全局.
Gxjun
2019-06-15
7250
Hierarchical softmax(分层softmax)简单描述.
最近在做分布式模型实现时,使用到了这个函数. 可以说非常体验非常的好. 速度非常快,效果和softmax差不多. 我们知道softmax在求解的时候,它的时间复杂度和我们的词表总量V一样O(V),是性线性的,从它的函数方程式中,我们也可以很容易得出: softmax: f(x) = e^x / sum( e^x_i ) ; 它的需要对所有的词 e^x 求和; 所以当V非常大的时候,哪怕时间复杂度是O(V),这个求解的过程耗时也比较“严重”; 设想一下,当我们在训练模型时, 我们知道目标词x,但是我们却需要去求解所有的词,并求和。 当然,有很多去研究如何优化这一过程,提出过各种各样的设想,其中 Hierarchical softmax 就是其中璀璨的一种。
Gxjun
2019-01-24
6K0
词向量可视化--[tensorflow , python]
#!/usr/bin/env python # -*- coding: utf-8 -*- """ ---------------------------------- Version : ??
Gxjun
2018-12-28
1.8K0
并行排序ShearSort ---[MPI , c++]
思想: (1) 对于一个nxm的数组,使用N个work进行处理. (2) 先按行对数组进行升序和降序排序【由左至右】,一般奇数序列work升序,偶数序号的work进行降序 (3)再按列对数组进行
Gxjun
2018-12-27
8910
雅克比迭代算法(Jacobi Iterative Methods) -- [ mpi , c++]
雅克比迭代,一般用来对线性方程组,进行求解。形如: \(a_{11}*x_{1} + a_{12}*x_{2} + a_{13}*x_{3} = b_{1}\) \(a_{21}*x_{1} + a_{22}*x_{2} + a_{23}*x_{3} = b_{2}\) \(a_{31}*x_{1} + a_{32}*x_{2} + a_{33}*x_{3} = b_{3}\) 我们需要求解出\(x_{1}\) ,\(x_{2}\) ,\(x_{3}\),我们对这组方程进行变换: \(x_{1}=\frac{1}{a_{11}}(b_{1} -a_{12}*x_{2} -a_{13}*x_{3})\) \(x_{2}=\frac{1}{a_{21}}(b_{2} -a_{21}*x_{1} -a_{23}*x_{3})\) \(x_{3}=\frac{1}{a_{31}}(b_{3} -a_{31}*x_{1}-a_{32}*x_{2})\)
Gxjun
2018-12-27
1.9K0
多线程处理N维度topk问题demo--[c++]
问题 -对多维度特征进行topk排序,使用c++ 优先队列模拟最大堆. /* ---------------------------------- Version : ?? File Name
Gxjun
2018-12-26
7490
tensorflow 批次读取文件内的数据,并将顺序随机化处理. --[python]
使用tensorflow批次的读取预处理之后的文本数据,并将其分为一个迭代器批次:
Gxjun
2018-12-21
7680
生成命令行接口--google开源的fire使用体验【python-fire】
在python中,命令行接口常用的argparse 和click,但是相对于python-fire 来说灵活度太缺了,fire可以直接将python中的函数,以命令行显示.
Gxjun
2018-12-19
8610
序列标注模型中的两种标记模式
   我爱使用小米手机玩王者荣耀   -> 我<S>爱<S>使<B>用<E>小<B>米<M>手<M>机<E>玩<S>王<B>者<M>荣<M>耀<E>
Gxjun
2018-12-19
1.2K0
tensorflow 在加载大型的embedding模型参数时,会遇到cannot be larger than 2GB
      这种问题是,对于每一个变量 variable 由于是基于protobuf存在这大小限制(2G),这个时候,我们需要将embedding拆开,拆分成N等分,来使得每一个
Gxjun
2018-12-14
2.7K1
读吴恩达算-EM算法笔记
最近感觉对EM算法有一点遗忘,在表述的时候,还是有一点说不清,于是重新去看了这篇<CS229 Lecture notes>笔记. 于是有了这篇小札.
Gxjun
2018-10-25
8740
Scan Order in Gibbs Sampling: Models in Which it Matters and Bounds on How Much(笔记)
    这篇文章的作者通过对当前的在线新闻和社交媒体平台新闻的观察,基于:“社交媒体用户经常通过学习朋友分享的观点来更新自己对某一特定话题的看法” ,  提出了一个构想:"我们能否学习一个数据驱动的意见动态模型,能够准确地预测用户的意见?",本文就是作者围绕这个问题,来搭建了一个网络模型———— 一种舆论动力学的概率建模框架-斜率模型(SLANT 3),该框架通过标记跳跃扩散随机微分方程表示用户的意见,并允许根据历史细粒度事件数据进行有效的模型模拟和参数估计。然后,我们利用我们的框架,推导出一套有效的预测公式,用于意见预测,并确定意见在何种情况下收敛到稳定状态。从Twitter收集的数据的实验表明,我们的模型对数据提供了一个很好的拟合,我们的公式实现了比替代方案更精确的预测。
Gxjun
2018-10-09
4520
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档