首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

5W1H聊开源之Who和How——谁、如何参与开源?

User 实际上,除了最直接的Contributor和Committer,其他人也可以通过各种各样的方式对项目作出贡献。...如禅道项目管理软件的用户们,就是以User的身份参与到了禅道这个开源项目中,对禅道的使用、标记、推荐乃至提交Bug、提供使用反馈,都是一种对开源项目的参与和贡献。...Contributor 开源项目的代码、文档和作品都是由项目社区的成员创建、测试、使用、讨论和优化构成。这些过程可划分为各种任务,需要不同技能、不同参与程度及不同技术专长水平。...比如对该项目发出过pull request并合并到项目、测试和报告或者修复 Bug、编写和更新软件、撰写或更新文档、翻译、向他人推荐该项目、组织线下活动等。...Committer Committer通常在项目日常运营过程中通过各种贡献积累,得到项目核心维护团队的提名和认可,最终从一般贡献者成为提交者,并且在开源项目中拥有更高的权限,他们是拥有代码仓库写操作权限的开发者

41910
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    01.神经网络和深度学习 W2.神经网络基础

    dw2 += x2(i)dz(i); db += dz(i); // 求平均值 J /= m; dw1 /= m; dw2 /= m; db /= m; // 更新参数 w,...b w = w - alpha*dw b = b - alpha*db 显式的使用 for 循环是很低效的,要使用向量化技术 加速计算速度 9....x(i)dz(i); // 向量化,全部样本的梯度累加 db += dz(i); // 求平均值 J /= m; dw /= m;// 向量化 db /= m; // 更新参数 w,...b w = w - alpha*dw b = b - alpha*db 这样就把内层的 dw1,... dwn 的计算使用向量化了,只用1层 for 循环,还可以做的更好,往下看 11....总是使用 nx1 维矩阵(列向量),或者 1xn 维矩阵(行向量) 为了确保所需要的维数时,不要羞于 reshape 操作 作业 01.神经网络和深度学习 W2.神经网络基础(作业 - 逻辑回归 图片识别

    37610

    01.神经网络和深度学习 W3.浅层神经网络

    神经网络概览 2. 神经网络的表示 3. 神经网络的输出 4. 多样本向量化 5. 激活函数 6. 为什么需要 非线性激活函数 7. 激活函数的导数 8....神经网络概览 ? image.png 还有反向的求导过程 2. 神经网络的表示 ? 3. 神经网络的输出 ?...激活函数效果要好,尽管在实际中Leaky ReLu使用的并不多 ReLu、Leaky ReLu的优点: sigmoid函数需要进行浮点四则运算,在实践中,使用ReLu激活函数学习的更快 sigmoid和tanh...函数的导数在正负饱和区的梯度接近于0,这会造成梯度弥散,而Relu和Leaky ReLu函数大于0部分都为常数,不会产生梯度弥散现象。...01.神经网络和深度学习 W3.浅层神经网络(作业:带一个隐藏层的神经网络)

    32010

    爬取了 S10 SN vs DWG 总决赛视频的 10 w 条弹幕和评论

    昨晚,S 10 总决赛,恭喜 SN , 杀进了全球总决赛,可惜了 DWG,与队史第一个 S 赛亚军擦肩而过。 在 B 站看的直播,又和几千人一起在 B 站看了录播。 ?...弹幕+评论,一共 快 10w 多条文本,粗略地过了一遍,不由得感叹,B 站上人才济济一堂。...本来试着对每条弹幕都判断下极性,如果是正向,则本分钟内弹幕数+1,如果是负向,则-1,中立则保持不变,这样分析的优点是准确,缺点是太费时间了,几 w 条文本,要几个小时才能出结果,所以我改进了下,把每一分钟的文本合并一次性判断极性...一个主题主旨讲的是 SN 是黑马,bin 是天神,另一个主题讲的是 DWG yes 还好,明年,S 11 全球总决赛,还在中国举办,在屏幕前心碎的电竞男孩,还有机会去现场,身临其境地心碎一次,剑指 S12

    64240

    04.卷积神经网络 W4.特殊应用:人脸识别和神经风格转换

    Siamese 网络 4. Triplet 损失 5. 人脸验证与二分类 6. 什么是神经风格迁移 7. 深度卷积网络在学什么 8. Cost function 9....Siamese 网络 ?...考查编码之差的范数 image.png 对于两个不同的输入,运行相同的卷积神经网络,然后比较它们,这一般叫做Siamese网络架构 改变这个网络所有层的参数,得到不同的编码结果,用反向传播来改变这些所有的参数...深度卷积网络在学什么 浅层的隐藏单元通常会找一些简单的特征,比如边缘或者颜色阴影 一个深层隐藏单元会看到一张图片更大的部分,在极端的情况下,可以假设每一个像素都会影响到神经网络更深层的输出,靠后的隐藏单元可以看到更大的图片块...,包括类似边缘的低级特征的层,以及高级特征的层,使得神经网络在计算风格时能够同时考虑到这些低级和高级特征 ?

    29010

    【STM32H7教程】第79章 STM32H7的QSPI总线应用之驱动W25QXX(支持查询和MDMA)

    mod=viewthread&tid=86980 第79章 STM32H7的QSPI总线应用之驱动W25QXX(支持查询和MDMA) 本章节为大家讲解标准QSPI接线方式驱动W25QXX,实现了查询和...7、 STM32H7驱动QSPI Flash的4线DMA模式,读速度48MB/S左右。http://www.armbbs.cn/forum.php?...不过建议使用时给首地址,方便管理。 79.3.5 W25QXX规格参数 这里我们主要了解擦写耗时和支持的时钟速度,下面是擦写时间参数: 页编程时间:典型值0.4ms,最大值3ms。...整个芯片擦除时间:典型值80s,最大值400s。 支持的速度参数如下: 可以看到最高支持的读时钟(使用命令03H)速度是50MHz,其它命令速度可以做到133MHz。...79.6 W25QXX驱动移植和使用 W25QXX移植步骤如下: 第1步:复制bsp_qspi_w25q256.c, bsp_qspi_w25q256.h到自己的工程目录,并添加到工程里面。

    2.4K11

    【STM32H7教程】第73章 STM32H7的SPI总线应用之驱动W25QXX(支持查询,中断和DMA)

    第73章       STM32H7的SPI总线应用之驱动W25QXX(支持查询,中断和DMA) 本章节为大家讲解标准SPI接线方式驱动W25QXX,实现了查询,中断和DMA三种方式。...不过建议使用时给首地址,方便管理。 73.3.5 W25QXX规格参数 这里我们主要了解擦写耗时和支持的时钟速度,下面是擦写时间参数: ?   页编程时间:典型值0.4ms,最大值3ms。  ...整个芯片擦除时间:典型值20s,最大值100s。 支持的速度参数如下: ? 可以看到最高支持的读时钟(使用命令03H)速度是50MHz,其它命令速度可以做到133MHz。...的时钟极性和时钟相位配置 首先回忆下STM32H7支持的4种时序配置。  ...73.7 W25QXX驱动移植和使用 W25QXX移植步骤如下:   第1步:复制bsp_spi_bus.c,bsp_spi_bus.h,bsp_spi_flash.c,bsp_spi_flash.h到自己的工程目录

    2.5K10

    02.改善深层神经网络:超参数调试、正则化以及优化 W3. 超参数调试、Batch Norm和程序框架

    归一化网络的激活函数 5. 将 Batch Norm 拟合进神经网络 6. Batch Norm 为什么奏效 7. 测试时的 Batch Norm 8. Softmax 回归 9....归一化网络的激活函数 Batch归一化 会使你的参数搜索问题变得很容易,使神经网络对超参数的选择更加稳定,超参数的范围会更加庞大,工作效果也很好,也会使你的训练更加容易 image.png 5....它减弱了前层参数的作用与后层参数的作用之间的联系,它使得网络每层都可以自己学习,稍稍独立于其它层,这有助于加速整个网络的学习 BN 有轻微的正则化效果,因为它在 mini-batch 上计算的均值和方差是有小的噪声...Caffe2 CNTK DL4J Keras Lasagne mxnet Paddlepaddle TensorFlow Theano Torch 选择标准: 便于编程,包括神经网络的开发和迭代...,还包括为产品进行配置,为巨大的用户的实际使用考虑 运行速度,特别是训练大数据集时,一些框架能让你更高效地运行和训练神经网络 框架是否真的开放,不仅需要开源,而且需要良好的管理。

    31320

    美团即时物流的分布式系统架构设计

    w=1344&h=646&f=png&s=182356] 本文主要介绍在美团即时物流分布式系统架构逐层演变的进展中,遇到的技术障碍和挑战: 订单、骑手规模大,供需匹配过程的超大规模计算问题。...w=958&h=646&f=png&s=92516] 上图是比较典型的美团技术体系下的分布式系统结构:依托了美团公共组件和服务,完成了分区扩容、容灾和监控的能力。...w=1174&h=630&f=png&s=167854] 智能物流的核心技术能力和平台沉淀 机器学习平台,是一站式线下到线上的模型训练和算法应用平台。...其次,网状结构的服务集群,任何轻微的延迟,都可能导致的网络放大效应。另外复杂的服务拓扑,如何做到故障的快速定位和处理,这也是AIOps需要重点解决的难题。...w=1875&h=835&f=png&s=142461]

    1.4K20

    干货 | Github标星近3w,热榜第一,如何用Python实现所有算法和一些神经网络模型

    标星已经达到2.7W 给出Github地址☟ https://github.com/TheAlgorithms/Python 这个项目主要包括两部分内容:一是各种算法的基本原理讲解,二是各种算法的代码实现...例如在神经网络部分,给出了BP神经网络、卷积神经网络、全卷积神经网络以及感知机等。 卷积神经网络代码示例 代码以Python文件格式保存在Github上,需要的同学可以自行保存下载。...不同的地方在于从低到高然后从高到低,而冒泡排序则仅从低到高去比较序列里的每个元素。他可以得到比冒泡排序稍微好一点的性能,原因是冒泡排序只从一个方向进行比对(由低到高),每次循环只移动一个项目。...它将其输入划分为已排序和未排序的区域,并通过提取最大元素,将其移动到已排序区域来迭代缩小未排序区域。 译者注: Heap 始于 J._W._J....这样的列表叫做h排序。等效地,可以被认为是h交错列表,每个元素都是单独排序的。 拓扑 拓扑排序或有向图的拓扑排序是其顶点的线性排序,使得对于从顶点u到顶点v的每个有向边uv,u在排序中位于v之前。

    1.1K30

    LoRA 笔记 - plus studio

    然而,这两种策略都有其局限性,尤其是在大规模和延迟敏感的生产场景中。 ### 添加适配器层(引入推理延迟) 适配层(Adapter) 实际上就是在原本的架构上添加一些层,让他学到新的东西。...LoRA到底怎么工作 神经网络包含许多执行矩阵乘法的密集层。这些层中的权重矩阵通常具有满秩。...对于预训练的权重矩阵 \(W_0 ∈ R^{d×k}\),我们通过使用低秩分解 \(W_0 + ΔW = W_0 + BA\) 表示后者来约束其更新,其中 \(B ∈ R^{d×r} , A ∈ R^{...注意 \(W_0\) 和 \(ΔW = BA\) 都乘以相同的输入,它们各自的输出向量按坐标求和。...对于 \(h = W_0x\),我们修改后的前向传递产生:\[h=W_0x+\Delta Wx=W_0x+BAx\] 参数初始化时,我们对 A 使用随机高斯初始化,B 使用零,因此 ΔW = BA 在训练开始时为零

    21910

    CVPR2023最新Backbone |FasterNet远超ShuffleNet、MobileNet、MobileViT等模型

    尽管其令人印象深刻的性能为许多应用程序提供了动力,但一个巨大的趋势是追求具有低延迟和高吞吐量的快速神经网络,以获得良好的用户体验、即时响应和安全原因等。 如何快速?...虽然有许多减少FLOPs的尝试,但都很少考虑同时优化FLOPs以实现真正的低延迟。为了更好地理解这种情况,作者比较了Intel CPU上典型神经网络的FLOPS。...对于输入 I∈R^{c×h×w} ,DWConv应用 c 个滤波器 w∈R^{k×k} 来计算输出 O∈R^{c×h×w} 。...与具有 h×w×k^2×c^2 的FLOPs常规Conv相比,这种深度计算使得DWConv仅仅具有 h×w×k^2×c 的FLOPs。...对于相同的输入 I∈R^{c×h×w} 和输出 O∈R^{c×h×w} ,T形Conv的FLOPs可以计算为: 它高于PConv和PWConv的流量,即: 其中 c>c_P 和 c−c_p>c_p

    2K20
    领券