首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Google Earth Engine ——数据全解析专辑(CSPERGo1_0GlobalALOS_CHILI)日照和地形阴影对蒸散的影响数据集

它基于 JAXA 的 ALOS DEM(在 EE 中作为 JAXA/ALOS/AW3D30_V1_1 可用)的 30m“AVE”频段。...保护科学合作伙伴 (CSP) 生态相关地貌学 (ERGo) 数据集、地貌和地貌包含有关地貌和地貌(又名土地面)模式的详细的多尺度数据。...尽管这些数据有许多潜在用途,但这些数据的最初目的是开发适合气候适应规划的地貌和地貌类别的生态相关分类和地图。...景观的这些特征的量化对分辨率很敏感,因此在给定指数的范围和特征的情况下,我们提供可能的最高分辨率。...This was rescaled from the [0,1] range in the publication. 0 255 数据引用: Theobald, D.

10710
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Google Earth Engine ——地表水的位置和时间分布30米分辨率(JRCGSW1_0GlobalSurfaceWater)数据集

    该数据集包含1984年至2015年地表水的位置和时间分布图,并提供这些水面的范围和变化的统计数据。更多信息见相关期刊文章。全球地表水及其长期变化的高分辨率地图(自然,2016)和在线数据用户指南。...这些数据是使用1984年3月16日至2015年10月10日期间获取的Landsat 5、7和8的3,066,102个场景生成的。...使用专家系统将每个像素单独分类为水/非水,并将结果整理为整个时间段的月度历史和两个纪元(1984-1999年,2000-2015年),用于变化检测。 该测绘层产品由1张包含7个波段的图像组成。...它描绘了过去32年中地表水的空间和时间分布的不同方面。从未检测到水的区域被掩盖了。...max_extent Bitmask Bit 0: Flag indicating if water was detected or not 0: Not water1: Water

    16010

    46FPS+1080Px2超分+手机NPU,arm提出一种基于重参数化思想的超高效图像超分方案

    该本文的思想非常简单,就是简单的把重参数化思想嵌入到类FSRCNN架构中即可;但这种方法就是这么的有效,推理端无损涨点吧。...六个基准数据上的实验对比表明:所提SESR可以取得与SOTA模型相似或更好的图像质量同时仅需1/330~1/2不等的计算复杂度。...Experiments 为说明所提方法的有效性,我们首先在六个基准数据集上进行了定量与定性分析;然后进行消融实验分析SESR不同优化方案的影响性分析;最后我们模拟硬件性能进行1080p图像的x2和x4...我们将超分方案划分为三档: Small:参数量不高于25K; Medium:参数量介于25K与100K之间; Large:参数量大于100K。 很明显,SESR在三档模型中均处于领先地位。...,同时仅需1/22.5的计算量; 同时需要注意到:SESR-M11与VDSR性能相当,而计算量仅为VDSR的1/330; 总而言之,在x2超分方面,SESR-M11取得了VDSR级的性能而计算量仅为FSRCNN

    1.2K30

    不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

    句子由仅为整数的端点构成,因此可以被视为语言模型的 token ID;再使用未被使用的整数 0(可有效对应于自然语言中的句号)将句子连接起来。...然后,计算可压缩率的中值和标准差,确认有更高句法复杂度的语法会得到更难压缩的数据集。 表 1 列出了每个语法的句法参数和测得的压缩率。...可以观察到,随着非端点(语法类别)、端点(token)、右侧选项和右侧长度的增长,gzip 压缩率也会增长,即变得更难压缩。 图 1 绘出了这些数据集以及自然语言和代码数据的情况。...为了确定数据集的 Scaling law,该研究者在不同大小的数据子集(100K、1M、5M、20M、50M、100M token)上训练了几个不同大小(参数量为 4.2M、8.8M、20.3M、59.0M...为了根据数据集的可压缩率预测 Scaling law 参数,可在每个数据集的拟合 Scaling law 参数上进行简单的线性回归拟合。

    17110

    Meta一口气开源了4个模型和1个数据集和1个评估方法:包括对标GPT4o的多模态模型,多词预测模型,音乐生成模型,音频水印等

    为了解决这些问题,研究团队推出了PRISM,一个新颖的数据集,包含了来自75个国家的1500名多样化参与者的社会人口统计信息和陈述的偏好,并将其与他们在8011次与21个LLM的实时对话中的上下文偏好和细化反馈进行了关联...PRISM的主要贡献包括:(i) 在人类反馈数据中实现广泛的地理和人口参与;(ii) 提供两个具有代表性的普查样本(英国和美国),以便更好地理解集体福祉;(iii) 提供个性化反馈,每个评分都与详细的参与者档案相关联...研究团队引入了三个指标,用于评估这些系统在生成来自世界各地的对象时的写实性、多样性和提示生成一致性。...研究团队使用这些指标分析了最先进的视觉内容创作系统中的潜在地理偏见,发现以下几点: 在生成非洲和西亚的对象时,模型的写实性和多样性低于生成欧洲对象时的表现。...使用地理信息进行提示会影响提示生成的一致性和生成图像的多样性。 模型在某些对象的区域级别差异比其他对象更明显。

    17110

    将LLaMA2上下文扩展至100k,MIT、港中文有了LongLoRA方法

    为使 LongLoRA 实用,研究者收集了一个数据集 LongQA,用于监督微调。该数据集包含超过 3k 个长上下文问题 - 答案对。...并将在下个月发布数据集。...研究者使用 AdamW,其中 β_1 = 0.9,β_2 = 0.95。7B 和 13B 模型的学习率设定为 2 × 10^−5,70B 模型的学习率设定为 10^−5。 他们还使用了线性学习率预热。...研究者使用 Redpajama 数据集进行训练,并构建了一个长上下文 QA 数据集 LongQA,用于监督微调。Redpajama 微调的模型呈现了良好的困惑度,但它们的聊天能力是有限的。...下表 8 展示了在 PG19 验证集上扩展到 8192 上下文长度时, LLaMA2 7B 模型的复杂度与微调步骤之间的关系。可以发现,如果不进行微调,在第 0 步时,模型的长上下文能力有限。

    64140

    Towards Precise Supervision of Feature Super-Resolution

    (ResNet-50, ResNet-101,和MobileNet)在三个基准数据集上的清华-腾讯100K, PASCAL VOC和MS COCO。...它提供了一个真实世界中的交通标志数据集,其中目标对象的大小与图像大小相比非常小(2048×2048)。数据集有6K个训练图像和3K个测试图像。...由于小目标占主导地位,清华-腾讯100K是验证小目标检测性能的最佳基准之一。评价措施:遵循[38]协议,我们对182个类中包含100多个实例的45个类进行评估。...表1总结了在TsinghuaTencent 100K测试数据集上的性能。我们将输入图像的大小从2048调整到1600,以使学习和推断更快,就像在[23]中一样。...考虑到大约14%的目标在32×32和40×40之间,这可能是一个合理的原因来解释中等子集的性能提升。和最先进的方法的比较:表2显示,我们提出的模型在清华-腾讯100K数据集上实现了最新的性能。

    1.3K00

    快速入门Python机器学习(二)

    快速入门Python机器学习(二) 二、常用数据 1 使用函数生成数据 1.1 生成一个随机回归问题 X,y = make_regression() ln_samples:样本数。...ln_repeated=0:重复信息,随机提取n_informative和n_redundant 特征。 ln_classes:分类类别。...较大的值分散了簇/类,并使分类任务更容易。 lhypercube:如果为真,则聚类被放置在超立方体的顶点上。如果为False,则簇被放置在随机多面体的顶点上。。 lshift:按指定值移动要素。...如果没有,则按照[-class_sep,class_sep]中绘制的随机值移动要素。 lscale:将要素乘以指定的值。如果没有,则按[1,100]中绘制的随机值缩放要素。...个分别是onehot4维和onehot40维),以及target表示植被类型1-7,所有属性值均为number,详情可调用fetch_covtype()['DESCR']了解每个属性的具体含义 fetch_rcv1

    56731

    K近邻分类

    KNN算法的三要素 三个要素分别是: K值的选取 分类决策规则(多数投票法) 距离度量的方式,一般有欧氏距离,曼哈顿距离,闵可夫斯基距离等 K值的选取 在上图中,紫色虚线是贝叶斯决策边界线,也是最理想的分类边界...,仅为O(n) 4) 和朴素贝叶斯之类的算法比,对数据没有假设,准确度高,对异常点不敏感 5) 由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说...,KNN方法较其他方法更为适合 6)该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分 KNN的主要缺点有: 1)计算量大,尤其是特征数非常多的时候 2..._y_train = None def fit(self, X_train, y_train): """根据训练数据集X_train和y_train训练kNN分类器"""..._y_train = y_train return self def predict(self, X_predict): """给定待预测数据集X_predict

    92610

    ArcGIS空间分析笔记(汤国安)

    关系表 要素类 3.要 素数据集 要素类 简单要素类:存放在要素数据集中,使用要素数据集的坐标,不需要重新定义空间参考。...独立要素类:存放在数据库中的要素数据集之外,必须定义空间参考坐标。 创建要素类的过程中,M值是一个线性参考值,代表一个有特殊意义的点,要素的坐标都是以M为基准标识的。...规则条样插值时,权重越高表面越光滑,通常用到的典型值有0、0. 001、0. 01、1和5 张力条样插值时,权重越高,表面越粗糙,通常用到的典型值有0、1、5和10。...一阶多项式趋势面插值法生成的表面几乎不能穿过各原始数据点,因为对整个表面执行的是最佳拟合 如果所用多项式的阶数高于- -阶,插值器所生成栅格的最大值和最小值可能会超过输人要素数据输人文件中的最小值和最大值...生成的两种z值可分别编码为1和0 逻辑型选项可根据值为0和1的各像元值创建连续的概率格网。

    3.4K20

    【AIGC篇】AIGC 引擎:点燃创作自动化的未来之火

    然而,AIGC 的出现打破了这种传统的创作模式。它基于深度学习和神经网络等先进技术,能够自动分析海量的数据,学习各种风格和模式,并生成具有高度原创性的内容。...它通常会使用大量的数据进行训练,比如在图像生成中,会使用数以百万计的图像数据集,让模型学习不同物体的形状、颜色、纹理等特征。以生成对抗网络(GAN)为例,它包含了生成器和判别器两个部分。...} 代码解释: 1·LinearLayer 类:表示一个简单的线性层,包含权重和偏置,通过 forward 方法进行前向传播计算。...2·Generator 类:包含两个线性层,generate 方法用于生成随机噪声并通过线性层生成输出。...3·Discriminator 类:包含两个线性层,forward 方法用于判断输入数据是否为真实数据。

    9010

    背诵不等于理解,深度解析大模型背后的知识储存与提取

    为了证实这一点,两位作者创建了一个包含 100k 个人物传记的数据集,每个人物有一个传记条目,包含人名和六个固定属性:出生日期,出生地,大学专业,大学名称,工作地点,工作单位。...他们设计了 BioS 和 BioR 两种数据集,BioS 的每个句子选自 50 种固定模板,BioR 则用 LLaMA-30B 进行改写,更逼真,多样性更大。...为了研究这一问题,两位作者对预训练集进行改动 —— 作者称之为知识增强: 1、多样性 - multiM:为每个人创建 M 个传记条目,使用不同的叙述语言但保留相同的信息(每句话一共有 100 种叙述方法...对于人和大模型,记住 bioS single 和 bioS multi5+permute 两个数据集的难度几乎相同(它们信息量相同,并且每句话都是选自 50 个模板)。...图 5:P 探针试验结果显示,预训练数据集的知识增强使知识被存在更早的位置,部分甚至直接存储在人名上。模型是否能通过微调回答问题,与预训练时是否将信息直接存储在人名上有关(对比图 3 和图 5)。

    2K20

    时序论文18|ICML24 :复旦&微软团队提出基于脉冲网络的时序预测新思路

    该研究不仅为SNN领域的进一步发展做出了贡献,而且为时间序列预测任务提供了一种充满希望的替代方案。...脉冲网络应用到时序难点: 将脉冲神经网络直接应用到时间序列领域面临的难点:1)连续时间序列数据与SNNs离散脉冲周期之间的有效时间同步,这需要对编码机制进行精确的设计;2)SNNs中脉冲值的离散性与时间序列数据的浮点数特性之间存在显著差异...3)缺乏标准化的模型选择指南,必须对SNN的架构及其参数进行全面的探索,以便为各种时间序列数据集的特定特征量身定制解决方案。...本文模型 模型框架 如图是作者为时间序列预测构建的SNN框架概览:给定一个输入时间序列样本 ={1,2,...,},首先,使用脉冲编码器从原始数据中每 Δ时间步生成具有 个脉冲时间步的脉冲序列。...每个SNN时间步长的脉冲是通过将数据与不同的卷积核心配对生成的。

    47510

    提升精度 | 新的小样本学习算法提升物体识别精度(附论文地址)

    之前的基于度量学习的小样本学习算法通常是利用一个特征提取网络将支持集图像和查询集图像映射到一个特征空间,然后再设计或选择一种距离度量方式,来描述支持集图像和查询集图像之间的相似程度,并以此进行类别预测。...1. 简要 事实证明,深度学习在大量标记数据的学习中是非常有效的。很少有shot learning,相反,试图学习只有少数标签数据。...为了生成EMD公式中元素的重要权重,还设计了一种交叉引用机制,它可以有效地缓解背景杂乱和类内外观变化大所造成的不利影响。...s_i|i=1,…,m},S={si∣i=1,…,m}和一系列的目的地mathcal{D}={d_j|j=1,…,k},D={dj∣j=1,…,k},si和dj分别表示货源地ii的货物供应量和目的地jj...但如果是每两个图块之间都逐一比对的话,这计算成本也过于高昂,于是作者就利用EMD方法,通过线性规划的方式寻找两幅图像各个图块之间的最佳匹配方式,并且为不同的位置的图块分配了不同的权重,类似于注意力机制,

    1.4K20

    《统计学习方法》读书笔记

    7.1 生成方法: ? 7.2 判别方法: ? 分类问题的评价指标:精确率(P)、召回率(R)、F1(P和R的调和均值:2/F = 1/P + 1/R)。...当训练数据集线性可分时,感知机学习算法存在无穷多个解,其解由于不同的初值或迭代顺序而可能有所不同。...k 近邻法三要素:距离度量、k 值的选择和分类决策规则。k 值小时,k 近邻模型更复杂,反之亦然。k 值常采用交叉验证的方法确定,而分类决策函数常采用多数表决。...---- 【第4章】 朴素贝叶斯法 朴素贝叶斯法通过训练数据集学习联合概率分布P(X,Y),具体做法是学习先验概率分布P(Y)与条件概率分布P(X|Y)(二者相乘就是联合概率分布),所以它属于生成模型。...在分类学习中,提升方法通过反复修改训练数据集的权值分布,构建一系列基本分类器(弱分类器),并将这些基本分类器线性组合,构成一个强分类器。代表性的提升方法是 AdaBoost 算法。

    1.5K10

    安全帽人脸联动闸机开关算法

    安全帽人脸联动闸机开关算法中YOLO5的结构非常简单,就是单纯的卷积、池化最后加了两层全连接,从网络结构上看,与前面介绍的CNN分类网络没有本质的区别,最大的差异是安全帽人脸联动闸机开关算法输出层用线性函数做激活函数...近年来,因不佩戴安全帽、不规范佩戴安全帽等原因导致的安全生产事故屡禁不止,事故发生背后的影响是巨大的,不仅为家人带来巨大的伤痛,也为企业的利益带来巨大的损失。...安全帽人脸联动闸机开关算法数据集说明(1)佩戴安全帽数据集目前收集了2W+的佩戴安全帽数据集:Helmet-Asian亚洲人佩戴安全帽数据集:总共有19000+图片,VOC的XML数据格式,可直接用于目标检测模型训练...,参考工具:labelme/labelme2voc.py at main · wkentaro/labelme · GitHub生成训练集train.txt和验证集val.txt文件列表修改engine.../configs/voc_local.yaml的train和val的数据路径重新开始训练

    23400

    【深度学习基础】线性神经网络 | 线性回归的简洁实现

    它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。...在【深度学习基础】线性神经网络 | 线性回归的从零开始实现 中,我们只运用了:(1)通过张量来进行数据存储和线性代数;(2)通过自动微分来计算梯度。...一、生成数据集   与【深度学习基础】线性神经网络 | 线性回归的从零开始实现 中类似,我们首先生成数据集。...回顾一下:在每个迭代周期里,我们将完整遍历一次数据集(train_data),不停地从中获取一个小批量的输入和相应的标签。..., loss {l:f}')   下面我们比较生成数据集的真实参数和通过有限数据训练获得的模型参数。

    13810
    领券