腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
使用
MapReduce
应用编程接口映
射到
云
存储
之前
,
如何
过滤
数据
存储
数据
?
、
、
关于代码实验室,我们
如何
过滤
mapreduce
作业中的
数据
存储
数据
,而不是获取特定实体类型的所有对象?在下面的映射器管道定义中,唯一的一个输入读取器参数是要处理的实体类型,我
在
InputReader类中看不到其他类型为filter的参数可以提供帮助。", output_writer_spec="
mapr
浏览 2
提问于2012-08-07
得票数 1
回答已采纳
2
回答
云
API
访问范围
、
我
在
google
云
平台上创建了一个项目,有一个主和两个奴隶(工人)来测试
mapreduce
和spark!启用Bigtable管理表仅允许Bigtable
数据
读写
云
数据
存储
禁用
云
数据
源
存储
禁用Cloud禁用服务控制禁用服务管理禁用Stackdriver只写禁用<em
浏览 3
提问于2017-05-23
得票数 1
2
回答
如何
通过谷歌
云
存储
文件
mapreduce
?
、
在
应用引擎
mapreduce
控制台(myappid.apppot.com/
mapreduce
/status)中,我有一个用input_reader:
mapreduce
.input_readers.BlobstoreLineInputReader定义的
mapreduce
,我已经成功地将它与常规的blobstore文件一起
使用
,但它不能与
使用
create_gs_key的
云
存储
创建的Blobkey一起
使用<
浏览 2
提问于2012-07-29
得票数 1
回答已采纳
1
回答
MapReduce
:
使用
过滤
器从hbase检索
数据
,整数/字符串比较
、
、
、
、
我想为我的
mapreduce
作业从hbase检索
数据
,但我想在此
之前
对其进行
过滤
。我只想检索
数据
,其中包含一个id大于或等于minId的列。当
存储
浏览 1
提问于2012-03-20
得票数 0
2
回答
GCP Firestore
API
不适用于
云
数据
存储
区项目
、
我尝试
使用
GCP文件
存储
,按照产品网站上的简单快速示例操作,得到一个错误:"google.
api
_core.exceptions.FailedPrecondition: 400
云
Firestore
API
不可用于
云
数据
存储
项目。“ 我
之前
确实在同一个项目中
使用
了
数据
存储
,然后我
在
项目中禁用了
数据
存储
api</e
浏览 29
提问于2019-09-19
得票数 5
2
回答
从google appengine
数据
存储
迁移到google cloud bigtable的最佳方式是什么?
、
、
、
我有一个appengine
数据
存储
,我想迁移到google cloud bigtable。做到这一点的最好方法是什么? 谢谢你的回答,亚尼斯
浏览 1
提问于2015-05-06
得票数 3
1
回答
如何
清理从csv文件读取的
数据
之前
,流插入到bigquery表?
我
在
云
存储
存储
桶中有一个csv文件(分隔符|而不是,),它的
数据
格式是10022019作为日期,但是我需要在bigquery中将其转换为可接受的日期格式2019-02-10,我可以通过一个可以
在
将
数据
流式插入bigquery表
之前
同时读取和转换
数据
的函数来实现吗?
浏览 11
提问于2020-02-05
得票数 0
2
回答
建议的处理google cloud sql的方法
、
我需要运行的任务是处理我的google
云
sql中的所有
数据
,并将文件从blobstore复制到google
云
存储
。我正在考虑
使用
任务队列,但它有10分钟的时间限制,但我的任务必须比这更长。我不确定是否可以
使用
mapreduce
,因为我不需要并行运行,而且我还没有找到任何
mapreduce
对
云
sql的支持。那么,
在
应用程序引擎上进行这种
数据
处理的建议方法是什么,尤其是对于
云
sql?
浏览 0
提问于2014-02-23
得票数 0
4
回答
如果发生超时,回调到
云
函数/
云
运行?
、
、
、
、
我有一些
云
运行和
云
函数,用于解析用户上传的大量文件。我有一个对应于
数据
库条目的加载图标,它显示了处理上传的每一批文件的进度,因此如果函数当前超时,加载图标将永久地卡住该批文件,因为
在
函数终止后
数据
库不会更新。有没有办法为Cloud Run/Functions创建一个回调函数,以更新
数据
库,并指出如果Cloud Run/Functions超时,解析过程将失败?如果文件批次太大而无法处理,我目前无法预先知道,而且很明显,我不能在这里
使用
简单的try
浏览 47
提问于2021-05-09
得票数 0
1
回答
如何
在hadoop
mapreduce
中
过滤
任意柱状镶嵌地板
、
、
我将
数据
存储
在
hdfs中,格式为parquet。我编写了mapred以成功运行此
数据
,并且我希望
过滤
map中的任何列输入,
如何
在hadoop
mapreduce
中
过滤
任意柱面实木地板
浏览 1
提问于2014-12-09
得票数 0
2
回答
Apache与Hadoop方法有什么不同?
、
每个人都说Spark正在
使用
内存,正因为如此,它比Hadoop快得多。 Spark将
数据
存储
在内存中而Hadoop却不
存储
在哪里?如果
数据
对内存来说太大,会发生什么情况?在这种情况下,它和Hadoop有多相似?
浏览 5
提问于2015-08-16
得票数 5
回答已采纳
1
回答
在
ASP.net站点内托管silverlight web应用程序接口(odatacontroller)
、
、
WCF
数据
服务没有提供我需要的功能,所以我需要
使用
ASP.NET web
api
来代替。谢谢! 伊兰。
浏览 1
提问于2013-05-22
得票数 0
回答已采纳
1
回答
使用
Python将twitter
数据
直接发送到Google Cloud
数据
存储
、
、
、
如何
将
数据
从Twitter直接发送到Google Cloud
数据
存储
。我想跳过首先下载到我的本地机器,然后上传到
云
上的步骤。它只运行一次。不是寻找完整的代码,而是任何有人可能从中学到的指针或教程。
使用
python与google进行交互-云和
存储
。 任何帮助都将不胜感激。
浏览 0
提问于2018-11-08
得票数 1
2
回答
查询注册表hbase
、
据我们所知,hadoop是用来批量处理
数据
的。如果我们想要根据hadoop
mapreduce
作业产生的结果进行一些趋势分析,那么最好的方法是什么。我们
如何
检索
mapreduce
结果以进行趋势分析。是否可以在这里
使用
hbase。如果是这样,hbase是否拥有对
存储
在
hbase中的
数据
进行
过滤
和聚合的所有功能? 谢谢MRK
浏览 3
提问于2012-02-17
得票数 0
1
回答
有没有办法
使用
配置单元访问
存储
在
hbase中的avro
数据
进行分析
、
、
、
、
我的Hbase表中包含序列化的avro (
使用
havrobase放入)和字符串
数据
。我知道Hive表可以映
射到
hdfs中
存储
的avro
数据
进行
数据
分析,但我想知道是否有人尝试将hive映
射到
包含avro
数据
的hbase表。基本上我需要能够查询
存储
在
Hbase中的avro和非avro
数据
,做一些分析,并将结果
存储
在
不同的hbase表中。我需要这样做的能力,作为一个批
浏览 3
提问于2014-02-22
得票数 0
1
回答
将
数据
从Campaign Manager传输到
云
存储
、
、
我的问题是
如何
设置我的
云
存储
存储
桶,以便从我的Campaign Manager帐户检索
数据
。我的目标是
在
Big query中处理Camapaign报表
数据
,将它们与其他
数据
源相结合。因此,
在
文档中,似乎可以
使用
Transfer Data实用程序,但我需要在
之前
将
数据
文件
存储
在
云
存储
桶中,然后才可以
使用<
浏览 0
提问于2019-07-01
得票数 1
1
回答
服务帐户执行批处理
数据
流作业
、
、
、
我需要
使用
服务帐户执行
数据
流作业,我遵循的是
在
同一平台中提供的一个非常简单和基本的示例字数。根据这一点,GCP需要拥有
数据
流工作者权限的服务帐户才能执行我的作业。
浏览 2
提问于2020-02-02
得票数 0
1
回答
使用
MapReduce
到BigQuery管道防止重复
、
我正在阅读Michael对这篇文章的回答,其中建议
使用
管道将
数据
从
数据
存储
移动到
云
存储
,再到大查询。 在我看来,我有两个选择。我可以
在
实体上放置一个标记,并在每个实体被处理时更新它,并在后续运行时
过滤
掉它-或者-我
浏览 0
提问于2012-06-13
得票数 0
4
回答
如何
将
数据
批量上载到应用程序引擎
数据
存储
?旧的方法行不通。
、
、
、
这应该是一个相当常见的要求,也是一个简单的过程:将
数据
批量上传到appengine。现在,大容量加载器方法似乎已被废弃,而仍然存在于文档中的旧链接会导致错误的页面。下面是一个例子 现在大容量装载
数据
的推荐方法是什么? 两个可行的替代方案似乎是: 1)
使用
remote_
api</
浏览 9
提问于2014-08-27
得票数 16
回答已采纳
1
回答
将大型
数据
存储
类型(1TB+)备份到谷歌
云
存储
、
、
、
是否有人成功地将大型
数据
存储
类型备份到
云
存储
?这是一个实验性的特性,因此
在
google端的支持相当粗略。 File "/base/data/home/apps/s~steprep-prod-hrd/prod-339.366560204640
浏览 2
提问于2013-04-11
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券