腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(3364)
视频
沙龙
1
回答
BigQuery
存储
应用
编程
接口
:
从
Spark
Pandas
UDF
使用
客户端
的
最佳
实践
?
、
、
我有一个
spark
脚本,需要为每一行进行60个api调用。目前,我
使用
BigQuery
作为数据仓库。我想知道是否有一种方法可以
使用
BigQuery
API或
BigQuery
Storage API
从
我
的
udf
中查询数据库?也许是一种执行批量查询
的
方法?
pandas
-gbq会是一个更好
的
解决方案吗?我每行需要进行
的
每个查询都是一个select count(*) fr
浏览 9
提问于2019-12-12
得票数 1
1
回答
通过
Spark
使用
BigQuery
存储
应用
编程
接口
:请求多个分区,但仅获得1个分区
、
、
我
使用
bigquery
-
spark
-connector来读取
使用
BigQuery
存储
API
的
BigQuer。我
的
脚本(自动)
从
BigQuery
存储
应用
程序
接口
请求多个分区,但我收到警告: WARN com.google.cloud.
spark
.
bigquery
.direct.DirectBigQueryRelation:请求了%
浏览 3
提问于2019-11-08
得票数 2
1
回答
在Dataproc上
使用
Spark
Bigquery
连接器,数据似乎延迟了一个小时
、
、
、
我
使用
运行在Dataproc上
的
Spark
2.4,每15分钟运行一次批处理作业,
从
bq表中获取一些数据,将其聚合(sum),并通过pyspark.sql将其
存储
在另一个bq表中(覆盖)。如果我查询
spark
中
的
表,看起来数据大约落后了一个小时。或者更确切地说,它在大约一个小时之前就被切断了。如果我在
Spark
中查询
的
表上
使用
完全相同
的
查询,而不是在BQ web控制台中,所有数据都在那里并且是最新<e
浏览 6
提问于2020-11-26
得票数 0
1
回答
如何在PyCharm中读取
pandas
数据帧中
的
BigQuery
数据
、
、
、
我正在python-flask API中实现一个新
的
端点,它应该
从
BigQuery
获取数据并将其发送到CloudSQL(mysql)。为此,我假设首先需要建立到
BigQuery
的
连接。然而,我是云服务
的
新手,我需要帮助...提前感谢!
浏览 20
提问于2021-10-22
得票数 0
1
回答
将Google访问令牌
从
客户端
传递到服务器
、
、
我有一个集成了Google服务
的
应用
程序(具体地说是Google
Bigquery
API )。目前,我正在将访问令牌传递到服务器端(通过https),在服务器端
使用
该令牌初始化Google库,并在那里执行操作。我在Google上找到
的
关于这方面的文档要么是在服务器端
使用
浏览 6
提问于2019-04-16
得票数 2
1
回答
BigQuery
存储
应用
编程
接口
并行运行流
、
、
我正在尝试
使用
BigQuery
存储
API获取一个巨大
的
BigQuery
表。目前,我
使用
一个流顺序获取数据。该程序将在
使用
数十个虚拟CPU
的
服务器上运行,因此我希望并行化表
的
获取以获得性能。我
使用
的
bq
存储
版本是google.cloud.
bigquery
.storage.v1,我在中看到,为了并行计算多个流,可以指定一个分片策略为BALANCED,但它看起来在v1中
浏览 0
提问于2021-06-15
得票数 0
1
回答
android/ios后台如何
存储
镜像
、
、
、
、
我正在尝试为我
的
虚拟移动
应用
程序实现一个
应用
程序
接口
,我正在
使用
MySQL和Laravel 5来实现它。我想
存储
用户
从
移动
客户端
发布
的
图像。我想知道,
存储
这些图像
的
最佳
实践
是什么。
浏览 0
提问于2017-05-30
得票数 0
2
回答
将函数
应用
于
Spark
DataFrame中
的
所有单元格
、
、
、
、
我正在尝试将一些
Pandas
代码转换为
Spark
以进行缩放。myfunc是一个复杂
应用
程序
接口
的
包装器,它接受一个字符串并返回一个新
的
字符串(这意味着我不能
使用
矢量化函数)。return ds myfunc获取一个DataSeries,将其拆分成多个单元格,为每个单元格调用API,然后
使用
相同
的
列名构建一个新
的
这将有效地
浏览 2
提问于2019-02-02
得票数 1
回答已采纳
3
回答
从
Java中
的
另一个
应用
程序部署Apache
Spark
应用
程序,
最佳
实践
、
、
、
、
我是
Spark
的
新用户。我有一个web服务,它允许用户通过从数据库读取并将结果推回到数据库来请求服务器执行复杂
的
数据分析。我已经将这些分析转移到了各种
Spark
应用
程序中。目前我
使用
spark
-submit来部署这些
应用
程序。 然而,我很好奇,当我
的
web服务器(用Java编写)收到用户请求时,什么被认为是启动相应
Spark
应用
程序
的
“
最佳
实践
”
浏览 6
提问于2015-03-26
得票数 5
3
回答
以高效
的
方式
从
BigQuery
读取到
Spark
?
、
、
、
当
使用
从
BigQuery
读取数据时,我发现它首先将所有数据复制到Google Cloud Storage。然后将这些数据并行读取到
Spark
中,但当读取大表时,复制数据阶段需要很长时间。那么有没有更有效
的
方法将数据
从
BigQuery
读取到
Spark
中呢? 另一个问题:
从
BigQuery
阅读由2个阶段组成(复制到GCS,
从
GCS并行阅读)。复制阶段是否受
Spark
簇大小
的</
浏览 6
提问于2017-01-04
得票数 7
回答已采纳
1
回答
如何
使用
AWS KMS加密
Pandas
/
Spark
dataframe中
的
列
、
、
、
我想要加密我
的
Pandas
(或py/
spark
)数据帧中一列中
的
值,例如,获取以下数据帧中
的
列mobno,对其进行加密并将结果放入encrypted_value列中: ? 我要
使用
AWS KMS加密密钥。我
的
问题是:实现这一目标最优雅
的
方式是什么? 我正在考虑
使用
UDF
,它将调用boto3
的
KMS
客户端
。类似于: @
udf
def encrypt
浏览 11
提问于2019-06-03
得票数 5
1
回答
如何
使用
BigQuery
API v0.27指定数据集位置?
、
我正在尝试弄清楚如何
使用
BigQuery
应用
程序
接口
的
0.27版在
BigQuery
应用
程序
接口
查询中指定数据集位置。我有一个位于northamerica-northeast1
的
数据集,
BigQuery
应用
程序
接口
返回404错误,因为这不是默认
的
多区域位置“US”。_params['bq_data_location'] return clie
浏览 17
提问于2021-09-08
得票数 0
回答已采纳
3
回答
谷歌云数据
存储
和谷歌
BigQuery
哪个更适合分析查询?
、
、
、
、
目前,我们正在将从供应商API检索到
的
数据上传到Google Datastore。想知道什么是数据
存储
和查询数据
的
最佳
方法。 我将需要查询数百万行
的
数据,并将从数据中提取自定义工程功能。因此,我想知道是应该直接将数据加载到
BigQuery
中并对其进行查询以加快处理速度,还是应该将其
存储
在数据
存储
中,然后将其移动到
BigQuery
中进行查询?我将
使用
pandas
对
存储
的</e
浏览 0
提问于2017-07-12
得票数 0
1
回答
使用
我
的
最终用户凭据创建
BigQuery
广告字传输
我试图
从
python SDK创建google ads,但我遇到了一个奇怪
的
问题。要在
BigQuery
中创建转账,您
的
GCP帐户应具有
BigQuery
管理员角色,并且还应具有对AdWords帐户
的
读取权限。起初,我们手动创建传输,但现在我们必须
使用
pythons google-cloud-
bigquery
-datatransfer包来实现它。是否有办法
使用
最终用户凭据
从
代码创建BQ传输,或者是否有办法为最终用户帐户创建
浏览 57
提问于2020-09-08
得票数 0
2
回答
用于NRT数据
应用
的
Google
、
、
、
、
我正在评估Kafka/
Spark
/HDFS,用于开发NRT (子秒级) java
应用
程序,该
应用
程序接收来自外部网关
的
数据,并将其发布到桌面/移动
客户端
(
使用
者),用于各种主题。同时,数据将通过用于分析和ML
的
流和批处理(持久)管道提供。 独立
的
TCP
客户端
从
外部TCP服务器读取流数据。Kafka、
Spark
和HDFS可以通过亚马逊EC2 (或
浏览 2
提问于2016-02-16
得票数 0
1
回答
使用
CLI
从
项目/组织
的
所有角色中删除特定IAM用户
如何
从
项目或组织中递归删除所有角色中
的
特定用户?
浏览 15
提问于2019-09-11
得票数 1
1
回答
如何自动分配已保存实体
的
id?
、
假设我有一个实体
的
以下结构,我试图
使用
客户端
应用
编程
接口
将其保存在RavenDB v2.0文档
存储
中。string Name { get; set; } } 如果我要创建10-20个实例,并且我想分别保存每个实体
的
实体我在站点上
的
文档中看到
的
是,您可以在调用session.SaveChanges()方法之后检索实体
浏览 0
提问于2013-03-14
得票数 1
2
回答
Apache
Spark
--将
UDF
的
结果赋给多个dataframe列
、
、
、
、
我
使用
pyspark,
使用
spark
-csv将一个大型csv文件加载到dataframe中,作为预处理步骤,我需要对其中一列(包含json字符串)中
的
可用数据
应用
各种操作。这将返回X个值,每个值都需要
存储
在各自单独
的
列中。(...) from pyspark.sql.functions i
浏览 2
提问于2016-02-11
得票数 57
回答已采纳
2
回答
对API
编程
和对
接口
进行
编程
、
、
、
通常建议“对
接口
编程
,而不是对实现进行
编程
”。它有助于促进关注点
的
分离,并有助于单元测试。然而,我考虑
的
是API
编程
。 假设我编写了一个API,该API
使用
了大量
的
“
接口
编程
”。我们还可以说,API非常受欢迎,许多外部
客户端
都在
使用
它。如果API中
的
某个
接口
必须更改,则需要
使用
该API
的
应用
程
浏览 3
提问于2011-06-16
得票数 1
回答已采纳
1
回答
google-cloud-datastore java client:有没有一种方法可以推断模式和/或以Json
的
形式检索结果?
、
、
我正在为apache-
spark
的
数据
存储
数据源工作,基于
spark
数据源V2
应用
编程
接口
。我可以
使用
硬编码
的
单个实体来实现,但是不能泛化它。我需要推断实体模式并将实体记录转换为
Spark
Row,或者将实体记录读取为json并让用户转换为scala产品(数据
存储
java
客户端
是基于REST
的
,因此有效负载是作为json提取
的
)。我可以在Inte
浏览 36
提问于2018-10-18
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券