腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(1230)
视频
沙龙
1
回答
如
何用
python
将
云
函数
中
的
数据
帧
加
载到
BigQuery
分区表
中
、
、
我有以下模式和设置: job_config =
bigquery
.LoadJobConfig(schema = [
bigquery
.SchemaField("Timestamp", "TIMESTAMP"),
bigquery
.Sch
浏览 10
提问于2019-12-21
得票数 0
回答已采纳
1
回答
使用
python
处理来自
bigquery
的
大型
数据
集,将其加载回
bigquery
表
、
、
、
我在
bigquery
中有一个巨大
的
数据
集,有5000万行和57列。我想做很多过滤/转换/清理,而不是使用sql。我尝试使用dask/panda/
python
将
数据
加
载到
本地mac
的
dask
数据
帧
中
,进行转换,然后
将
数据
推送回
bigquery
,以便其他总线可以使用它。
将
数据
浏览 2
提问于2019-03-30
得票数 0
1
回答
在
Bigquery
中
插入对
分区表
的
查询
、
我有一些用hive编写
的
插入查询要在
Bigquery
中
迁移。例如:在
Bigquery
中
,分区仅支持YYYYMMDD格式。通过加载test.abc$20171125,我可以通过by命令行工具
将
数据
转储到
分区表
中
。 如何使用
Bigquery
中
的
DML语句实现相同<
浏览 2
提问于2017-12-19
得票数 0
回答已采纳
2
回答
从
云
存储中提取Tar.gz文件
、
、
我是谷歌
云
的
新手,需要在
云
存储中提取扩展名为"xxxx.tar.gz“
的
文件并加
载到
BiQuery(多个文件到多个表)。我在nodejs
中
尝试了
云
功能,使用了npm模块,比如"tar.gz“和"jaguar",两者都不起作用。 有人可以共享一些输入来使用其他语言(
如
python
或Go )来解压缩文件。my work:到目前为止,我使用nodejs
将
手动复制到目标桶
的</
浏览 4
提问于2018-09-20
得票数 0
1
回答
GCP -使用Google Cloud Function和
Python
将
数据
从REST API插入/加
载到
BigQuery
、
、
、
是否可以使用
云
函数
将带有json输出
的
rest api
中
的
数据
直接插入/流式传输到gcp
中
的
bigquery
?做了一些研究,但它总是要求放在GCS存储桶
中
,然后创建
云
函数
将
数据
加
载到
bigquery
。 提前谢谢。
浏览 19
提问于2020-06-25
得票数 1
2
回答
从Google Cloud
中
的
网站自动导入
数据
、
、
我正在尝试找到一种方法,使用这个链接自动更新一个大型查询表:我该如何提交一个脚本来导入
数据
并将这些
数据
提供给Big Query呢?
浏览 0
提问于2019-12-25
得票数 0
2
回答
如何从基于事件
的
云
函数
执行Google Data Fusion Pipeline
、
有没有办法从Cloud Function (最好是基于
python
)运行Google Data Fusion管道?gcloud
函数
浏览 3
提问于2019-07-23
得票数 1
1
回答
将
数据
提取和加载自动化到
BigQuery
、
、
、
、
我正在学习如何从GraphQL API中提取
数据
,并每天将其加
载到
BigQuery
表
中
。我是GCP
的
新手,并试图理解建立安全
数据
管道所需
的
设置。为了使常规
数据
提取和加载过程自动化,我
将
遵循以下步骤, 我首先使用
BigQuery
、
Python
库与熊猫和pyarrow创建了一个
云
函数
。我使用下面所示
的
方法
将
数据
加<
浏览 4
提问于2022-04-29
得票数 0
0
回答
BigQuery
插入作业而不是流式处理
、
我目前正在使用
BigQuery
的
stream选项
将
数据
加
载到
表
中
。但是,具有日期分区
的
表不会显示任何分区...我意识到这是流
的
影响。我使用
的
Python
代码:
bigquery
_client =
bigquery
.Client() dataset =
bigqu
浏览 9
提问于2016-12-30
得票数 1
回答已采纳
1
回答
将
CSV文件上
载到
分区
的
bigquery
表
中
(从文件名生成分区)
、
、
我使用
bigquery
客户端对象
将
一些CSV文件(位于
云
存储
中
)上
载到
bigquery
表
中
。 我成功地
将
数据
上
载到
bigquery
表
中
,但我希望
将
目标表更改为已
分区表
。分区将是文件名
中
的
日期。文件名是CSV文件
中
的
一个列,与CSV文件名相同。这就是我如何从文件名(假设文本是文
浏览 7
提问于2022-11-21
得票数 0
2
回答
BigQuery
-在插入表时调用查询
、
这是我
的
用例。我正
浏览 1
提问于2021-02-16
得票数 0
回答已采纳
2
回答
如果某些字段有禁止字符,如何从中
的
JSON创建
BigQuery
表?
、
、
、
、
我正在尝试
将
存储在桶(换行符分隔
的
json文件)
中
的
一堆
数据
移动到
BigQuery
中
。
BigQuery
禁止字段名
中
的
某些字符,例如虚线-或slashes。不幸
的
是,我们
的
数据
在许多字段名中都有破折号,即我尝试
将
BigQuery
模式
中
的
浏览 0
提问于2018-09-15
得票数 0
2
回答
Google Cloud Platform Data ETL批量处理:
云
函数
数据
流
、
、
、
我在我
的
新公司担任
数据
工程师,致力于构建google cloud platform (GCP)批处理ETL管道。我
的
团队
的
数据
科学家最近向我传递了一个
数据
模型(用
Python
3.6编写
的
.py文件)。
数据
模型有一个主
函数
,我可以调用它并获得一个
数据
帧
作为输出,我打算
将
这个
数据
帧
附加到一个
bigquery
表<e
浏览 0
提问于2019-08-21
得票数 0
1
回答
使用Javascript
将
传感器生成
的
数据
推送到Google Cloud Function
、
、
、
、
我正在做一个项目,其中一个名为Eyedro
的
设备可以感知电压和电流等信息,并将其上传到已经设置好
的
云
功能。这个设备有自己
的
接口来读取生成
的
数据
,我有它用来做这件事
的
代码。我需要帮助使用代码获取生成
的
数据
,并将其发送到
云
上。我是一个初学者,我不知道如何去解决这个问题,所以任何类型
的
方向都将非常感谢。下面是用于获取
数据
并将其打印到HTML表上
的
代码。
浏览 1
提问于2021-02-22
得票数 0
1
回答
GCP列出项目中
的
所有内容
、
谷歌
云
平台有大量
的
产品。在给定
的
项目中,我可能会使用Compute Engine、Cloud SQL、Kubernetes、Storage、IAM和Admin。我不知道这些东西
中
的
绝大多数是做什么
的
,当我探索和学习
的
时候,很难跟踪我在给定
的
项目中使用了哪些产品。但是,假设我想要回顾记录项目的所有组件,以便可以从头开始重新创建它。除了逐一浏览每个产品并寻找过去文明
的
迹象之外,有没有什么方法可以列出我所有的足迹?我认为我
的</em
浏览 1
提问于2020-08-29
得票数 1
1
回答
当文件上传到存储桶/
云
存储时,自动开始加
载到
BigQuery
、
我们有一个从另一个
数据
库导出csv文件
的
脚本,并将它们上传到GCP
云
存储上
的
存储桶
中
。现在我知道可以使用
BigQuery
数据
传输服务计划加
载到
BigQuery
中
,但我有点惊讶
的
是,似乎没有一个解决方案可以在文件上传完成时自动触发。 我错过了什么吗?
浏览 20
提问于2021-03-31
得票数 0
回答已采纳
1
回答
使用
云
函数
(替代
函数
?)从
云
存储
将
数据
加
载到
BigQuery
中
。
、
、
、
、
我目前正在使用
云
函数
将
数据
从
云
存储
中
的
csv文件加
载到
BigQuery
。 然而,
云
函数
有一个超时限制,我希望这些文件在会引起问题
的
地方变得足够大。我还能用什么代替
云
函数
来实现这个功能呢?需要在文件放入
云
存储时触发。
浏览 2
提问于2019-04-13
得票数 1
回答已采纳
1
回答
如何从日志资源管理器中去复制GCP日志?
、
我正在使用GCP日志资源管理器存储来自管道
的
日志消息。我需要通过查看来自特定事件
的
日志来调试问题。除了末尾
的
事件ID外,此错误
的
消息是相同
的
。因此,例如,错误消息是我知道我可以使用以下语法来构造一个查询,该查询
将
返回具有此特定消息结构
的
日志severity=W
浏览 8
提问于2022-04-28
得票数 1
回答已采纳
1
回答
在
Python
/气流中加密
数据
并在
BigQuery
中
解密
的
方法
、
、
、
、
根据特定条件取消识别/加密特定字段 除此之外,我还需要能够重新识别/解密
BigQuery
中
的
数据
(例如UDF、)。现在
的
问题是,我无法弄清楚如何以一种可以在
BigQuery
中
重新识别/解密
的
方式来加密这个
数据
。然而,它们并
浏览 10
提问于2021-04-29
得票数 4
回答已采纳
1
回答
为什么我在
将
bigquery
表
数据
写入google
云
存储时被拒绝访问呢?
、
我可以使用
python
客户端库从Google
BigQuery
将
数据
加
载到
Google
云
存储
中
,但是当我试图使用cloud加载
数据
时,我得到
的
错误如下。“访问被拒绝:
BigQuery
BigQuery
:写入
数据
时被拒绝
的
权限” bq --location=US extract --compression GZIP
浏览 0
提问于2019-03-31
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券