腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
尝试
使用
Python
将
数据
写入
bigquery
时
出现
''
configure_mtls_channel
‘
错误
、
、
我在google云函数中
使用
了一个
python
脚本,最近对该脚本做了一个非常小的更新。然而,在测试中,
python
脚本无法
将
数据
写入
bigquery
。下面是我正在
使用
的库 google-cloud-storage==1.18.0dask[dataframe]==2.1.0gcsfs==0.2.3(df, table_ref,job_config=job_config).result() 下面
浏览 23
提问于2021-03-20
得票数 0
1
回答
无法
使用
云
数据
流将可空整数值
写入
BigQuery
、
我正在
尝试
使用
写入
BigQuery
表。此
BigQuery
表有一个整数列,该列设置为可空。对于空值,它给出以下
错误
: 那么,是否有任何方法可以
使用
将
空值
写入
整数列?如果
将
列
数据
类型更改为String,则会
出现
此
浏览 5
提问于2016-07-23
得票数 1
回答已采纳
1
回答
Google Cloud Dataflow作业失败
、
、
自从开启自动伸缩以来,我们的一些云
数据
流作业已经开始失败。我在失败的作业中收到以下
错误
:这是此
错误
的作业id : 2016-01-26_12_02_19-12737268934091661877 我也有这个工作,它需要超过5个小时,而通常需要1个小时
浏览 2
提问于2016-01-28
得票数 1
1
回答
Pyspark
将
数据
帧
写入
bigquery
[error gs]
、
我正在
尝试
将
数据
帧
写入
bigquery
表。我已经
使用
所需的参数设置了sparkSession。然而,在写的时候,我得到了一个
错误
:代码如下:如果从代码中删除write,我不会得到任何
错误
,所以
错误
是在
尝试
编写
时
出现
的,并且可能与
使用</em
浏览 17
提问于2020-11-14
得票数 1
1
回答
将
数据
从Google表导出到Google存储
、
当
将
数据
从Google
bigquery
表导出到
Python
中的Google云存储
时
,我会得到以下
错误
: 访问被拒绝:
BigQuery
BigQuery
:
写入
数据
时
被拒绝的权限。
浏览 0
提问于2017-06-11
得票数 2
1
回答
为什么我在
将
bigquery
表
数据
写入
google云存储
时
被拒绝访问呢?
、
我可以
使用
python
客户端库从Google
BigQuery
将
数据
加载到Google云存储中,但是当我试图
使用
cloud加载
数据
时
,我得到的
错误
如下。“访问被拒绝:
BigQuery
BigQuery
:
写入
数据
时
被拒绝的权限” bq --location=US extract --compres
浏览 0
提问于2019-03-31
得票数 1
3
回答
谷歌
数据
流每项作业是否有BT写原子?
所以我的问题是,如果我有一个
数据
流作业,它会写到
BigQuery
或BigTable,但是作业失败了。
数据
流是否能够在启动前回滚到状态,或者我的表中可能只是部分
数据
?但是,我已经
尝试
过通过
数据
流
将
数据
转储到BQ中,并且在作业声称成功之前,输出表似乎不会公开给用户。
浏览 6
提问于2016-08-05
得票数 1
回答已采纳
1
回答
Google
BigQuery
:
使用
Avro格式导入日期时间字段
、
我有一个脚本,从甲骨文
数据
库下载
数据
,并上传到谷歌
BigQuery
。这是通过
写入
一个Avro文件来完成的,然后
使用
BQ的
python
框架直接上传该文件。我要将
数据
上传到的
BigQuery
表具有预定义的模式,其中一些模式包含日期时间字段。 Field CHANGED has incompatible types.我还
尝试
在导出
时
将
字段
数据
转换为时间戳,但这在
BigQuery
浏览 4
提问于2020-04-22
得票数 0
2
回答
错误
代码:在
BigQuery
上加载
数据
时
无效
、
、
我有一个很大的CSV文件(将近10,000行),我试图将它上传到
BigQuery
上,但
出现
了以下
错误
:有没有人能告诉我一个可能的推理方法?我仔细检查了我的Schema,它看起来没问题。 谢谢
浏览 0
提问于2016-11-09
得票数 0
1
回答
如何
将
字符串值数组从Pandas
写入
、
、
、
、
我目前正在
尝试
将
(
Python
3.x)
写入
Google。该表有一个带有dtype对象的列,该列包含一个字符串值数组。I的目标是创建一个BQ表,该表维护嵌套的表结构,如下所示:和以下模式:所用代码:table_id = 'dataset.table' job_config =
bigquery
.LoadJobConfi
浏览 3
提问于2020-03-06
得票数 6
1
回答
如何在Apache Beam中通过键在静态查找表上以流模式连接PCollection (
Python
)
、
、
、
我以字典的形式将来自Google Cloud Pubsub的(无界的)
数据
导入PCollection。随着流
数据
的传入,我想通过在静态(有界的)查找表上通过键连接它来丰富它。我目前有一个
使用
DirectRunner运行的有效解决方案,但是当我
尝试
在DataflowRunner上运行它
时
,我得到了一个
错误
。我已经
使用
beam.io.ReadFromText函数从csv中读取了有界查找表,并将值解析到字典中。然后,我创建了一个ParDo函数,它将我的无界PCollectio
浏览 7
提问于2019-09-05
得票数 4
1
回答
如何
使用
写存储API
写入
_default表的
BigQuery
流
、
我想
使用
BigQuery
写存储API
将
单个
数据
行流到一个表中。但是,我不想为每一行创建新的写流。 我想知道如何
浏览 11
提问于2022-02-09
得票数 4
回答已采纳
1
回答
为什么需要临时的GCS存储桶才能将
数据
写入
到
BigQuery
: pyspark
、
、
、
最近,我遇到了一个问题,当我
使用
pyspark
将
数据
写入
BigQuery
中
时
。我想知道更多关于它的情况,为什么我们需要临时gcs
将
数据
写入
bigquery
?请澄清。
浏览 6
提问于2021-06-11
得票数 1
回答已采纳
1
回答
如何将在执行同一
数据
流管道期间计算的架构
写入
BigQuery
?
我的场景与这里讨论的方案不同:这个是可能的吗?如果是的话,最好的方法是什么?我目前的最佳猜测是通过一个侧输出
将
模式读入PCollection中,然后
使用
该输出在
将
数据
传递给BigQueryIO
浏览 1
提问于2015-06-06
得票数 0
回答已采纳
1
回答
将
包含10列的CSV文件加载到现有的
BigQuery
表中,该表中有103个列,其中10个具有精确的列名csv文件。
、
、
、
我
使用
python
将
包含10列的CSV文件加载到包含103个列的现有
BigQuery
表中。附加
写入
模式。CSV文件的10列具有与现有
BigQuery
表的103个列中的10个列完全相同的列名。我在job_config中
使用
job_config进行模式自动检测。 我想要完成的是,这个
python
脚本将把
数据
写入
到现有BQ表的相应列中。但是,我收到了“如果Schema不匹配表”的
错误
。
浏览 6
提问于2022-02-17
得票数 0
1
回答
谷歌
BigQuery
每分钟
写入
存储API配额CreateWriteStream请求
、
、
、
我正在
尝试
构建一个可伸缩的ETL进程,它可以在不同的
BigQuery
表上
写入
。这个过程是由PubSub触发的,所以n个云函数被实例化(默认情况下,它们都在我们中间1中)以达到目标。我
使用
BigQuery
存储写API (
python
)
将
数据
流到
BigQuery
中。通常,当超过100个CFs被实例化时,我将得到以下恢复的
错误
消息: 429 Exceeds quota limit subject: ?在文档中计算配额限
浏览 8
提问于2021-11-22
得票数 0
5
回答
无法
将
查询保存在计划查询中。“计划查询
错误
”
我已经在
BigQuery
中创建了一个视图,并希望将其设置为update。当试图
将
查询保存到调度查询中
时
,会发生
错误
:调度查询
错误
浏览 15
提问于2022-02-14
得票数 1
回答已采纳
1
回答
使用
load_table_from_dataframe方法
错误
将
数据
写入
str表- 'str‘对象没有属性'to_api_repr’
、
、
我正在
尝试
从云存储中读取
数据
,并将
数据
写入
BigQuery
表。
使用
Pandas库读取GCS中的
数据
,并
使用
client.load_table_from_dataframe方法
写入
数据
。我在Google cloud composer中以
python
操作符的身份执行此代码。当我执行代码
时
,
出现
了下面的
错误
。/lib/
pyt
浏览 14
提问于2020-06-24
得票数 0
回答已采纳
2
回答
大
数据
集下
数据
流
BigQuery
插入作业立即失败
、
、
、
这条管道大致做了以下工作: 一般来说,代码执行它应该做的事情。但是,当从API收集大型
数据
集(大约500.000 JSON文件)
时
,
bigquery
作业在启动后(=1秒内)停止,但在
使用
DataflowRunner
时
没有特定的
错误
消息(它
浏览 0
提问于2019-04-22
得票数 1
1
回答
在GKE上插入
BigQuery
流失败
、
、
、
我们有一个拥有3x n2-highcpu-8节点的GKE集群,用GO编写的web应用程序可以扩展到3个实例(每个节点1个),
将
所有请求都
使用
流传输到
BigQuery
,我注意到了非常奇怪的行为: 在高应用程序
使用
率期间,应用程序启动的3个实例中有2个在流式
写入
时100%失败,
错误
是仅
写入
“超过上下文截止日期”,而当我删除这2个pod
时
,它们又开始接收流量,旧的1开始失败,
出现
“上下文截止日期超过”,而新的2中有1个成功地继续
写入
浏览 19
提问于2020-12-04
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券