腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何获取从sql server 2008中
导出
的csv表或文本文件的
数据
类型
、
、
如何获取批量
导出
时从SQL Server
导出
为txt或csv文件的表的
数据
类型详细信息?谢谢,哈尔
浏览 0
提问于2013-02-15
得票数 0
回答已采纳
1
回答
如何使用多个工作表Yii2 ExportMenu
导出
数据
、
、
、
有一种使用Yii2 kartik ExportMenu在一个
导出
的excel文件中创建多个工作表的简单方法。它适用于单个选项卡,但现在我想将
数据
导出
到csv和excel单张中的多个选项卡中。
浏览 1
提问于2018-01-24
得票数 0
回答已采纳
3
回答
将
大
查询
导出
到Google云存储
、
我喜欢将
大
查询
导出
到Google云存储。除了
导出
查询之外,还有任何其他选项可以这样做。 我的
数据
大约是2GB,在
导出
查询中,它在不同的文件中分割,
数据
作为
数据
很大。所以我只能在一个文件中
导出
。
浏览 9
提问于2022-05-19
得票数 0
2
回答
启用
大
查询和雪花之间的同步
、
我们使用BigQuery和SNOWFLAKE(Azure托管),我们经常从
大
查询和导入
导出
数据
到SNOWFLAKE,反之亦然。有没有简单的方法来集成这两个系统,比如自动将
大
查询表同步到SNOWFLAKE,而不是
导出
到文件并导入?
浏览 4
提问于2021-10-22
得票数 2
1
回答
从mysql 5.5
导出
超大型
数据
库
、
在继续之前,我想确认是否可以使用3.6GB管理
导出
特性
导出
一个非常
大
的MySQL大小表。我已经
导出
了像28 MB这样的小型表,但是仅仅想知道
导出
这么
大
的
数据
库会破坏什么吗?例如,在下面的图像中,我想
导出
3.6GB大小的category表。我希望使用这种技术,而不是使用mysqldump。 📷
浏览 0
提问于2014-07-14
得票数 0
回答已采纳
1
回答
使用宾得
数据
集成的MSSQL批量装载机
、
、
、
、
我目前正在使用宾得
数据
集成,我需要使用MSSQL
大
容量加载器作业条目从本地到远程服务器中的文件中插入记录。好像不起作用。我目前得到了这个错误: 无法
大
容量加载,因为文件"\sharing\datasync\data\orders.csv“无法打开。
浏览 1
提问于2019-02-25
得票数 0
1
回答
在SQL Server2008中,
大
容量复制(bcp)和
大
容量插入有什么区别?
、
、
大
容量复制(bcp)和
大
容量插入有什么区别? 是否有为bcp
导出
数据
库中所有表中的所有
数据
的开关?
浏览 0
提问于2010-01-03
得票数 2
回答已采纳
1
回答
如何使用分页
导出
角度材料表(垫-表)?
、
我想将整个表格(所有页面)
导出
为CSV。我可以将当前页面
导出
为CSV,但不能一次
导出
所有页面。 我不能只是从
数据
源
导出
数据
,因为模板使用了管道和其他格式,并且我需要
导出
具有相同的格式。一种选择是,当用户点击
导出
时,它将禁用分页,运行
导出
代码,然后使用正确的当前页面集重新启用分页。但用户会看到屏幕发生变化,浏览器可能需要一些时间才能在屏幕上完全呈现整个巨型表格。
浏览 3
提问于2018-09-30
得票数 4
1
回答
由于BLOB,复制
数据
库的创建时间太长
、
、
、
、
我正在尝试创建一个副本
数据
库。我使用SSIS传输了1,000,000条记录,即上面是一个OLEDB源命令(Oracle
数据
库),目标是一个SQL
数据
库。我已经计算出传输这60,000,000行大约需要两个月的时间。rownum<1000000')) As BOF INNER JOIN GenieVRMs ) as CopyDatabase 同样,结果表明创建副本
数据
库需要两个月的时间有什么办法可以在
数据
传输过程中压缩图像吗?
浏览 2
提问于2015-11-09
得票数 1
2
回答
oracle 10g xe到11g xe升级
、
、
、
、
但是升级文档要求从10g进行
数据
泵
导出
,然后将
数据
泵导入到11g。 但令人担忧的是,10克超过了4GB的限制,因此不允许
数据
泵
导出
。是否有其他选项将
数据
移动到
数据
泵
导出
和导入以外的11g。已经尝试了expdp的
导出
,但是我得到了一个错误,说
数据
库已经超过了4gb的限制。
浏览 0
提问于2012-05-18
得票数 1
回答已采纳
2
回答
使用压缩AVRO从BigQuery中
导出
表
、
我尝试了
大
查询
导出
到云存储功能,以节省一些钱。需要的是以AVRO压缩格式
导出
,以保持模式,并能够在需要时在Big Query上再次导入它们。因为Big Query使用未压缩的大小收取
数据
费用,而我的
数据
是高度冗余的,所以压缩后的
数据
应该减少到原来的20倍。 没有任何关于这方面
浏览 5
提问于2018-07-24
得票数 1
1
回答
在ActiveReports Excel中设置字体大小非常慢
、
我正在将大量
数据
导出
到excel工作表。在尝试为活动报告中的报告正确格式化
数据
时,我们遇到了性能问题。我设置了一些基本的打印输出,以确定哪些代码段占用的时间最长。我通过设置单元格值分解了单元格格式。在
数据
进入此方法之前,写入
数据
所用的时间为6秒。仅将fontsize设置为8就花了50秒。有没有更好的方法来做这件事?我以为一次将它应用于多个单元会做更多事务性的事情,而且效率更高,但事实并非如此。
浏览 0
提问于2016-10-21
得票数 0
1
回答
需要脚本将文件
导出
到远程服务器
AIX 5.3 DB 10.2.0.4谢谢,
浏览 1
提问于2010-08-09
得票数 0
2
回答
使用不同格式将
数据
加载到pd.DataFrame的最快方法(csv、json、avro)
、
、
、
我们正在将大量
数据
从google bigquery加载到pandas dataframe (直接作为pandas使用,也作为xgbMatrix使用)。BQ
导出
格式有CSV、JSON和AVRO,我们的
数据
有日期、整数、浮点数和字符串,并且通常是“宽”的(许多列)。我们的第一种方法是将
数据
导入为CSV,但是解析时间很长:解析代码: def load_table_files_to_pandas(all_files
浏览 3
提问于2018-07-25
得票数 1
2
回答
如何将一个庞大的功能模块分解成多个较小的模块?
我有一个庞大的、不可维护的特性模块,我想把它分成更小的、可管理的特性。我可以在不删除或禁用内容类型和依赖项以及strongarm变量的情况下禁用大量模块吗?
浏览 0
提问于2014-08-05
得票数 0
回答已采纳
2
回答
GCP:设置从扳手到
大
查询的周期性
数据
管道的最佳选择是什么?
、
、
、
任务:我们必须设置从扳手到
大
查询的记录的定期同步。我们的扳手
数据
库有一个关系表层次结构。 Option2:使用“”模板
导出
整个
数据
库。Con:我只需要在
数据
库中
导出
选定的表,并且没有看到将Avro导入
大
查询的模板。
浏览 4
提问于2019-05-28
得票数 1
回答已采纳
2
回答
从oracle
数据
库中读取大量
数据
,并使用C#将其
导出
为.dat文件
、
我们有一个按月执行的查询,返回的
数据
大小为1 1GB。请注意,使用Toad手动执行此操作需要2小时的时间。但是从datareader读取
数据
会在8小时后抛出“异常消息是ORA-03113: System.Data.OracleClient.OracleConnection.CheckError(OciErrorHandle有没有人可以告诉我,上面的方法对于处理1 1GB大小的<e
浏览 1
提问于2011-11-28
得票数 2
1
回答
无法从server 2005中的现有表中插入新表中的记录
、
、
、
在本例中,我收到以下错误消息: 错误:
数据
库"tempDB“的事务日志已满。若要了解日志中空间不能重用的原因,请参阅sys.databases中的sys.databases列。
浏览 4
提问于2012-06-28
得票数 0
回答已采纳
2
回答
仅
导出
自上次PostgreSQL
数据
库
导出
以来的新
数据
、
、
、
、
我有一个相当
大
的PostgreSQL
数据
库(大约6 6GB &不断增长)。通过cron & pg_dump每隔几个小时执行一次
数据
库的完整备份/
导出
。具体地说,我可以只
导出
自上次
导出
以来对
数据
库的更改吗?或者运行一个实用程序来比较两个
导出
,并将差异附加到原始
导出
中,等等?我正在努力节省磁盘空间和“云”传输时间。
浏览 0
提问于2010-08-07
得票数 0
1
回答
用流集合修复备份到
导出
,这是如何以什么格式完成的?
、
、
、
简而言之:用-extension和BigQuery
导出
修复备份,这是如何以什么格式完成的? 我有一个使用Firestore的项目,它实现了-extension来实现巨大的
数据
分析可能性和data。在
数据
丢失或发生突变的情况下,问题将被转发给BigQuery,因为相同的
数据
位于两个位置,因此需要扩展。但是在BigQuery中,我可以使用从过去7天的任意时间点获取
数据
。我应该以何种方式
导出
BigQuery
数据
并将其导入到Firestore中?如果需要的话,是否可以在&quo
浏览 15
提问于2022-03-23
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
全国彩票分析之如何导入导出大底数据
MySQL 导出数据
mysql导出数据
源码:实现导出Excel数据
大数据量excel导出
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券