腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
mysql:从客户端
导入
大量行到服务器
、
、
我有一个生成潜在巨大表的应用程序,各种客户端应该能够将
数据
发送到中央
数据
库。现在,我正在考虑
分批
处理请求并通过
php
发送它们,这可能是典型的方法。我想知道,为什么我不应该让应用程序转储表,通过post将转储上传到服务器,让服务器再次
导入
表?我关注的是安全性,因为服务器可以从internet访问,您能将恶意代码插入sql转储吗?
浏览 3
提问于2017-09-02
得票数 1
回答已采纳
1
回答
Getstream.io
导入
跟随关系
我们的
数据
库中大约有215 756个追随者关系。 我试着在服务器上运行cron来迁移关注者以获取流,但是它花费的时间太长,有时会导致连接超时。是否有其他方法将我们的关系迁移到getstream
数据
库。例如,在某个地方上传一些json文件或类似的东西?
浏览 2
提问于2016-01-18
得票数 1
回答已采纳
2
回答
大于2G的MySQL
数据
库如何
导入
?
备份出来的
数据
库大于2G。如何
导入
到云MySQL
数据
库?
浏览 1126
提问于2017-11-15
1
回答
JS -如何将多个动态
导入
批处理成一个?
、
、
我几乎同时从我的JS应用程序中请求了两个独立但依赖的动态
导入
。如何避免进行两个
导入
调用或将它们
分批
为一个?
浏览 1
提问于2021-06-25
得票数 0
回答已采纳
1
回答
简单更新查询气球tempdb
、
、
、
我试着运行
数据
库调优顾问,它让我做了一个新的索引,但是没有帮助。我要插入的
数据
库只是
数据
迁移的中间步骤,除了其他csv
导入
之外,没有任何查询,比如我在这里所做的,最后将对该
数据
库运行一个大容量导出,因此它本身没有任何索引或键。
浏览 0
提问于2013-09-03
得票数 1
回答已采纳
2
回答
使用Powershell批量读取CSV工作表
、
最近,我编写了脚本,从csv读取
数据
并进行一些检查,因为csv
数据
很大,所以我想
分批
运行它,所以先执行50行,然后将它们写到一个文件夹中,然后执行下50行,然后在另一个文件夹中写入输出。下面是我用来
导入
和导出csv文件的行和出口使用 Export-Csv -Path "Data"
浏览 6
提问于2022-09-19
得票数 0
回答已采纳
3
回答
导入
csv超时问题
、
、
、
我正在尝试修改csv
导入
函数,它在
导入
60秒后超时。对于每一行,都有调整大小的图像,并执行一些其他代码。我知道vps可以处理这件事,但是
分批
处理,因为我在同一台服务器上有另一个网站,它运行一个不同的csv程序,但是做同样的事情。该程序可以
导入
8000行并调整图像大小。我提出的设置: if( (($current_linehandle, M
浏览 2
提问于2011-11-15
得票数 0
1
回答
PHP
:如何在分页中逐页加载
数据
、
、
我有一个500项
数据
数组,取自合作伙伴
数据
库。我已经完成了分页。 但是对等库非常弱,如果一次加载500个项目,它是非常重的。有没有办法先下载完30件,然后再下载下一件呢? 不加载500次项目。
浏览 18
提问于2020-11-04
得票数 0
回答已采纳
2
回答
我怎样才能导出超过50,000篇文章,并将它们全部
导入
Wordpress?
我如何导出我所有的文章与他们的图片,并
导入
他们的所有。
浏览 6
提问于2022-01-30
得票数 -3
1
回答
从Cutenews将大量图片(和帖子)
导入
Wordpress
、
、
它们有来自照相机的通用名称,有一些EXIF
数据
,比如图片拍摄的日期,所有的图片都在嵌套文件夹中(头几年的格式不一致--我没有搞砸),结构大致如下: (学年范围)(季节)(性别)(体育)(Team1)(folder\index.
php
脚本的链接?For additional photos click here to view our complete photo gallery</span></a></p>,如果我也能将文件夹的名称保留为图库的
数据
有一件事我还没有弄清楚,那就
浏览 2
提问于2013-02-06
得票数 1
1
回答
后大系列+索引的填充因子
、
、
我计划
导入
和更新一个大表(3 Bil )。)在以下步骤中:从csv文件中
导入
数据
(6个文件,每个文件21 csv)为BIGSERIAL列创建索引这对我来说是一个巨大的操作,所以我真的需要你在第一步中设置的填充因子x上的建议,这样它将对后续的步骤产生最好的影响。表定义中的所有列都是固定大小的。
浏览 0
提问于2012-07-14
得票数 0
1
回答
OLEDB连接特定列
、
、
我有一个OLEDB
数据
连接,我只想将A:O列
导入
到一个表中。我正在填充连接属性屏幕。 提前谢谢..。’$A:$O“中选择*;Jet OLEDB:System database=”;Jet OLEDB:RegistryPath=“;Jet OLEDB:Engine Type=35;Jet OLEDB:
数据
库锁定Mode=0;Jet OLEDB:全局部
分批
量OLEDB:全局大容量OLEDB:新
数据
库Pass
浏览 1
提问于2016-10-26
得票数 1
2
回答
如何使用django-import-export库优化到Django模型的
数据
导入
、
、
、
、
我一直使用django-import-export库将我的
数据
作为excel上传到Django模型,它一直工作得很好,直到我不得不上传一个有20,000行的excel,它只是花了无限的时间来完成这个操作你能建议正确的方式来优化
数据
上传到Django模型,在那里我可以轻松地上传excel文件并将
数据
保存在我的
数据
库中。 请支持。嗨,下面是我尝试过的admin.py代码,但它的抛出错误'using_transactions‘没有定义,请确认我哪里出错了,我该怎么做才能在更短的时间内
导入
批量
数
浏览 89
提问于2020-09-27
得票数 0
2
回答
移动firebase记录
、
、
我有一个这样的Firebase
数据
库:+ Key · number: + Key· productName: · productId: 我想以一种不同的方式组织
数据
在更改
数据
结构时,这是不是很好的做法?
浏览 2
提问于2016-09-17
得票数 0
1
回答
解析-服务器-
导入
mysql
数据
、
我有一个现有的mysql
数据
库,并打算切换到解析服务器,在他们的系统中有什么可以从例如CSV或其他格式
导入
数据
吗?我在界面上没有直接看到任何东西。
浏览 1
提问于2018-11-30
得票数 0
回答已采纳
1
回答
将48 GB csv文件中的
数据
导入
Server
、
、
我正在使用Server默认
导入
工具
导入
大小约为48 gb的大型
数据
文件。它继续执行良好的应用程序。13000000行插入,但之后任务失败,出现以下错误。
浏览 0
提问于2017-09-16
得票数 5
回答已采纳
2
回答
php
块数组
分批
、
、
、
php
{ { array_push($newarray
浏览 1
提问于2018-05-23
得票数 0
回答已采纳
1
回答
处理带有联接的大型csv文件时出现的Clover ETL性能问题
基本上我用的是: 我发现ExtHashJoin试图等到它加入所有记录后才开始插入它们,这似乎就是问题所在,因为它必须将所有记录存储在内存中。这些记录都是独立的,可以
分批
处理,例如,每1000行一次,但我想不出这样做的方法。 我还尝试设置不同的阶段值,但在开始插入第一个记录之前,它仍然尝试连接
浏览 1
提问于2017-07-12
得票数 1
回答已采纳
1
回答
我应该在这个场景中使用合并吗?
它通常是空的,直到他们把
数据
推给我。有了这些
数据
,我应该在另外两个表中添加、更新或删除记录(通过主键/外键链接)。
数据
是一次一行推送给我的,偶尔一年两次大规模下载。他们想让我实时更新我的表格。
浏览 2
提问于2012-08-13
得票数 0
回答已采纳
2
回答
索引在大容量插入时不同步
、
、
我的Server
数据
库有一个奇怪的问题。我正在使用SqlBulkCopy.WriteToServer编写大量
数据
(大约90,000行),我还使用EF的AddRange编写了大约30,000行
分批
1,000行的
数据
。在我手动重新构建索引之后,查询将再次快速进行,直到发生另一个
导入
。 我对批量装载的理解是,它也应该更新索引。我的问题是:这种行为有什么众所周知的原因吗?如果没有,我怎么解决这个问题呢?
浏览 2
提问于2016-03-31
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PHP项目导入新手指南2017
卓象程序员:PHP配合MYSQL大批量数据导入
mysql导入数据
Excel导入数据神器
excel从外部导入数据之如何导入文本文件数据?
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券