我有一个大的CSV文件,我试图导入到MySQL (大约45 of,约1.5亿行,大多数列小,但一个可变长度的文本,可以达到KBs的大小)。我正在使用LOAD数据本地INFILE尝试并导入它,但是服务器总是在它完成之前超时我的连接。我已经尝试过修改全局连接超时变量来修复这个问题,但是它在超时之前已经有几个小时了。有其他方法可以导入这么大的数据库吗?还是我做错了什么?FIELDS TERMINATED BY ',' OPTIONALLY ENCLOSED BY '
我使用Amazon服务,我安装了EC2和RDS,并安装了apache、php、mysql和phpmyadmin。我可以导入小的sql文件(我还为该-fine安装了worp究竟并导入了sql db ),但是当我尝试使用putty导入一个200 small文件时,我得到了
在进行了一些研究之后,似乎增加了max_allowed_packet,wait_timeout和DB参数组中的net_read_timeout会有帮助,但是没有帮
这位同事从他的mySQL环境导出了nGINX DB (我想它使用的是与我的mySQL相同的mySQL),但是它的大小是一个疯狂的11GB+。为了做好准备,我做了必要的php.ini修改,列出了,输入了myisam_sort_buffer_size=16384M到my.ini,并遵循了一步一步的教程。SQL导入在0:30到14:30之间运行时,我注意到它只是停止了。
不幸的是,shell导入命令似乎停止在18061行的第13149行。我没有看到错误消息,也没有在phpMy