1W条数据量也不是特别大,那就直接读取,然后在foreach入库就可以了
专业从事企业网站建设和网站设计服务,包括网站建设、主机域名、虚拟主机、企业邮箱、微信公众号开发、微信支付宝小程序定制开发、app软件定制开发、软件开发、等服务。公司始终通过不懈的努力和以更高的目标来要求自己,在不断完善自身管理模式和提高技术研发能力的同时,大力倡导推行新经济品牌战略,促进互联网事业的发展。
如果数据量非常大的时候,那就分段读取,然后入库~
考虑到php超时,那就网页端打开,第一部分执行完,刷新页面,开始执行第二部分,依次进行...
当然,直接在命令行下执行也可以~
有两种情况, 一是 php可运行的最大时间是不是有设置. 虽然你加了set_time_limit(0). 但很有可能没设置成功,因为php有安全模式, 你可以修改php.ini
2是系统资源不够, 可能是php宕了或者 数据库宕了.
一次性插入1000条数据比一条一条的插入速度会提升N倍,主要技巧就是在写SQL的上面
insert into table1 value (v1, v2, v3), (x1,x2,x3),....
而不是
insert into table1 value (v1, v2, v3);
insert into table1 value (x1, x2, x3);
我知道你为什么会停下来,因为mysql插入大量数据(1000W)的情况下,执行时间需要的很长,而你八成设定执行时间不限制,如果时间默认超过30秒,那么程序就会自动停下来。
1000 0000
?php
set_time_limit(0);#设置执行时间为不限制~
for($i=0;$i1000;++$i){#嵌套循环,避免悲剧;
for($j=0;$j10000;$j++){
mysql_query(" 插入把~");
}
}
?
1、首先我们准备一个含有数据的Excel表格,表头和数据表中的表字段相对应。
2、在ThinkPHP中引入PHPExcel类库。
3、然后我们编写导入的PHP代码。
4、然后我们编写导出的PHP代码。
5、然后我们进行导出测试发现可以导出即可。