首页 > 代码库 > php使用fputcsv进行大数据的导出
php使用fputcsv进行大数据的导出
为了实验大数据的导出,我们这里先自已创建一张大表,表结构如下:
CREATE TABLE `tb_users` ( `id` int(11) unsigned NOT NULL AUTO_INCREMENT COMMENT ‘用户ID‘, `name` varchar(32) DEFAULT ‘‘ COMMENT ‘用户名‘, `age` tinyint(3) DEFAULT ‘0‘ COMMENT ‘用户年龄‘, `desc` varchar(255) DEFAULT ‘‘ COMMENT ‘用户描述‘, `phone` varchar(11) DEFAULT ‘‘ COMMENT ‘用户手机‘, `qq` varchar(16) DEFAULT ‘‘ COMMENT ‘用户QQ‘, `email` varchar(64) DEFAULT ‘‘ COMMENT ‘用户邮箱‘, `addr` varchar(255) DEFAULT ‘‘ COMMENT ‘用户地址‘, PRIMARY KEY (`id`)) ENGINE=InnoDB DEFAULT CHARSET=utf8;
然后写个php脚本往这个表插入数据,代码如下:
<?phpset_time_limit(0);ini_set(‘memory_limit‘, ‘128M‘);//使用TP3.2的String类,php7下会报错,注意把类名换一下require ‘./String.class.php‘;use Org\Util\NewString;$begin = microtime(true);$db = new mysqli(‘127.0.0.1‘, ‘root‘, ‘‘, ‘test‘);if($db->connect_error) { die(‘connect error‘);}//数据插入语句$insSql = ‘‘;//一百万数据,分200步,每步插入5000条$step = 200;$nums = 5000;for($s = 0; $s < $step; ++$s) { $insSql = ‘INSERT INTO tb_users VALUES‘; for($n = 0; $n < $nums; ++$n) { $name = NewString::randString(3, 4); $age = mt_rand(1, 120); $desc = NewString::randString(64, 4); $phone = NewString::randString(11, 1); $qq = NewString::randString(13, 1); $email = $qq . ‘@qq.com‘; $addr = NewString::randString(128, 4); $insSql .= "(NULL, ‘{$name}‘, $age, ‘{$desc}‘, ‘{$phone}‘, ‘{$qq}‘, ‘{$email}‘, ‘{$addr}‘),"; } $insSql = rtrim($insSql, ‘,‘); $db->query($insSql);}$end = microtime(true);echo ‘用时:‘, $end - $begin;$db->close();
里面用到的TP3.2的String类大家自行上TP官网下载。整个用时2个多小时,最后数据大小662M。
现在我们用php提供的fputcsv来导出这一百万的数据,原理就是打开一个标准输出流,然后把数据按一万条来分割,每一万条就刷新缓冲区。
<?phpset_time_limit(0);ini_set(‘memory_limit‘, ‘128M‘);$fileName = date(‘YmdHis‘, time());header(‘Content-Type: application/vnd.ms-execl‘);header(‘Content-Disposition: attachment;filename="‘ . $fileName . ‘.csv"‘);$begin = microtime(true);//打开php标准输出流//以写入追加的方式打开$fp = fopen(‘php://output‘, ‘a‘);$db = new mysqli(‘127.0.0.1‘, ‘root‘, ‘‘, ‘test‘);if($db->connect_error) { die(‘connect error‘);}//我们试着用fputcsv从数据库中导出1百万的数据//我们每次取1万条数据,分100步来执行//如果线上环境无法支持一次性读取1万条数据,可把$nums调小,$step相应增大。$step = 100;$nums = 10000;//设置标题$title = array(‘ID‘, ‘用户名‘, ‘用户年龄‘, ‘用户描述‘, ‘用户手机‘, ‘用户QQ‘, ‘用户邮箱‘, ‘用户地址‘);foreach($title as $key => $item) { $title[$key] = iconv(‘UTF-8‘, ‘GBK‘, $item);}//将标题写到标准输出中fputcsv($fp, $title);for($s = 1; $s <= $step; ++$s) { $start = ($s - 1) * $nums; $result = $db->query("SELECT * FROM tb_users ORDER BY id LIMIT {$start},{$nums}"); if($result) { while($row = $result->fetch_assoc()) { foreach($row as $key => $item) { //这里必须转码,不然会乱码 $row[$key] = iconv(‘UTF-8‘, ‘GBK‘, $item); } fputcsv($fp, $row); } $result->free(); //每1万条数据就刷新缓冲区 ob_flush(); flush(); }}$end = microtime(true);echo ‘用时:‘, $end - $begin;
整个过程用时5分钟,最终生成的csv文件大小420M。
对于如何用phpexcel导出大数据,并没有什么比较好的方案,phpexcel提供的一些缓存方法,数据压缩,虽然内存使用小了,但所用时间则加长了,时间换空间,显然并不是最好的方案。比较靠谱的方法还是生成多个下载链接地址,把你要下载的数据,以get形式传递当前页数,后台进行数据分页然后导出。
<a href="http://www.mamicode.com/downSearchData.php?参数1=值1&参数2=值2&page=1">下载汇总结果1</a><a href="http://www.mamicode.com/downSearchData.php?参数1=值1&参数2=值2&page=2">下载汇总结果2</a><a href="http://www.mamicode.com/downSearchData.php?参数1=值1&参数2=值2&page=3">下载汇总结果3</a>
比如你有一个查询数据表单,ID为searchFrm,然后你想把导出数据按1万条分割(phpexcel一次导出1万条是没有问题的,效率还行)
<form id="searchFrm"> 姓名<input type="text" name="uname"> <input type="button" id="searchDataBtn" value="http://www.mamicode.com/导出汇总结果"></form><div id="searchDataList"></div><script type="script"> $("#searchDataBtn").on("click", function() { var params = $("#searchFrm").serialize(); //获取查询数据的条数 $.get("/getSearchDataRows?" + params, function(data) { var downDataList = ""; if(data["rows"]) { //rows是数据总条数,pageSize是一页多少条 var pageNum = Math.ceil(data["rows"] / data["pageSize"]); for(var i = 1; i <= pageNum; ++i) { downDataList += "<a href=http://www.mamicode.com/‘/downSearchData.php?‘" + params + "&page=" + i + ">下载汇总结果" + i + "</a> "; } $("#searchDataList").html(downDataList); } else { $("#searchDataList").text("没有数据"); } }, "json"); return false; });</script>
php使用fputcsv进行大数据的导出
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。