首页 > 代码库 > 大批量数据的插入优化的小细节
大批量数据的插入优化的小细节
今天在测试将elasticsearch中的20万条数据迁移到MySQL中时,总感觉速度比较慢,尝试了好多方法,比如网上都说的:
public void batchSave(List<MailDeliveryTask> tasks) { Session session = sessionFactory.openSession(); for (MailDeliveryTask task : tasks) { session.save(task); } session.flush(); session.clear(); session.close(); }
这种的,但是好像发现打印出来的sql还是逐条insert的,不知道是不是自己的原因,没起作用。
因为我用的是springdata jpa集成的hibernate,最后我关闭了hibernate的show_sql,也就是不打印出sql,发现速度快了不少!
大批量数据的插入优化的小细节
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。