首页 > 代码库 > 大批量数据的插入优化的小细节

大批量数据的插入优化的小细节

今天在测试将elasticsearch中的20万条数据迁移到MySQL中时,总感觉速度比较慢,尝试了好多方法,比如网上都说的:

    public void batchSave(List<MailDeliveryTask> tasks) {
        Session session = sessionFactory.openSession();
        for (MailDeliveryTask task : tasks) {
            session.save(task);
        }
        session.flush();
        session.clear();
        session.close();
    }

这种的,但是好像发现打印出来的sql还是逐条insert的,不知道是不是自己的原因,没起作用。

因为我用的是springdata jpa集成的hibernate,最后我关闭了hibernate的show_sql,也就是不打印出sql,发现速度快了不少!

大批量数据的插入优化的小细节