首页 > 代码库 > solr 亿万级数据查询性能测试
solr 亿万级数据查询性能测试
废话不多说,我电脑配置 i7四核cpu 8G内存
插入数据文档中有5个字段,其中有两个分词,一个int,一个date 批量插入测试一次10万循环10次总共100万用时85秒 批量插入测试一次10万循环100次总共1000万用时865秒 插入性能还是不错的
查询测试
在12166454数据中(约等于一千两百万)总共占用硬盘2.8G 查询分词字段 title:中国用时0.031秒 非分词字段查询 view_count:1 用时 0.030秒 范围查询 view_count:[0 TO 1000] 用时0.125秒 上面这些查询第二次查询的时候用时都在0.001秒之下应该是因为有缓存的原因 相对数据库的模糊查询优势及其明显,我用mysql两千万数据查询“%中国%”直接数据库卡掉了 (不过这么比较美意思,全文检索存储方式跟sql不一样,各有优劣)
在过亿的数据量中
插入一亿数据耗时1小时40分钟35秒插入过程中 内存占用70%左右 cpu没多少变化 11%左右
(上班写的,未完待续)
solr 亿万级数据查询性能测试
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。