大家好,我是苏三,又跟大家见面了。
今天要讨论一个让无数人抓狂的话题:如何高效导入百万级Excel数据。
去年有家公司找到我,他们的电商系统遇到一个致命问题:每天需要导入20万条商品数据,但一执行就卡死,最长耗时超过3小时。
更魔幻的是,重启服务器后前功尽弃。
经过半天的源码分析,我们发现了下面这些触目惊心的代码...
很多小伙伴在实现Excel导入时,往往直接写出这样的代码:
// 错误示例:逐行读取+逐条插入
public void importExcel(File file) {
List<Product> list = ExcelUtils.readAll(file); // 一次加载到内存
for (Product product : list) {
productMapper.insert(product); // 逐行插入
}
}
这种写法会引发三大致命问题:
UserModel(如XSSFWorkbook)一次性加载整个Excel到内存使用POI的SAX模式替代DOM模式:
// 正确写法:分段读取(以HSSF为例)
OPCPackage pkg = OPCPackage.open(file);
XSSFReader reader = new XSSFReader(pkg);
SheetIterator sheets = (SheetIterator) reader.getSheetsData();
while (sheets.hasNext()) {
try (InputStream stream = sheets.next()) {
Sheet sheet = new XSSFSheet(); // 流式解析
RowHandler rowHandler = new RowHandler();
sheet.onRow(row -> rowHandler.process(row));
sheet.process(stream); // 不加载全量数据
}
}
⚠️ 避坑指南:
基于MyBatis的批量插入+连接池优化:
// 分页批量插入(每1000条提交一次)
public void batchInsert(List<Product> list) {
SqlSession sqlSession = sqlSessionFactory.openSession(ExecutorType.BATCH);
ProductMapper mapper = sqlSession.getMapper(ProductMapper.class);
int pageSize = 1000;
for (int i = 0; i < list.size(); i += pageSize) {
List<Product> subList = list.subList(i, Math.min(i + pageSize, list.size()));
mapper.batchInsert(subList);
sqlSession.commit();
sqlSession.clearCache(); // 清理缓存
}
}
关键参数调优:
# MyBatis配置
mybatis.executor.batch.size=1000
# 连接池(Druid)
spring.datasource.druid.maxActive=50
spring.datasource.druid.initialSize=10
架构设计:

对于千万级数据,可采用分治策略:
阶段 | 操作 | 耗时对比 |
|---|---|---|
单线程 | 逐条读取+逐条插入 | 基准值100% |
批处理 | 分页读取+批量插入 | 时间降至5% |
多线程分片 | 按Sheet分片,并行处理 | 时间降至1% |
分布式分片 | 多节点协同处理(如Spring Batch集群) | 时间降至0.5% |
典型代码缺陷:
// 错误:边插入边校验,可能污染数据库
public void validateAndInsert(Product product) {
if (product.getPrice() < 0) {
throw new Exception("价格不能为负");
}
productMapper.insert(product);
}
✅ 正确实践:
解决方案:
配置要点:
// Spring Boot配置Prometheus指标
@Bean
public MeterRegistryCustomizer<PrometheusMeterRegistry> metrics() {
return registry -> registry.config().meterFilter(
new MeterFilter() {
@Override
public DistributionStatisticConfig configure(Meter.Id id, DistributionStatisticConfig config) {
return DistributionStatisticConfig.builder()
.percentiles(0.5, 0.95) // 统计中位数和95分位
.build().merge(config);
}
}
);
}
测试环境:
方案 | 内存峰值 | 耗时 | 吞吐量 |
|---|---|---|---|
传统逐条插入 | 2.5GB | 96分钟 | 173条/秒 |
分页读取+批量插入 | 500MB | 7分钟 | 2381条/秒 |
多线程分片+异步批量 | 800MB | 86秒 | 11627条/秒 |
分布式分片(3节点) | 300MB/节点 | 29秒 | 34482条/秒 |
Excel高性能导入的11条军规:
如果你正在为Excel导入性能苦恼,希望这篇文章能为你的系统打开一扇新的大门。
如果你有其他想了解的技术难题,欢迎在评论区留言!