Java文件分片上传核心是前端切片+后端接收+合并还原,通过File.slice()切片、并发上传、Redis缓存分片状态、临时存储、校验MD5、断点续传及分布式锁保障合并一致性。

Java实现文件分片上传,核心在于前端切片 + 后端接收 + 合并还原。关键不是“一次传完”,而是把大文件切成小块、独立上传、服务端按序拼接,同时处理断点续传、重复校验和并发控制。
前端切片与上传调度
浏览器通过File.slice()(或slice()方法)将文件按固定大小(如2MB/片)拆分为Blob对象。每片携带唯一标识:文件ID、分片序号、总片数、MD5(可选)。推荐使用axios或fetch并发上传(建议限制3~5路并发),并记录每片的上传状态。
- 每片请求携带
Content-Range头(如bytes 0-2097151/10485760)便于服务端定位 - 上传失败时记录失败序号,支持重试而非整文件重传
- 最后一片上传成功后,前端触发“合并”请求,附带文件元信息(原始名、总大小、MD5等)
后端接收与临时存储
Spring Boot项目中,用@PostMapping("/upload/chunk")接收单个分片。不直接解析MultipartFile为内存流,而应使用InputStream逐块写入磁盘或对象存储(如MinIO、阿里云OSS)的临时目录,路径建议按fileId/chunk_{index}组织。
- 校验分片MD5(若前端提供),避免网络损坏导致数据错位
- 用Redis缓存当前文件的已上传分片列表(如
SET upload:fileId chunk_0,chunk_2,chunk_3),用于断点查询和完整性检查 - 设置分片过期时间(如24小时),防止临时文件堆积
分片合并与最终落盘
收到“合并”请求后,先校验Redis中是否所有分片均已上传(size == total)。确认无误后,按序读取各分片文件流,用Files.newOutputStream打开目标文件,逐片transferTo()写入,最后删除临时分片。
立即学习“Java免费学习笔记(深入)”;
- 合并过程加分布式锁(如Redis Lock),防止同一文件被多次触发合并
- 合并完成后计算最终文件MD5,与前端传入的原始MD5比对,不一致则返回错误并清理
- 成功后将文件信息存入数据库(含存储路径、访问URL、创建时间等),供后续下载或管理
断点续传与异常容错
用户刷新页面或网络中断后,前端再次上传前先发GET /upload/status?fileId=xxx请求。后端查Redis返回已传分片列表,前端跳过已成功上传的片,从第一个缺失序号继续。
- 上传过程中服务端异常(如OOM、宕机),需保证分片写入的原子性——写完再更新Redis,或采用“先存再记”的两阶段方式
- 合并失败时保留临时分片,下次合并请求可复用;若超时未合并,由定时任务清理孤立分片
- 生产环境建议接入日志追踪(如Sleuth)+ 监控(如Prometheus指标:分片上传成功率、平均耗时、合并失败率)










