nodeJs + js 大文件分片上传
简单的文件上传
一、准备文件上传的条件:
1、安装nodejs环境
2、安装vue环境
3、验证环境是否安装成功
二、实现上传步骤
1、前端部分使用 vue-cli 脚手架,搭建一个 demo 版本,能够实现简单交互:
<template>
<div id="app">
<input type="file" @change="uploadFile"></button>
</div>
</template>
2、安装 axios 实现与后端交互:
import Axios from 'axios' const Server = Axios.create({
baseURL: '/api'
}) export default Server
3、后端使用 node-koa 框架:
// index.js
const Koa = require('koa');
const router = require('koa-router')() // koa路由组件
const fs = require('fs') // 文件组件
const path = require('path') // 路径组件
const koaBody = require('koa-body') //解析上传文件的插件
const static = require('koa-static') // 访问服务器静态资源组件 const uploadPath = path.join(__dirname, 'public/uploads') // 文件上传目录 const app = new Koa(); // 实例化 koa // 定义静态资源访问规则
app.use(static('public', {
maxAge: 30 * 24 * 3600 * 1000 // 静态资源缓存时间 ms
})) app.use(koaBody({
multipart: true,
formidable: {
uploadDir: uploadPath,
maxFileSize: 10000 * 1024 * 1024 // 设置上传文件大小最大限制,默认20M
}
})) // 对于任何请求,app将调用该异步函数处理请求:
app.use(async (ctx, next) => {
console.log(`Process ${ctx.request.method} ${ctx.request.url}...`); ctx.set('Access-Control-Allow-Origin', '*');//*表示可以跨域任何域名都行 也可以填域名表示只接受某个域名
ctx.set('Access-Control-Allow-Headers', 'X-Requested-With,Content-Type,token');//可以支持的消息首部列表
ctx.set('Access-Control-Allow-Methods', 'PUT,POST,GET,DELETE,OPTIONS');//可以支持的提交方式
ctx.set('Content-Type', 'application/json;charset=utf-8');//请求头中定义的类型 if (ctx.request.method === 'OPTIONS') {
ctx.response.status = 200
} try {
await next();
} catch (err) {
console.log(err, 'errmessage')
ctx.response.status = err.statusCode || err.status || 500
ctx.response.body = {
errcode: 500,
msg: err.message
}
ctx.app.emit('error', err, ctx);
}
})
4、前端实现上传请求:
// vue
export default {
name: 'App',
methods: {
uploadFile(e) {
const file = e.target.files[0]
this.sendFile(file)
},
sendFile(file) {
let formdata = new FormData()
formdata.append("file", file) this.$http({
url: "/upload/file",
method: "post",
data: formdata,
headers: { "Content-Type": "multipart/form-data" }
}).then(({ data }) => {
console.log(data, 'upload/file')
})
}
}
}
5、node 接收文件接口:
router.post('/api/upload/file', function uploadFile(ctx) {
const files = ctx.request.files
const filePath = path.join(uploadPath, files.file.name) // 创建可读流
const reader = fs.createReadStream(files['file']['path']);
// 创建可写流
const upStream = fs.createWriteStream(filePath);
// 可读流通过管道写入可写流
reader.pipe(upStream); ctx.response.body = {
code: 0,
url: path.join('http://localhost:3000/uploads', files.file.name),
msg: '文件上传成功'
}
})
以上全部过程就实现了一个简单的文件上传功能。
这种实现方式上传功能对于小文件来说没什么问题,但当需求中碰到大文件的时候,能解决上传中遇到的各种问题,比如网速不好时、上传速度慢、断网情况、暂停上传、重复上传等问题。想要解决以上问题则需要优化前面的逻辑。
分片上传
1、分片逻辑如下:
- 由于前端已有 Blob Api 能操作文件二进制,因此最核心逻辑就是前端运用 Blob Api 对大文件进行文件分片切割,将一个大文件切成一个个小文件,然后将这些分片文件一个个上传。
- 现在的 http 请求基本是 1.1 版本,浏览器能够同时进行多个请求,这将用到一个叫 js 异步并发控制的处理逻辑。
- 当前端将所有分片上传完成之后,前端再通知后端进行分片合并成文件。
2、在进行文件分片处理之前,先介绍下 js 异步并发控制:
function sendRequest(arr, max = 6, callback) {
let i = 0 // 数组下标
let fetchArr = [] // 正在执行的请求 let toFetch = () => {
// 如果异步任务都已开始执行,剩最后一组,则结束并发控制
if (i === arr.length) {
return Promise.resolve()
} // 执行异步任务
let it = fetch(arr[i++])
// 添加异步事件的完成处理
it.then(() => {
fetchArr.splice(fetchArr.indexOf(it), 1)
})
fetchArr.push(it) let p = Promise.resolve()
// 如果并发数达到最大数,则等其中一个异步任务完成再添加
if (fetchArr.length >= max) {
p = Promise.race(fetchArr)
} // 执行递归
return p.then(() => toFetch())
} toFetch().then(() =>
// 最后一组全部执行完再执行回调函数
Promise.all(fetchArr).then(() => {
callback()
})
)
}
js 异步并发控制的逻辑是:运用 Promise 功能,定义一个数组 fetchArr,每执行一个异步处理往 fetchArr 添加一个异步任务,当异步操作完成之后,则将当前异步任务从 fetchArr 删除,则当异步 fetchArr 数量没有达到最大数的时候,就一直往 fetchArr 添加,如果达到最大数量的时候,运用 Promise.race Api,每完成一个异步任务就再添加一个,当所有最后一个异步任务放进了 fetchArr 的时候,则执行 Promise.all,等全部完成之后则执行回调函数。
上面这逻辑刚好适合大文件分片上传场景,将所有分片上传完成之后,执行回调请求后端合并分片。
前端改造:
1、定义一些全局参数:
export default {
name: 'App',
data() {
return {
remainChunks: [], // 剩余切片
isStop: false, // 暂停上传控制
precent: 0, // 上传百分比
uploadedChunkSize: 0, // 已完成上传的切片数
chunkSize: 2 * 1024 * 1024 // 切片大小
}
}
}
2、文件分割方法:
cutBlob(file) {
const chunkArr = [] // 所有切片缓存数组
const blobSlice = File.prototype.slice || File.prototype.mozSlice || File.prototype.webkitSlice // 切割Api不同浏览器分割处理
const spark = new SparkMD5.ArrayBuffer() // 文件hash处理
const chunkNums = Math.ceil(file.size / this.chunkSize) // 切片总数 return new Promise((resolve, reject) => {
const reader = new FileReader()
reader.readAsArrayBuffer(file)
reader.addEventListener('loadend', () => {
const content = reader.result // 生成文件hash
spark.append(content)
const hash = spark.end() let startIndex = ''
let endIndex = ''
let contentItem = '' // 文件切割
for(let i = 0; i < chunkNums; i++) {
startIndex = i * this.chunkSize
endIndex = startIndex + this.chunkSize
endIndex > file.size && (endIndex = file.size) contentItem = blobSlice.call(file, startIndex, endIndex) chunkArr.push({
index: i,
hash,
total: chunkNums,
name: file.name,
size: file.size,
chunk: contentItem
})
}
resolve({
chunkArr,
fileInfo: {
hash,
name: file.name,
size: file.size
}
})
})
reader.addEventListener('error', function _error(err) {
reject(err)
})
})
}
以上方式的处理逻辑:定义一个切片缓存数组,当文件进行分片之后,将缓存所有的分片信息、根据最大分片大小计算分片数量、计算整个文件的 hash (spark-md5) 值,这将意味着,只要文件内容不变,这 hash 值也将不变,这涉及到后面的秒传功能、然后进行文件分片。
3、改造上传方法:
async uploadFile(e) {
const file = e.target.files[0]
this.precent = 0
this.uploadedChunkSize = 0
// 如果文件大于分片大小5倍,则进行分片上传
if (file.size < this.chunkSize * 5) {
this.sendFile(file)
} else {
const chunkInfo = await this.cutBlob(file)
this.remainChunks = chunkInfo.chunkArr
this.fileInfo = chunkInfo.fileInfo this.mergeRequest()
}
}
注意:以上代码中设置当文件大小大于分片大小的5倍进行分片上传。
4、定义分片上传请求(sendRequest)和合并请求(chunkMerge):
mergeRequest() {
const chunks = this.remainChunks
const fileInfo = this.fileInfo
this.sendRequest(chunks, 6, () => {
// 请求合并
this.chunkMerge(fileInfo)
})
}
5、分片请求将结合上面提到的 JS 异步并发控制:
sendRequest(arr, max = 6, callback) {
let fetchArr = [] let toFetch = () => {
if (this.isStop) {
return Promise.reject('暂停上传')
}
if (!arr.length) {
return Promise.resolve()
} const chunkItem = arr.shift()
const it = this.sendChunk(chunkItem)
it.then(() => {
fetchArr.splice(fetchArr.indexOf(it), 1)
}, err => {
this.isStop = true
arr.unshift(chunkItem)
Promise.reject(err)
})
fetchArr.push(it) let p = Promise.resolve()
if (fetchArr.length >= max) {
p = Promise.race(fetchArr)
} return p.then(() => toFetch())
} toFetch().then(() => {
Promise.all(fetchArr).then(() => {
callback()
})
}, err => {
console.log(err)
})
}
6、切片上传请求:
sendChunk(item) {
let formdata = new FormData()
formdata.append("file", item.chunk)
formdata.append("hash", item.hash)
formdata.append("index", item.index)
formdata.append("name", item.name) return this.$http({
url: "/upload/snippet",
method: "post",
data: formdata,
headers: { "Content-Type": "multipart/form-data" },
onUploadProgress: (e) => {
const { loaded, total } = e
this.uploadedChunkSize += loaded < total ? 0 : +loaded
this.uploadedChunkSize > item.size && (this.uploadedChunkSize = item.size) this.precent = (this.uploadedChunkSize / item.size).toFixed(2) * 1000 / 10
}
})
}
7、切片合并请求:
chunkMerge(data) {
this.$http({
url: "/upload/merge",
method: "post",
data,
}).then(res => {
console.log(res.data)
})
}
前端处理文件分片逻辑代码已完成
后端处理
后端部分就只新增两个接口:分片上传请求和分片合并请求:
1、分片上传请求:
router.post('/api/upload/snippet', function snippet(ctx) {
let files = ctx.request.files
const { index, hash } = ctx.request.body // 切片上传目录
const chunksPath = path.join(uploadPath, hash, '/')
// 切片文件
const chunksFileName = chunksPath + hash + '-' + index if(!fs.existsSync(chunksPath)) {
fs.mkdirSync(chunksPath)
}
// 秒传,如果切片已上传,则立即返回
if (fs.existsSync(chunksFileName)) {
ctx.response.body = {
code: 0,
msg: '切片上传完成'
}
return
}
// 创建可读流
const reader = fs.createReadStream(files.file.path);
// 创建可写流
const upStream = fs.createWriteStream(chunksFileName);
// // 可读流通过管道写入可写流
reader.pipe(upStream); reader.on('end', () => {
// 文件上传成功后,删除本地切片文件
fs.unlinkSync(files.file.path)
}) ctx.response.body = {
code: 0,
msg: '切片上传完成'
}
})
2、分片合并请求:
/**
* 1、判断是否有切片hash文件夹
* 2、判断文件夹内的文件数量是否等于total
* 4、然后合并切片
* 5、删除切片文件信息
*/
router.post('/api/upload/merge', function uploadFile(ctx) {
const { total, hash, name } = ctx.request.body
const dirPath = path.join(uploadPath, hash, '/')
const filePath = path.join(uploadPath, name) // 合并文件 // 已存在文件,则表示已上传成功,这里逻辑判断不考虑所有情况
if (fs.existsSync(filePath)) {
ctx.response.body = {
code: 0,
url: path.join('http://localhost:3000/uploads', name),
msg: '文件上传成功'
}
// 如果没有切片hash文件夹则表明上传失败,这里逻辑判断不考虑所有情况
} else if (!fs.existsSync(dirPath)) {
ctx.response.body = {
code: -1,
msg: '文件上传失败'
}
} else {
const chunks = fs.readdirSync(dirPath) // 读取所有切片文件
fs.createWriteStream(filePath) // 创建可写存储文件 if(chunks.length !== total || !chunks.length) {
ctx.response.body = {
code: -1,
msg: '上传失败,切片数量不符'
}
} for(let i = 0; i < chunks.length; i++) {
// 将切片追加到存储文件
fs.appendFileSync(filePath, fs.readFileSync(dirPath + hash + '-' + i))
// 删除切片
fs.unlinkSync(dirPath + hash + '-' + i)
}
// 删除切片文件夹
fs.rmdirSync(dirPath)
// 合并文件成功
ctx.response.body = {
code: 0,
url: path.join('http://localhost:3000/uploads', name),
msg: '文件上传成功'
}
}
})
切片上传成功与图片合并截图:
其它
1、前端暂停,续传功能:
<template>
<div id="app">
<input type="file" @change="uploadFile">{{ precent }}%
<button type="button" v-if="!isStop" @click="stopUpload">暂停</button>
<button type="button" v-else @click="reupload">继续上传</button>
</div>
</template>
2、js 新增主动暂停和续传方法,比较简单,这里没有做停止正在执行的请求:
stopUpload() {
this.isStop = true
},
reupload() {
this.isStop = false
this.mergeRequest()
}
前端大文件的分片上传就差不多了。还可以优化的一点,在进行文件 hash 求值的时候,大文件的 hash 计算会比较慢,这里可以加上 html5 的新特性,用 Web Worker 新开一个线程进行 hash 计算。
GitHub:https://github.com/554246839/file-upload
nodeJs + js 大文件分片上传的更多相关文章
- js实现大文件分片上传的方法
借助js的Blob对象FormData对象可以实现大文件分片上传的功能,关于Blob和FormData的具体使用方法可以到如下地址去查看FormData 对象的使用Blob 对象的使用以下是实现代码, ...
- Node + js实现大文件分片上传基本原理及实践(一)
_ 阅读目录 一:什么是分片上传? 二:理解Blob对象中的slice方法对文件进行分割及其他知识点 三. 使用 spark-md5 生成 md5文件 四. 使用koa+js实现大文件分片上传实践 回 ...
- Webuploader 大文件分片上传
百度Webuploader 大文件分片上传(.net接收) 前阵子要做个大文件上传的功能,找来找去发现Webuploader还不错,关于她的介绍我就不再赘述. 动手前,在园子里找到了一篇不错的分片 ...
- java springboot 大文件分片上传处理
参考自:https://blog.csdn.net/u014150463/article/details/74044467 这里只写后端的代码,基本的思想就是,前端将文件分片,然后每次访问上传接口的时 ...
- vue+大文件分片上传
最近公司在使用vue做工程项目,实现大文件分片上传. 网上找了一天,发现网上很多代码都存在很多问题,最后终于找到了一个符合要求的项目. 工程如下: 对项目的大文件上传功能做出分析,怎么实现大文件分片上 ...
- iOS大文件分片上传和断点续传
总结一下大文件分片上传和断点续传的问题.因为文件过大(比如1G以上),必须要考虑上传过程网络中断的情况.http的网络请求中本身就已经具备了分片上传功能,当传输的文件比较大时,http协议自动会将文件 ...
- thinkphp+webuploader实现大文件分片上传
大文件分片上传,简单来说就是把大文件切分为小文件,然后再一个一个的上传,到最后由这些小文件再合并成原来的文件 webuploader下载地址及其文档:http://fex.baidu.com/webu ...
- 在React中使用WebUploader实现大文件分片上传的踩坑日记!
前段时间公司项目有个大文件分片上传的需求,项目是用React写的,大文件分片上传这个功能使用了WebUploader这个组件. 具体交互是: 1. 点击上传文件button后出现弹窗,弹窗内有选择文件 ...
- PHP大文件分片上传的实现方法
一.前言 在网站开发中,经常会有上传文件的需求,有的文件size太大直接上传,经常会导致上传过程中耗时太久,大量占用带宽资源,因此有了分片上传. 分片上传主要是前端将一个较大的文件分成等分的几片,标识 ...
随机推荐
- MyBatis源码分析(二)
MyBatis的xml配置(核心配置) configuration(配置) properties(属性) settings(设置) typeAliases(类型别名) typeHandlers(类型处 ...
- node子进程(Child Process)获取硬盘分区
node child_process文档 child_process.exec(command[, options][, callback]) command <string> The ...
- Scala 基础(二):sbt介绍与构建Scala项目
一.sbt简介 sbt是类似ANT.MAVEN的构建工具,全称为Simple build tool,是Scala事实上的标准构建工具. 主要特性: 原生支持编译Scala代码和与诸多Scala测试框架 ...
- matplot笔记
文件读取: data_train = pd.read_table('G:\python\PYproject\Titanic/train_20171215.txt',header=None,encodi ...
- mysql语句批量产生大量测试数据
CREATE TABLE `t_user` ( `id` bigint(20) NOT NULL AUTO_INCREMENT, `name` varchar(255) DEFAULT NULL, ` ...
- 【Nginx】面试官竟然问我Nginx如何生成缩略图,还好我看了这篇文章!!
写在前面 今天想写一篇使用Nginx如何生成缩略图的文章,想了半天题目也没想好,这个题目还是一名读者帮我起的.起因就是这位读者最近出去面试,面试官正好问了一个Nginx如何生成缩略图的问题.还别说,就 ...
- Tips1:考虑用静态工厂方法代替构造器
用静态工厂方法来代替构造器为外界提供对象 描述: 静态工厂方法代替构造器来给外界提供对象,创建对象依然是由构造器来完成的 创建对象和提供对象: 创建对象的方式: 构造器 提供对象来哦方式: 构造器 类 ...
- git和github连接权限(这是一个简便方法,不是很安全,建议大家还是用ssh解决)
在使用,git从github上clone下来代码后. 我们再工作区进行编辑,然后提交. 最后我们想要将我们的改变推送到github上. 但是往往这个时候,我们可能会面临这样的问题. 我们没有权限将代码 ...
- 【软件安装】在 CentOS 7(Linux)上部署流媒体服务(Tengine、ffmpeg、Centos 7、nginx-http-flv-module、OBS)
Centos7+Tengine+Nginx-http-flv-module+ffmpeg+OBS搭建流媒体服务器 一.需求和背景 视频直播是基于领先的内容接入.分发网络和大规模分布式实时转码技术打造的 ...
- Goorm永久免费的VPS
简介 咱在LOC(某知名主机论坛)看到的,当个容器玩玩还是不错的,不过10分钟后会休眠,目前还没有大佬可以解决,可以使用SSH连接,适合折腾,不适合建站等生产环境操作,请注意.https://www. ...