vue 文件及描述信息一起上傳_用Vue實現一個大文件上傳和斷點續傳

前言

這段時間面試官都挺忙的,頻頻出現在博客文章標題,雖然我不是特別想蹭熱度,但是實在想不到好的標題了-。-,蹭蹭就蹭蹭 :)

事實上我在面試的時候確實被問到了這個問題,而且是一道在線 coding 的編程題,當時雖然思路正確,可惜最終也并不算完全答對

結束后花了一段時間整理了下思路,那么究竟該如何實現一個大文件上傳,以及在上傳中如何實現斷點續傳的功能呢?

本文將從零搭建前端和服務端,實現一個大文件上傳和斷點續傳的 demo

前端:vue?element-ui

服務端:nodejs

文章有誤解的地方,歡迎指出,將在第一時間改正,有更好的實現方式希望留下你的評論

大文件上傳

整體思路

前端

前端大文件上傳網上的大部分文章已經給出了解決方案,核心是利用 Blob.prototype.slice?方法,和數組的 slice 方法相似,調用的 slice 方法可以返回原文件的某個切片

這樣我們就可以根據預先設置好的切片最大數量將文件切分為一個個切片,然后借助 http 的可并發性,同時上傳多個切片,這樣從原本傳一個大文件,變成了同時傳多個小的文件切片,可以大大減少上傳時間

另外由于是并發,傳輸到服務端的順序可能會發生變化,所以我們還需要給每個切片記錄順序

服務端

服務端需要負責接受這些切片,并在接收到所有切片后合并切片

這里又引伸出兩個問題

何時合并切片,即切片什么時候傳輸完成

如何合并切片

第一個問題需要前端進行配合,前端在每個切片中都攜帶切片最大數量的信息,當服務端接受到這個數量的切片時自動合并,也可以額外發一個請求主動通知服務端進行切片的合并

第二個問題,具體如何合并切片呢?這里可以使用 nodejs 的 api?fs.appendFileSync,它可以同步地將數據追加到指定文件,也就是說,當服務端接受到所有切片后,先創建一個最終的文件,然后將所有切片逐步合并到這個文件中

talk is cheap,show me the code,接著我們用代碼實現上面的思路

前端部分

前端使用 Vue 作為開發框架,對界面沒有太大要求,原生也可以,考慮到美觀使用 element-ui 作為 UI 框架

上傳控件

首先創建選擇文件的控件,監聽 change 事件以及上傳按鈕

上傳

export default {

data: () => ({

container: {

file: null

}

}),

methods: {

async handleFileChange(e) {

const [file] = e.target.files;

if (!file) return;

Object.assign(this.$data, this.$options.data());

this.container.file = file;

},

async handleUpload() {}

}

};

請求邏輯

考慮到通用性,這里沒有用第三方的請求庫,而是用原生 XMLHttpRequest 做一層簡單的封裝來發請求

request({

url,

method = "post",

data,

headers = {},

requestList

}) {

return new Promise(resolve => {

const xhr = new XMLHttpRequest();

xhr.open(method, url);

Object.keys(headers).forEach(key =>

xhr.setRequestHeader(key, headers[key])

);

xhr.send(data);

xhr.onload = e => {

resolve({

data: e.target.response

});

};

});

}

復制代碼

上傳切片

接著實現比較重要的上傳功能,上傳需要做兩件事

對文件進行切片

將切片傳輸給服務端

上傳

+ const LENGTH = 10; // 切片數量

export default {

data: () => ({

container: {

file: null,

+ data: []

}

}),

methods: {

request() {},

async handleFileChange() {},

+ // 生成文件切片

+ createFileChunk(file, length = LENGTH) {

+ const fileChunkList = [];

+ const chunkSize = Math.ceil(file.size / length);

+ let cur = 0;

+ while (cur < file.size) {

+ fileChunkList.push({ file: file.slice(cur, cur + chunkSize) });

+ cur += chunkSize;

+ }

+ return fileChunkList;

+ },

+ // 上傳切片

+ async uploadChunks() {

+ const requestList = this.data

+ .map(({ chunk }) => {

+ const formData = new FormData();

+ formData.append("chunk", chunk);

+ formData.append("hash", hash);

+ formData.append("filename", this.container.file.name);

+ return { formData };

+ })

+ .map(async ({ formData }) =>

+ this.request({

+ url: "http://localhost:3000",

+ data: formData

+ })

+ );

+ await Promise.all(requestList); // 并發切片

+ },

+ async handleUpload() {

+ if (!this.container.file) return;

+ const fileChunkList = this.createFileChunk(this.container.file);

+ this.data = fileChunkList.map(({ file },index) => ({

+ chunk: file,

+ hash: this.container.file.name + "-" + index // 文件名 + 數組下標

+ }));

+ await this.uploadChunks();

+ }

}

};

當點擊上傳按鈕時,調用?createFileChunk?將文件切片,切片數量通過一個常量 Length 控制,這里設置為 10,即將文件分成 10 個切片上傳

createFileChunk 內使用 while 循環和 slice 方法將切片放入?fileChunkList?數組中返回

在生成文件切片時,需要給每個切片一個標識作為 hash,這里暫時使用文件名 + 下標,這樣后端可以知道當前切片是第幾個切片,由于之后的合并切片

隨后調用?uploadChunks?上傳所有的文件切片,將文件切片,切片 hash,以及文件名放入 FormData 中,再調用上一步的?request?函數返回一個 proimise,最后調用 Promise.all 并發上傳所有的切片

發送合并請求

這里使用整體思路中提到的第二種合并切片的方式,即前端主動通知服務端進行合并,所以前端還需要額外發請求,服務端接受到這個請求時主動合并切片

上傳

export default {

data: () => ({

container: {

file: null

},

data: []

}),

methods: {

request() {},

async handleFileChange() {},

createFileChunk() {},

// 上傳切片,同時過濾已上傳的切片

async uploadChunks() {

const requestList = this.data

.map(({ chunk }) => {

const formData = new FormData();

formData.append("chunk", chunk);

formData.append("hash", hash);

formData.append("filename", this.container.file.name);

return { formData };

})

.map(async ({ formData }) =>

this.request({

url: "http://localhost:3000",

data: formData

})

);

await Promise.all(requestList);

+ // 合并切片

+ await this.mergeRequest();

},

+ async mergeRequest() {

+ await this.request({

+ url: "http://localhost:3000/merge",

+ headers: {

+ "content-type": "application/json"

+ },

+ data: JSON.stringify({

+ filename: this.container.file.name

+ })

+ });

+ },

async handleUpload() {}

}

};

服務端部分

簡單使用 http 模塊搭建服務端

const http = require("http");

const server = http.createServer();

server.on("request", async (req, res) => {

res.setHeader("Access-Control-Allow-Origin", "*");

res.setHeader("Access-Control-Allow-Headers", "*");

if (req.method === "OPTIONS") {

res.status = 200;

res.end();

return;

}

});

server.listen(3000, () => console.log("正在監聽 3000 端口"));

接受切片

使用?multiparty?包處理前端傳來的 FormData

在 multiparty.parse 的回調中,files 參數保存了 FormData 中文件,fields 參數保存了 FormData 中非文件的字段

const http = require("http");

const path = require("path");

const fse = require("fs-extra");

const multiparty = require("multiparty");

const server = http.createServer();

+ const UPLOAD_DIR = path.resolve(__dirname, "..", "target"); // 大文件存儲目錄

server.on("request", async (req, res) => {

res.setHeader("Access-Control-Allow-Origin", "*");

res.setHeader("Access-Control-Allow-Headers", "*");

if (req.method === "OPTIONS") {

res.status = 200;

res.end();

return;

}

+ const multipart = new multiparty.Form();

+ multipart.parse(req, async (err, fields, files) => {

+ if (err) {

+ return;

+ }

+ const [chunk] = files.chunk;

+ const [hash] = fields.hash;

+ const [filename] = fields.filename;

+ const chunkDir = `${UPLOAD_DIR}/${filename}`;

+ // 切片目錄不存在,創建切片目錄

+ if (!fse.existsSync(chunkDir)) {

+ await fse.mkdirs(chunkDir);

+ }

+ // 重命名文件

+ await fse.rename(chunk.path, `${chunkDir}/${hash}`);

+ res.end("received file chunk");

+ });

});

server.listen(3000, () => console.log("正在監聽 3000 端口"));

查看 multiparty 處理后的 chunk 對象,path 是存儲臨時文件的路徑,size 是臨時文件大小,在 multiparty 文檔中提到可以使用 fs.rename 重命名的方式移動臨時文件,也就是文件切片

在接受文件切片時,需要先創建存儲切片的文件夾,由于前端在發送每個切片時額外攜帶了唯一值 hash,所以以 hash 作為文件名,將切片從臨時路徑移動切片文件夾中,最后的結果如下

合并切片

在接收到前端發送的合并請求后,服務端將文件夾下的所有切片進行合并

const http = require("http");

const path = require("path");

const fse = require("fs-extra");

const server = http.createServer();

const UPLOAD_DIR = path.resolve(__dirname, "..", "target"); // 大文件存儲目錄

+ const resolvePost = req =>

+ new Promise(resolve => {

+ let chunk = "";

+ req.on("data", data => {

+ chunk += data;

+ });

+ req.on("end", () => {

+ resolve(JSON.parse(chunk));

+ });

+ });

+ // 合并切片

+ const mergeFileChunk = async (filePath, filename) => {

+ const chunkDir = `${UPLOAD_DIR}/${filename}`;

+ const chunkPaths = await fse.readdir(chunkDir);

+ await fse.writeFile(filePath, "");

+ chunkPaths.forEach(chunkPath => {

+ fse.appendFileSync(filePath, fse.readFileSync(`${chunkDir}/${chunkPath}`));

+ fse.unlinkSync(`${chunkDir}/${chunkPath}`);

+ });

+ fse.rmdirSync(chunkDir); // 合并后刪除保存切片的目錄

+ };

server.on("request", async (req, res) => {

res.setHeader("Access-Control-Allow-Origin", "*");

res.setHeader("Access-Control-Allow-Headers", "*");

if (req.method === "OPTIONS") {

res.status = 200;

res.end();

return;

}

+ if (req.url === "/merge") {

+ const data = await resolvePost(req);

+ const { filename } = data;

+ const filePath = `${UPLOAD_DIR}/${filename}`;

+ await mergeFileChunk(filePath, filename);

+ res.end(

+ JSON.stringify({

+ code: 0,

+ message: "file merged success"

+ })

+ );

+ }

});

server.listen(3000, () => console.log("正在監聽 3000 端口"));

由于前端在發送合并請求時會攜帶文件名,服務端根據文件名可以找到上一步創建的切片文件夾

接著使用 fs.writeFileSync 先創建一個空文件,這個空文件的文件名就是切片文件夾名 + 后綴名組合而成,隨后通過 fs.appendFileSync 從切片文件夾中不斷將切片合并到空文件中,每次合并完成后刪除這個切片,等所有切片都合并完畢后最后刪除切片文件夾

至此一個簡單的大文件上傳就完成了,接下來我們再此基礎上擴展一些額外的功能

顯示上傳進度條

上傳進度分兩種,一個是每個切片的上傳進度,另一個是整個文件的上傳進度,而整個文件的上傳進度是基于每個切片上傳進度計算而來,所以我們先實現切片的上傳進度

切片進度條

XMLHttpRequest 原生支持上傳進度的監聽,只需要監聽 upload.onprogress 即可,我們在原來的 request 基礎上傳入 onProgress 參數,給 XMLHttpRequest 注冊監聽事件

// xhr

request({

url,

method = "post",

data,

headers = {},

+ onProgress = e => e,

requestList

}) {

return new Promise(resolve => {

const xhr = new XMLHttpRequest();

+ xhr.upload.onprogress = onProgress;

xhr.open(method, url);

Object.keys(headers).forEach(key =>

xhr.setRequestHeader(key, headers[key])

);

xhr.send(data);

xhr.onload = e => {

resolve({

data: e.target.response

});

};

});

}

由于每個切片都需要觸發獨立的監聽事件,所以還需要一個工廠函數,根據傳入的切片返回不同的監聽函數

在原先的前端上傳邏輯中新增監聽函數部分

// 上傳切片,同時過濾已上傳的切片

async uploadChunks(uploadedList = []) {

const requestList = this.data

.map(({ chunk }) => {

const formData = new FormData();

formData.append("chunk", chunk);

formData.append("filename", this.container.file.name);

return { formData };

})

.map(async ({ formData }) =>

this.request({

url: "http://localhost:3000",

data: formData,

+ onProgress: this.createProgressHandler(this.data[index]),

})

);

await Promise.all(requestList);

// 合并切片

await this.mergeRequest();

},

async handleUpload() {

if (!this.container.file) return;

const fileChunkList = this.createFileChunk(this.container.file);

this.data = fileChunkList.map(({ file },index) => ({

chunk: file,

+ index,

hash: this.container.file.name + "-" + index

+ percentage:0

}));

await this.uploadChunks();

}

+ createProgressHandler(item) {

+ return e => {

+ item.percentage = parseInt(String((e.loaded / e.total) * 100));

+ };

+ }

每個切片在上傳時都會通過監聽函數更新 data 數組對應元素的 percentage 屬性,之后把將 data 數組放到視圖中展示即可

文件進度條

將每個切片已上傳的部分累加,除以整個文件的大小,就能得出當前文件的上傳進度,所以這里使用 Vue 計算屬性

computed: {

uploadPercentage() {

if (!this.container.file || !this.data.length) return 0;

const loaded = this.data

.map(item => item.size * item.percentage)

.reduce((acc, cur) => acc + cur);

return parseInt((loaded / this.container.file.size).toFixed(2));

}

}

最終視圖如下

斷點續傳

斷點續傳的原理在于前端/服務端需要記住已上傳的切片,這樣下次上傳就可以跳過之前已上傳的部分,有兩種方案實現記憶的功能

前端使用 localStorage 記錄已上傳的切片 hash

服務端保存已上傳的切片 hash,前端每次上傳前向服務端獲取已上傳的切片

第一種是前端的解決方案,第二種是服務端,而前端方案有一個缺陷,如果換了個瀏覽器就失去了記憶的效果,所以這里選取后者

生成 hash

無論是前端還是服務端,都必須要生成文件和切片的 hash,之前我們使用文件名 + 切片下標作為切片 hash,這樣做文件名一旦修改就失去了效果,而事實上只要文件內容不變,hash 就不應該變化,所以正確的做法是根據文件內容生成 hash,所以我們修改一下 hash 的生成規則

這里用到另一個庫?spark-md5,它可以根據文件內容計算出文件的 hash 值,另外考慮到如果上傳一個超大文件,讀取文件內容計算 hash 是非常耗費時間的,并且會引起 UI 的阻塞,導致頁面假死狀態,所以我們使用 web-worker 在 worker 線程計算 hash,這樣用戶仍可以在主界面正常的交互

由于實例化 web-worker 時,參數是一個 js 文件路徑且不能跨域,所以我們單獨創建一個 hash.js 文件放在 public 目錄下,另外在 worker 中也是不允許訪問 dom 的,但它提供了importScripts?函數用于導入外部腳本,通過它導入 spark-md5

// /public/hash.js

self.importScripts("/spark-md5.min.js"); // 導入腳本

// 生成文件 hash

self.onmessage = e => {

const { fileChunkList } = e.data;

const spark = new self.SparkMD5.ArrayBuffer();

let percentage = 0;

let count = 0;

const loadNext = index => {

const reader = new FileReader();

reader.readAsArrayBuffer(fileChunkList[index].file);

reader.onload = e => {

count++;

spark.append(e.target.result);

if (count === fileChunkList.length) {

self.postMessage({

percentage: 100,

hash: spark.end()

});

self.close();

} else {

percentage += 100 / fileChunkList.length;

self.postMessage({

percentage

});

// 遞歸計算下一個切片

loadNext(count);

}

};

};

loadNext(0);

};

在 worker 線程中,接受文件切片 fileChunkList,利用 FileReader 讀取每個切片的 ArrayBuffer 并不斷傳入 spark-md5 中,每計算完一個切片通過 postMessage 向主線程發送一個進度事件,全部完成后將最終的 hash 發送給主線程

spark-md5 需要根據所有切片才能算出一個 hash 值,不能直接將整個文件放入計算,否則即使不同文件也會有相同的 hash,具體可以看官方文檔

spark-md5(https://www.npmjs.com/package/spark-md5)

接著編寫主線程與 worker 線程通訊的邏輯

+ // 生成文件 hash(web-worker)

+ calculateHash(fileChunkList) {

+ return new Promise(resolve => {

+ // 添加 worker 屬性

+ this.container.worker = new Worker("/hash.js");

+ this.container.worker.postMessage({ fileChunkList });

+ this.container.worker.onmessage = e => {

+ const { percentage, hash } = e.data;

+ this.hashPercentage = percentage;

+ if (hash) {

+ resolve(hash);

+ }

+ };

+ });

},

async handleUpload() {

if (!this.container.file) return;

const fileChunkList = this.createFileChunk(this.container.file);

+ this.container.hash = await this.calculateHash(fileChunkList);

this.data = fileChunkList.map(({ file },index) => ({

+ fileHash: this.container.hash,

chunk: file,

hash: this.container.file.name + "-" + index, // 文件名 + 數組下標

percentage:0

}));

await this.uploadChunks();

}

主線程使用?postMessage?給 worker 線程傳入所有切片 fileChunkList,并監聽 worker 線程發出的 postMessage 事件拿到文件 hash

加上顯示計算 hash 的進度條,看起來像這樣

至此前端需要將之前用文件名作為 hash 的地方改寫為 workder 返回的這個 hash

服務端則使用 hash 作為切片文件夾名,hash + 下標作為切片名,hash + 擴展名作為文件名,沒有新增的邏輯

文件秒傳

在實現斷點續傳前先簡單介紹一下文件秒傳

所謂的文件秒傳,即在服務端已經存在了上傳的資源,所以當用戶再次上傳時會直接提示上傳成功

文件秒傳需要依賴上一步生成的 hash,即在上傳前,先計算出文件 hash,并把 hash 發送給服務端進行驗證,由于 hash 的唯一性,所以一旦服務端能找到 hash 相同的文件,則直接返回上傳成功的信息即可

+ async verifyUpload(filename, fileHash) {

+ const { data } = await this.request({

+ url: "http://localhost:3000/verify",

+ headers: {

+ "content-type": "application/json"

+ },

+ data: JSON.stringify({

+ filename,

+ fileHash

+ })

+ });

+ return JSON.parse(data);

+ },

async handleUpload() {

if (!this.container.file) return;

const fileChunkList = this.createFileChunk(this.container.file);

this.container.hash = await this.calculateHash(fileChunkList);

+ const { shouldUpload } = await this.verifyUpload(

+ this.container.file.name,

+ this.container.hash

+ );

+ if (!shouldUpload) {

+ this.$message.success("秒傳:上傳成功");

+ return;

+ }

this.data = fileChunkList.map(({ file }, index) => ({

fileHash: this.container.hash,

index,

hash: this.container.hash + "-" + index,

chunk: file,

percentage: 0

}));

await this.uploadChunks();

}

復制代碼

秒傳其實就是給用戶看的障眼法,實質上根本沒有上傳

服務端的邏輯非常簡單,新增一個驗證接口,驗證文件是否存在即可

+ const extractExt = filename =>

+ filename.slice(filename.lastIndexOf("."), filename.length); // 提取后綴名

const UPLOAD_DIR = path.resolve(__dirname, "..", "target"); // 大文件存儲目錄

const resolvePost = req =>

new Promise(resolve => {

let chunk = "";

req.on("data", data => {

chunk += data;

});

req.on("end", () => {

resolve(JSON.parse(chunk));

});

});

server.on("request", async (req, res) => {

if (req.url === "/verify") {

+ const data = await resolvePost(req);

+ const { fileHash, filename } = data;

+ const ext = extractExt(filename);

+ const filePath = `${UPLOAD_DIR}/${fileHash}${ext}`;

+ if (fse.existsSync(filePath)) {

+ res.end(

+ JSON.stringify({

+ shouldUpload: false

+ })

+ );

+ } else {

+ res.end(

+ JSON.stringify({

+ shouldUpload: true

+ })

+ );

+ }

}

});

server.listen(3000, () => console.log("正在監聽 3000 端口"));

暫停上傳

講完了生成 hash 和文件秒傳,回到斷點續傳

斷點續傳顧名思義即斷點 + 續傳,所以我們第一步先實現“斷點”,也就是暫停上傳

原理是使用 XMLHttpRequest 的?abort?方法,可以取消一個 xhr 請求的發送,為此我們需要將上傳每個切片的 xhr 對象保存起來,我們再改造一下 request 方法

request({

url,

method = "post",

data,

headers = {},

onProgress = e => e,

+ requestList

}) {

return new Promise(resolve => {

const xhr = new XMLHttpRequest();

xhr.upload.onprogress = onProgress;

xhr.open(method, url);

Object.keys(headers).forEach(key =>

xhr.setRequestHeader(key, headers[key])

);

xhr.send(data);

xhr.onload = e => {

+ // 將請求成功的 xhr 從列表中刪除

+ if (requestList) {

+ const xhrIndex = requestList.findIndex(item => item === xhr);

+ requestList.splice(xhrIndex, 1);

+ }

resolve({

data: e.target.response

});

};

+ // 暴露當前 xhr 給外部

+ requestList?.push(xhr);

});

},

這樣在上傳切片時傳入 requestList 數組作為參數,request 方法就會將所有的 xhr 保存在數組中了

每當一個切片上傳成功時,將對應的 xhr 從 requestList 中刪除,所以 requestList 中只保存正在上傳切片的 xhr

之后新建一個暫停按鈕,當點擊按鈕時,調用保存在 requestList 中 xhr 的 abort 方法,即取消并清空所有正在上傳的切片

handlePause() {

this.requestList.forEach(xhr => xhr?.abort());

this.requestList = [];

}

點擊暫停按鈕可以看到 xhr 都被取消了

恢復上傳

之前在介紹斷點續傳的時提到使用第二種服務端存儲的方式實現續傳

由于當文件切片上傳后,服務端會建立一個文件夾存儲所有上傳的切片,所以每次前端上傳前可以調用一個接口,服務端將已上傳的切片的切片名返回,前端再跳過這些已經上傳切片,這樣就實現了“續傳”的效果

而這個接口可以和之前秒傳的驗證接口合并,前端每次上傳前發送一個驗證的請求,返回兩種結果

服務端已存在該文件,不需要再次上傳

服務端不存在該文件或者已上傳部分文件切片,通知前端進行上傳,并把已上傳的文件切片返回給前端

所以我們改造一下之前文件秒傳的服務端驗證接口

const extractExt = filename =>

filename.slice(filename.lastIndexOf("."), filename.length); // 提取后綴名

const UPLOAD_DIR = path.resolve(__dirname, "..", "target"); // 大文件存儲目錄

const resolvePost = req =>

new Promise(resolve => {

let chunk = "";

req.on("data", data => {

chunk += data;

});

req.on("end", () => {

resolve(JSON.parse(chunk));

});

});

+ // 返回已經上傳切片名列表

+ const createUploadedList = async fileHash =>

+ fse.existsSync(`${UPLOAD_DIR}/${fileHash}`)

+ ? await fse.readdir(`${UPLOAD_DIR}/${fileHash}`)

+ : [];

server.on("request", async (req, res) => {

if (req.url === "/verify") {

const data = await resolvePost(req);

const { fileHash, filename } = data;

const ext = extractExt(filename);

const filePath = `${UPLOAD_DIR}/${fileHash}${ext}`;

if (fse.existsSync(filePath)) {

res.end(

JSON.stringify({

shouldUpload: false

})

);

} else {

res.end(

JSON.stringify({

shouldUpload: true,

+ uploadedList: await createUploadedList(fileHash)

})

);

}

}

});

server.listen(3000, () => console.log("正在監聽 3000 端口"));

接著回到前端,前端有兩個地方需要調用驗證的接口

點擊上傳時,檢查是否需要上傳和已上傳的切片

點擊暫停后的恢復上傳,返回已上傳的切片

新增恢復按鈕并改造原來上傳切片的邏輯

type="file"

@change="handleFileChange"

/>

上傳

暫停

+ 恢復

//...

+ async handleResume() {

+ const { uploadedList } = await this.verifyUpload(

+ this.container.file.name,

+ this.container.hash

+ );

+ await this.uploadChunks(uploadedList);

},

async handleUpload() {

if (!this.container.file) return;

const fileChunkList = this.createFileChunk(this.container.file);

this.container.hash = await this.calculateHash(fileChunkList);

+ const { shouldUpload, uploadedList } = await this.verifyUpload(

this.container.file.name,

this.container.hash

);

if (!shouldUpload) {

this.$message.success("秒傳:上傳成功");

return;

}

this.data = fileChunkList.map(({ file }, index) => ({

fileHash: this.container.hash,

index,

hash: this.container.hash + "-" + index,

chunk: file,

percentage: 0

}));

+ await this.uploadChunks(uploadedList);

},

// 上傳切片,同時過濾已上傳的切片

+ async uploadChunks(uploadedList = []) {

const requestList = this.data

+ .filter(({ hash }) => !uploadedList.includes(hash))

.map(({ chunk, hash, index }) => {

const formData = new FormData();

formData.append("chunk", chunk);

formData.append("hash", hash);

formData.append("filename", this.container.file.name);

formData.append("fileHash", this.container.hash);

return { formData, index };

})

.map(async ({ formData, index }) =>

this.request({

url: "http://localhost:3000",

data: formData,

onProgress: this.createProgressHandler(this.data[index]),

requestList: this.requestList

})

);

await Promise.all(requestList);

// 之前上傳的切片數量 + 本次上傳的切片數量 = 所有切片數量時

// 合并切片

+ if (uploadedList.length + requestList.length === this.data.length) {

await this.mergeRequest();

+ }

}

這里給原來上傳切片的函數新增 uploadedList 參數,即上圖中服務端返回的切片名列表,通過 filter 過濾掉已上傳的切片,并且由于新增了已上傳的部分,所以之前合并接口的觸發條件做了一些改動

到這里斷點續傳的功能基本完成了

進度條改進

雖然實現了斷點續傳,但還需要修改一下進度條的顯示規則,否則在暫停上傳/接收到已上傳切片時的進度條會出現偏差

切片進度條

由于在點擊上傳/恢復上傳時,會調用驗證接口返回已上傳的切片,所以需要將已上傳切片的進度變成 100%

async handleUpload() {

if (!this.container.file) return;

const fileChunkList = this.createFileChunk(this.container.file);

this.container.hash = await this.calculateHash(fileChunkList);

const { shouldUpload, uploadedList } = await this.verifyUpload(

this.container.file.name,

this.container.hash

);

if (!shouldUpload) {

this.$message.success("秒傳:上傳成功");

return;

}

this.data = fileChunkList.map(({ file }, index) => ({

fileHash: this.container.hash,

index,

hash: this.container.hash + "-" + index,

chunk: file,

+ percentage: uploadedList.includes(index) ? 100 : 0

}));

await this.uploadChunks(uploadedList);

},

uploadedList 會返回已上傳的切片,在遍歷所有切片時判斷當前切片是否在已上傳列表里即可

文件進度條

之前說到文件進度條是一個計算屬性,根據所有切片的上傳進度計算而來,這就遇到了一個問題

點擊暫停會取消并清空切片的 xhr 請求,此時如果已經上傳了一部分,就會發現文件進度條有倒退的現象

當點擊恢復時,由于重新創建了 xhr 導致切片進度清零,所以總進度條就會倒退

解決方案是創建一個“假”的進度條,這個假進度條基于文件進度條,但只會停止和增加,然后給用戶展示這個假的進度條

這里我們使用 Vue 的監聽屬性

data: () => ({

+ fakeUploadPercentage: 0

}),

computed: {

uploadPercentage() {

if (!this.container.file || !this.data.length) return 0;

const loaded = this.data

.map(item => item.size * item.percentage)

.reduce((acc, cur) => acc + cur);

return parseInt((loaded / this.container.file.size).toFixed(2));

}

},

watch: {

+ uploadPercentage(now) {

+ if (now > this.fakeUploadPercentage) {

+ this.fakeUploadPercentage = now;

+ }

}

},

當 uploadPercentage 即真的文件進度條增加時,fakeUploadPercentage 也增加,一旦文件進度條后退,假的進度條只需停止即可

至此一個大文件上傳 + 斷點續傳的解決方案就完成了

總結

大文件上傳

前端上傳大文件時使用 Blob.prototype.slice 將文件切片,并發上傳多個切片,最后發送一個合并的請求通知服務端合并切片

服務端接收切片并存儲,收到合并請求后使用 fs.appendFileSync 對多個切片進行合并

原生 XMLHttpRequest 的 upload.onprogress 對切片上傳進度的監聽

使用 Vue 計算屬性根據每個切片的進度算出整個文件的上傳進度

斷點續傳

使用 spart-md5 根據文件內容算出文件 hash

通過 hash 可以判斷服務端是否已經上傳該文件,從而直接提示用戶上傳成功(秒傳)

通過 XMLHttpRequest 的 abort 方法暫停切片的上傳

上傳前服務端返回已經上傳的切片名,前端跳過這些切片的上傳

源代碼

源代碼增加了一些按鈕的狀態,交互更加友好,文章表達比較晦澀的地方可以跳轉到源代碼查看

file-upload(https://github.com/yeyan1996/file-upload)

控制網絡速度.

文章來源:

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/260061.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/260061.shtml
英文地址,請注明出處:http://en.pswp.cn/news/260061.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

c語言函數聲明定義參數命名,C語言函數聲明與定義

C語言函數聲明與定義教程在C語言函數聲明與定義語法type funcName(paramType1 param1, paramType2 param2){// 執行語句...return val}參數參數描述type函數的返回值類型&#xff0c;如果沒有任何返回值&#xff0c;則寫 void&#xff0c;不可以死省略不寫。funcName函數名。pa…

gcc g++ Linux下動態庫_靜態庫

關于Unix靜態庫和動態庫的分析 基本概念 庫有動態與靜態兩種&#xff0c;動態通常用.so為后綴&#xff0c;靜態用.a為后綴。 例如&#xff1a;libhello.so libhello.a 為了在同一系統中使用不同版本的庫&#xff0c;可以在庫文件名后加上版本號為后綴,例如&#xff1a; libhell…

SNF開發平臺WinForm之五-高級查詢使用說明-SNF快速開發平臺3.3-Spring.Net.Framework

5.1運行效果&#xff1a; 5.2開發實現&#xff1a; 1、按上面效果來說&#xff0c;先來看一下在程序當中如果調用。第一步在頁面拖拽一個按鈕為“高級查詢”&#xff0c;事件上寫下如下代碼&#xff1a; 如果是單表查詢的話&#xff0c;只需要傳GridView就行&#xff0c;如果是…

【轉】PowerDesigner表結構和字段大小寫轉換

【轉自】http://blog.csdn.net/xysh1991/article/details/8016192 使用方法&#xff1a;進入PowerDesigner&#xff0c;打開一個PDM&#xff0c;在菜單欄找到&#xff1a;Tools – Excute Commands – Edit/Run Script&#xff0c;或者直接按CtrlShiftX調出腳本執行窗口&#x…

新唐c語言怎么計算指數運算,C語言位域精解

有些信息在存儲時&#xff0c;并不需要占用一個完整的字節&#xff0c; 而只需占幾個或一個二進制位。例如在存放一個開關量時&#xff0c;只有0和1 兩種狀態&#xff0c;用一位二進位即可。為了節省存儲空間&#xff0c;并使處理簡便&#xff0c;&#xff23;語言又提供了一種…

華為榮耀5cvs華為v9play_華為榮耀v9play和榮耀9哪個好_華為榮耀v9play和榮耀9對比評測_飛翔教程...

華為榮耀v9play是華為最新發布的手機&#xff0c;這款手機可以說是華為榮耀v9的青春版&#xff0c;把這款手機跟華為榮耀9對比起來哪款更好呢&#xff1f;下面就為大家帶來詳細的華為榮耀v9play和榮耀9對比評測&#xff01;榮耀9介紹&#xff1a;6.12日下午&#xff0c;榮耀在上…

頸椎病防治指南

2019獨角獸企業重金招聘Python工程師標準>>> 長期從事財會、寫作、打字、辦公室等職業的工作人員&#xff0c;由于長期低頭伏案工作&#xff0c;使頸椎長時間處于屈曲位或某些特定體位&#xff0c;不僅使頸椎間盤內的壓力增高&#xff0c;而且也使頸部肌肉長期處于非…

如何熟悉一個開源項目

轉自&#xff1a;http://www.blogjava.net/killme2008/archive/2012/05/22/378885.html 你有個任務&#xff0c;需要用到某個開源項目;或者老大交代你一個事情&#xff0c;讓你去了解某個東西。怎么下手呢&#xff1f;如何開始呢&#xff1f;我的習慣是這樣&#xff1a; 1.首先…

離散序列卷積c語言,數電實驗一離散卷積的C語言編程.ppt-資源下載在線文庫www.lddoc.cn...

數電實驗一 離散卷積的C語言編程.ppt實驗一 離散卷積的C語言編程實驗,DSP實驗室,實驗性質,綜合設計性實驗,實驗目的,1 了解和認識常用的各種信號&#xff1b; 2 掌握卷積的定義和計算方法&#xff1b; 3 掌握在計算機中生成以及繪制信號序列圖的方法。,實驗原理,離散時間系統中…

三個數差的平方公式推導過程_平方差公式證明推導過程及運用詳解(數學簡便計算方法之一)...

?平方差公式是小學奧數計算中的常用公式。通常寫為&#xff1a;a-b(ab)x(a-b)它的幾何方法推導過程是這樣的&#xff1a;如下圖所示&#xff0c;四邊形ABCD和四邊形DEFG為正方形&#xff0c;邊長分別為a和b&#xff0c;求陰影部分面積。純手繪顯然&#xff0c;陰影部分面積有2…

zabbix簡單介紹(1)

zabbix概念是一個基于WEB界面的提供分布式系統監控以及網絡監視功能的企業級的開源解決方案。zabbix監控途徑zabbix agentsnmp agentipmi agent(硬件)agentless monitoring(無agent的監控)web monitoring 監控web頁面,下載(速度),響應,認證等(web本身的服務狀態)database monit…

c語言集合除去相同元素,使用C語言去掉字符串集合重復元素

有一種最直接的方法可以去掉一個集合中重復的元素&#xff0c;這種方法據說就是“交給下面去做”&#xff0c;然而有時候&#xff0c;你自己動手去做一下也是不錯的。如果交給下面去做&#xff0c;最直接的選擇就是使用map&#xff0c;在java中&#xff0c;我們有HashMap&#…

Zynq7000系列之芯片引腳功能綜述

很多人做了很久的FPGA&#xff0c;知道怎么去給信號分配引腳&#xff0c;卻對這些引腳的功能及其資源限制知之甚少&#xff1b;在第一章里對Zynq7000系列的系統框架進行了分析和論述&#xff0c;對Zynq7000系列的基本資源和概念有了大致的認識&#xff0c;然而要很好地進行硬件…

python模擬購物車購物過程_python實現購物車+ATM機 第五天

模擬實現一個ATM 購物商城程序1.額度 15000或自定義2.實現購物商城&#xff0c;買東西加入 購物車&#xff0c;調用信用卡接口結賬3.可以提現&#xff0c;手續費5%4.每月22號出賬單&#xff0c;每月10號為還款日&#xff0c;過期未還&#xff0c;按欠款總額 萬分之5 每日計息5…

C#使用Cookie方法

代碼Code highlighting produced by Actipro CodeHighlighter (freeware)http://www.CodeHighlighter.com/--> //寫入protected void Button1_Click(object sender, EventArgs e){HttpCookie cookienew HttpCookie("MyCook");//初使化并設置Cookie的名稱DateTime…

智能手機計步算法c語言實現,【轉載】智能手機計步器算法的實現

現在的智能手機嵌入了一些微小的傳感器&#xff0c;比如重力傳感器、光傳感器、聲音傳感器等。如何有效地利用這些傳感器來開發一些應用&#xff0c;是一個值得深入研究的課題。比如開發醫療健康的應用、運動量監視器等。本文采用htc Touch Pro智能手機的重力傳感器來開發一款監…

vue點擊按鈕怎么跳轉圖片_vue-router組件里面點擊一個按鈕跳轉到一個新的組件該怎么實現...

展開全部直接修改地址欄中的路由地址即可&#xff1a;{{msg}}var testLogin Vue.component("login",{template:這是我的登錄頁面})var testRegister Vue.component("register",{template:這是我的注冊頁面})//配置路由詞典//對象數組const myRoutes [//…

Arduino教程資料匯總(8月22日悄悄跟新了一下)

http://www.geek-workshop.com/thread-985-1-1.html 本帖最后由 迷你強 于 2013-8-31 12:36 編輯 F-101 arduino基礎套件使用資料 Arduino入門教程--課前準備--Arduino驅動安裝及1.0 IDE菜單介紹Arduino入門教程--第一課--板載Led閃爍實驗Arduino入門教程--第二課--第一次面包板…

HTML5/CSS3系列教程:HTML5 區域(Sectioning)的重要性

日期&#xff1a;2013-2-4 來源&#xff1a;GBin1.com 不管你以前在web頁面布局中如何稱呼它們 - “區域”還是“塊”&#xff0c;我們一直都在布局中將頁面分成可視的不同區域。但真正的問題在于我們并沒有使用任何正確的工具來實現。一般情況下我們使用典型的網格來劃分頁頭…

CoreAnimation —— CAReplicatorLayer(拷貝圖層)

2019獨角獸企業重金招聘Python工程師標準>>> CAReplicatorLayer是一個layer容器&#xff0c;會對其中的subLayer進行一些差異處理&#xff08;它的子layer都可以拷貝&#xff09; 屬性&#xff1a; //拷貝的次數 property NSInteger instanceCount; //是否開啟景深效…