Bis jetzt haben wir nur Daten im JSON-Format zwischen Frontend und Backend ausgetauscht und auch nur solche Daten in der MongoDB gespeichert. Bilder (und auch andere Dateien) sind FormData-Objects im multipart/form-data-Format. Zur Behandlung solcher Daten verwenden wir ein Middleware für unser Backend, namens Multer.
Hint
Wenn Sie nur am Code für unser Backend interessiert sind, dann können Sie auch direkt zu Zusammenführen der Funktionalitäten springen. Im Folgenden werden die Entstehung aber näher erläutert und verschiedene Varianten diskutiert.
MongoDB speichert Daten bis zu einer Größe von 16Mb im Binärformat. Um auch größere Dateien (Bilder, Videos, pdf, ...) speichern zu können, werden die Dateien in chunks zerlegt und können dann aus diesen Stücken wieder zusammengesetzt werden. Dafür gibt es in der MongoDB eine GridFS-Spezifikation (siehe auch hier oder hier). Zur Verwendung von GridFS gibt es die beiden Pakte multer-gridfs-storage und gridfs-stream.
Wir installieren im Backend-Projekt alle drei Pakete und zeigen im Folgenden deren Verwendung:
Für den Upload der Bilder erstellen wir zunächst einen Ordner middleware und darin eine Datei upload.js. In dieser Datei wird unter Verwendung von Multer ein GridFsStorage eingerichtet. Die zu verwendende Collection benennen wir hier posts (siehe bucketName). Die Datenbank heißt image (siehe dbName). Sie können diese Namen frei wählen. Beachten Sie dann aber im Folgenden überall die Verwendung von posts (in der MongoDB entstehen die Collections posts.files und posts.chunks - siehe z.B. hier oder hier).
constmulter=require("multer");const{GridFsStorage}=require("multer-gridfs-storage");constmongoose=require('mongoose');require('dotenv').config();constcredentials=process.env.PATH_TO_PEMconststorage=newGridFsStorage({//db: connection,url:process.env.DB_CONNECTION,options:{sslKey:credentials,// nur falls ein Zertifikat zur AutorisierungsslCert:credentials,// für MongoDB Atlas verwendet wirddbName:"images"},file:(req,file)=>{constmatch=["image/png","image/jpeg"];if(match.indexOf(file.mimetype)===-1){console.log('file.mimetype === -1')return`${Date.now()}-jf-${file.originalname}`;}console.log('store');return{bucketName:'posts',filename:`${Date.now()}-jf-${file.originalname}`,};},});module.exports=multer({storage});
Beachten Sie, dass wir beim Upload der Bilder für diese Bilder Dateinamen mithilfe von ${Date.now()}-jf-${file.originalname} erstellen bzw. festlegen. Damit diese Dateinamen eindeutig sind, wird mithilfe von Date.now() der aktuelle Zeitstempel verwendet. Der String -jf- in der Mitte kann natürlich auch durch Ihre Initialen ersetzt (oder weggelassen) werden. Außerdem wird auch noch der originale Dateiname verwendet. Insgesamt sollte sichergestellt werden, dass die Dateinamen eindeutig sind (deshalb auch Date.now()).
In Zeile 19 werden die Dateitypen festgelegt, die akzeptiert werden, hier png und jpeg. Diese Liste kann erweitert oder eingegrenzt werden.
Diese Middleware nutzen wir nun für den POST-Request des Bildes und erstellen einen Ordner routes und darin eine Datei upload.routes.js mit folgendem Inhalt:
In Zeile 5 wird die multer-Middleware mit update.single('file') aufgerufen. Neben der Funktion .single(fieldname) stehen auch die Funktionen .array(fieldname[, maxCount]) und .fields(field) zur Verfügung, um gleichzeitig mehrere Dateien hochzuladen (siehe multer).
Als Response wird die URL zurückgegeben, unter der das Bild heruntergeladen werden kann (http://localhost:3000/download/${req.file.filename}). Beachten Sie, dass die Backend-URL und auch der Port hier hart kodiert sind. Das sollte besser in die .env-Datei ausgelagert werden.
In der ursprünglichen Implementierung hatten wir die Datei routes.js noch im Projektordner gehabt. Wir benennen diese in posts.routes.js um und schieben sie ebenfalls in den routes-Ordner. Beachten Sie, dass Sie dadurch in der server.js auch den Import auf const routes = require('./routes/posts.routes'); ändern müssen.
Da wir nun aber auch die upload-Route einbinden, ändern wir gleich mehrere Sachen. Zunächst wird der ursprüngliche routes zu postRoutes und die generelle Route dafür wird /posts:
constexpress=require('express')constcors=require('cors')constpostsRoutes=require('./routes/posts.routes')constuploadRoutes=require('./routes/upload.routes');constmongoose=require('mongoose');require('dotenv').config();constcredentials=process.env.PATH_TO_PEMconstapp=express()constPORT=3000;app.use(express.json());app.use(cors())app.use('/posts',postsRoutes);app.use('/upload',uploadRoutes);// connect to mongoDBmongoose.connect(process.env.DB_CONNECTION,{sslKey:credentials,sslCert:credentials,dbName:process.env.DATABASE});constdb=mongoose.connection;db.on('error',err=>{console.log(err);});db.once('open',()=>{console.log('connected to DB');});app.listen(PORT,(error)=>{if(error){console.log('error',error)}else{console.log(`server running on http://localhost:${PORT}`)}})
In der posts.routes.js kann nun aus den URLs der Endpunkte jeweils das /posts entfernt werden:
constexpress=require('express');constrouter=express.Router();constPost=require('../models/posts');// GET all postsrouter.get('/',async(req,res)=>{constallPosts=awaitPost.find();console.log(allPosts);res.send(allPosts);});// POST one postrouter.post('/',async(req,res)=>{constnewPost=newPost({title:req.body.title,location:req.body.location,image_id:req.body.image_id})awaitnewPost.save();res.send(newPost);});// POST one post via idrouter.get('/:id',async(req,res)=>{try{constpost=awaitPost.findOne({_id:req.params.id});console.log(req.params);res.send(post);}catch{res.status(404);res.send({error:"Post does not exist!"});}});// PATCH (update) one postrouter.patch('/:id',async(req,res)=>{try{constpost=awaitPost.findOne({_id:req.params.id})if(req.body.title){post.title=req.body.title}if(req.body.location){post.location=req.body.location}if(req.body.image_id){post.image_id=req.body.image_id}awaitPost.updateOne({_id:req.params.id},post);res.send(post)}catch{res.status(404)res.send({error:"Post does not exist!"})}});// DELETE one post via idrouter.delete('/:id',async(req,res)=>{try{awaitPost.deleteOne({_id:req.params.id})res.status(204).send()}catch{res.status(404)res.send({error:"Post does not exist!"})}});module.exports=router;
Das Hochladen der Bilder kann nun bereits getestet werden. Starten Sie das Backend. Öffnen Sie Postman und geben Sie als URL http://localhost:3000/upload ein und wählen als Anfragemethode POST. Klicken Sie auf Body und markieren dann form-data:
Geben Sie unter KEY den Schlüssel file ein (das wird manchmal vergessen und dann bekommen Sie einen multer-Fehler unexpected field!) und wählen Sie aus dem Dropdown-Menü File. Unter VALUE erscheint der Button Select Files. Klicken Sie darauf und wählen ein png- oder ein jpeg-Bild (kann auch .jpg sein) aus, das Sie hochladen wollen. Klicken Sie dann auf Send. Es erscheint:
Ich habe in diesem Beispiel die Datei fiw.jpg hochgeladen.
Wenn Sie sich die MongoDB anschauen (in Compass), dann finden Sie darin die beiden Collections posts.files und posts.chunks. In posts.files sind die Metadaten des hochgeladenen Bildes zu finden, z.B.
Die dazugehörige _id finden Sie auch in posts.chunks (können Sie sich in der mongosh mit db.posts.chunks.find({ _id: "646062e135cc14afbf5fd29b" }) anschauen). Darin ist das Bild im Binary-Format gespeichert.
Für den Download der gespeicherten Bilder gehen wir ähnlich vor, wie beim Upload, benötigen dafür aber nicht mehr die multer-Middleware, dafür aber gridfs-stream. Wir erstellen im Ordner routes die Datei download.routes.js mit folgendem Inhalt:
Da wir über den Dateinamen auf die Datei zugreifen wollen, benötigen wir zunächst die entsprechende _id der Datei in der posts.chunks-Collection. Dazu greifen wir mithilfe von find() auf die posts.files-Collection zu und ermitteln die _id. Die find()-Funktion gibt einen sogenannten Cursor auf das Array aller gefundenen Datensätze zurück. Mithilfe von forEach() durchlaufen wir dieses Array (enthält aber nur einen Datensatz) und ermitteln die _id. Mit der openDownloadStream()-Funktion der GridFSBucket()-Klasse öffnen wir den Download-Stream des Bildes und geben ihn als responseres zurück.
Wir binden die download-Route nun noch in unsere server.js ein:
constexpress=require('express')constcors=require('cors')constpostsRoutes=require('./routes/posts.routes')constuploadRoutes=require('./routes/upload.routes');constdownloadRoute=require('./routes/download.routes');constmongoose=require('mongoose');require('dotenv').config();constcredentials=process.env.PATH_TO_PEMconstapp=express()constPORT=3000;app.use(express.json());app.use(cors())app.use('/posts',postsRoutes);app.use('/upload',uploadRoutes);app.use('/download',downloadRoute);// connect to mongoDBmongoose.connect(process.env.DB_CONNECTION,{sslKey:credentials,sslCert:credentials,dbName:process.env.DATABASE});constdb=mongoose.connection;db.on('error',err=>{console.log(err);});db.once('open',()=>{console.log('connected to DB');});app.listen(PORT,(error)=>{if(error){console.log('error',error)}else{console.log(`server running on http://localhost:${PORT}`)}})
Der Test des GET http://localhost:3000/download/:filename-Endpunktes ist einfach. Dazu verwenden wir einfach die URL, die durch den Upload als Response zurückgegeben wurde (im obigen Beispiel also "http://localhost:3000/download/1684038369483-jf-fiw.jpg"):
Geben Sie in Postman also Ihre URL ein, wählen GET und klicken Send. Es erscheint das Bild:
Da es sich um die GET-Methode handelt, können Sie die URL http://localhost:3000/download/1684038369483-jf-fiw.jpg natürlich auch in den Browser eingeben und das Bild erscheint.
constexpress=require('express');constcors=require('cors');constpostsRoutes=require('./routes/posts.routes');constuploadRoutes=require('./routes/upload.routes');constdownloadRoute=require('./routes/download.routes');constdeleteRoute=require('./routes/delete.routes');constmongoose=require('mongoose');require('dotenv').config();constapp=express();app.use(express.json());app.use(cors());app.use('/posts',postsRoutes);app.use('/image',uploadRoutes);app.use('/download',downloadRoute);app.use('/delete',deleteRoute);app.listen(process.env.PORT,(error)=>{if(error){console.log(error);}else{console.log(`server running on http://localhost:${process.env.PORT}`);}});// connect to mongoDBmongoose.connect(process.env.DB_CONNECTION,{useNewUrlParser:true,useUnifiedTopology:true});constdb=mongoose.connection;db.on('error',console.error.bind(console,'connection error:'));db.once('open',()=>{console.log('connected to DB');});
Wir verwenden Multer und GridFs storage. Multer ist eine Middleware für Node.js, um Daten im multipart/form-data-Format zu verwalten. Die grundsätzliche Idee ist, dass im Request nicht nur ein body, sondern auch eine file-Eigenschaft enthalten ist (neben dem header). Multer verwendet einen storage, um Bilder (oder andere Dateien) zu speichern. Einen solchen storage bietet GridFs storage. Dieser kann sogar Dateien größer als 16 MB speichern und die Idee dabei ist, dass die Datei in zwei Collections gespeichert wird, in der files-Collection, welche die (Meta-)Informationen der Datei speichert und der chunks-Collection, die die eigentliche Datei (als Binärdaten) speichert. Eine Datei kann dabei in mehrere chunks unterteilt werden. Die folgende Abbildung zeigt das Prinzip von GridFS:
Für unser Datenmodell sieht die Aufteilung der Daten somit wie folgt aus:
in der posts-Collection speichern wir
die _id des Posts,
den title eines Posts,
die location und
die image_id. Die image_id enthält den Dateinamen filename des Bildes.
in der posts.files-Collection speichern wir (GridFs)
die _id der Datei,
die length der Datei,
die chunkSize,
das uploadDate,
den filename (siehe in posts die image_id) und
den contenType (z.B. image/jpeg)
in der posts.chunks-Collection speichern wir (GridFs)
die _id des Chunks,
die files_id (diese entspricht der _id der Datei in der posts.files-Collection),
ein n (fortlaufende Nummerierung der Chunks einer Datei beginnend mit 0),
die data der Datei (in diesem Chunk)
Chunks kann es zu einer Datei mehrere geben. Alle data aller Chunks einer Datei bilden zusammen die Datei als Binär- (bzw. base64-) Daten. Die folgende Abbildung zeigt unser Datenmodell in der Datenbank posts:
Um z.B. einen Datensatz (einen Post) anzulegen, speichern wir also die zugehörigen Daten in der posts-Collection (inkl. dem filename der Datei), speichern die Meta-Informationen der Datei in der posts.files-Collection und die zugehörigen Binärdaten der Datei in posts.chunks.
Die POST-Funktion für einen Datensatz ist nicht viel umfangreicher als zuvor:
272829303132333435363738394041424344
// POST one postrouter.post('/',upload.single('file'),async(req,res)=>{// req.file is the `file` fileif(req.file===undefined){returnres.send({"message":"no file selected"});}else{console.log('req.body',req.body);constnewPost=newPost({title:req.body.title,location:req.body.location,image_id:req.file.filename})awaitnewPost.save();returnres.send(newPost);}})
Wichtig ist, dass posts.routes.js nun auch die upload.js einbindet:
4
constupload=require('../middleware/upload');
Achten Sie darauf, dass Sie in upload.js die korrekte Datenbank verwenden (siehe dbName)!
Beachten Sie, dass die Daten nun nicht mehr als JSON übergeben werden, sondern als form-data. Der Test mithilfe von Postman sieht deshalb nun so aus:
Als Response bekommen Sie aber wieder ein JSON zurück, z.B.:
{"title":"HTW Gebäude C","location":"Campus Wilhelminenhof","image_id":"1652166642127-jf-htwbild5.jpg","_id":"627a0ff2305433d805b6b437","__v":0}
Das Bild ist nun in der Collection posts einerseits in posts.files mit den Daten
und in posts.chunks mit den Daten
gespeichert. Beachten Sie, dass das Bild so klein ist, dass es in nur einem chunk gespeichert werden kann. Größere Dateien werden in mehrer chunks aufgeteilt. Alle diese chunks, die zu einem Bild gehören, haben dann dieselbe files_id (aber fortlaufende _ids).
In der posts-Collection sieht der Datensatz dann wie folgt aus:
require('dotenv').config();constcredentials=process.env.PATH_TO_PEMconstconnection=mongoose.createConnection(process.env.DB_CONNECTION,{sslKey:credentials,sslCert:credentials,dbName:"htwinsta"});functiongetOnePost(id){returnnewPromise(async(resolve,reject)=>{try{constpost=awaitPost.findOne({_id:id});letfileName=post.image_id;constfiles=connection.collection('posts.files');constchunks=connection.collection('posts.chunks');constcursorFiles=files.find({filename:fileName});constallFiles=awaitcursorFiles.toArray();constcursorChunks=chunks.find({files_id:allFiles[0]._id});constsortedChunks=cursorChunks.sort({n:1});letfileData=[];forawait(constchunkofsortedChunks){fileData.push(chunk.data.toString('base64'));}letbase64file='data:'+allFiles[0].contentType+';base64,'+fileData.join('');letgetPost=newPost({"title":post.title,"location":post.location,"image_id":base64file});//console.log('getPost', getPost)resolve(getPost)}catch{reject(newError("Post does not exist!"));}})}
Die Konsolenausgaben können natürlich auch alle entfernt werden, aber es lohnt sich vielleicht auch zu sehen, was an den einzelnen Stellen passiert. In Zeile 37 erfolgt der Zugriff auf die posts-Collection und es wird der Datensatz mit der _id ermittelt, welche als Parameter der URL übergeben wurde. Aus dem Ergebnis post wird dann der Dateiname des Bildes in Zeile 37 mithilfe von post.image_id ermittelt.
In der post.files-Collection wird in Zeile 42 nach dem Datensatz mit dem entsprechenden filename gesucht. Die _id dieses Datensatzes ist der Wert von files_id in der Collection posts.chunks. Nach all diesen Einträgen wird in Zeile 44 gesucht. Aus allen chunks wird dann der base64-String erzeugt und dem Post-Objekt übergeben, welches als resolve der Promise zurückgeschickt wird.
Diese Funktion können wir nun für unseren get('/:id')-Endpunkt verwenden. Die Funktion sieht dann wie folgt aus:
102103104105106107108109110111112113114115
// GET one post via idrouter.get('/:id',async(req,res)=>{getOnePost(req.params.id).then((post)=>{console.log('post',post);res.send(post);}).catch(()=>{res.status(404);res.send({error:"Post does not exist!"});})});
Wir übergeben der getOnePost()-Funktion die als Parameter übergebene id und senden den resolve-Wert der Promise als Response zurück.
Der Ansatz, um alle Datensätze aus der MongoDB zu lesen, ist der gleiche, wie für einen Datensatz. Wir ermitteln sukzessive die _id alle Datensätze in der posts-Collection. Dazu schreiben wir uns eine Funktion getAllPosts(). In dieser laden wir zunächst alle posts und rufen dann für jeden einzelnen die getOnePost(id-Funktion auf:
6566676869707172737475767778798081
functiongetAllPosts(){returnnewPromise(async(resolve,reject)=>{constsendAllPosts=[];constallPosts=awaitPost.find();try{for(constpostofallPosts){console.log('post',post)constonePost=awaitgetOnePost(post._id);sendAllPosts.push(onePost);}console.log('sendAllPosts',sendAllPosts)resolve(sendAllPosts)}catch{reject(newError("Posts do not exist!"));}});}
Die Verwendung dieser Funktion ist wie oben:
1213141516171819202122232425
// GET all postsrouter.get('/',async(req,res)=>{getAllPosts().then((posts)=>{res.send(posts);}).catch(()=>{res.status(404);res.send({error:"Post do not exist!"});})});
Wird ein Post gelöscht, müssen wir auch dafür sorgen, dass das zugehörige Bild aus der posts.files und der posts.chunks gelöscht wird. Das Löschen ist also dreistufig:
12131415161718192021222324252627
// DELETE one post via idrouter.delete('/:id',async(req,res)=>{try{constpost=awaitPost.findOne({_id:req.params.id})letfileName=post.image_id;awaitPost.deleteOne({_id:req.params.id});awaitfiles.find({filename:fileName}).toArray(async(err,docs)=>{awaitchunks.deleteMany({files_id:docs[0]._id});})awaitfiles.deleteOne({filename:fileName});res.status(204).send()}catch{res.status(404)res.send({error:"Post does not exist!"})}});
constexpress=require('express')constcors=require('cors')constpostsRoutes=require('./routes/posts.routes')constuploadRoutes=require('./routes/upload.routes');constdownloadRoute=require('./routes/download.routes');constdeleteRoute=require('./routes/delete.routes');constmongoose=require('mongoose');require('dotenv').config();constcredentials=process.env.PATH_TO_PEMconstapp=express()constPORT=3000;app.use(express.json());app.use(cors())app.use('/posts',postsRoutes);app.use('/upload',uploadRoutes);app.use('/download',downloadRoute);app.use('/delete',deleteRoute);// connect to mongoDBmongoose.connect(process.env.DB_CONNECTION,{sslKey:credentials,sslCert:credentials,dbName:process.env.DATABASE});constdb=mongoose.connection;db.on('error',err=>{console.log(err);});db.once('open',()=>{console.log('connected to DB');});app.listen(PORT,(error)=>{if(error){console.log('error',error)}else{console.log(`server running on http://localhost:${PORT}`)}})
constmulter=require("multer");const{GridFsStorage}=require("multer-gridfs-storage");constmongoose=require('mongoose');require('dotenv').config();constcredentials=process.env.PATH_TO_PEMconststorage=newGridFsStorage({//db: connection,url:process.env.DB_CONNECTION,options:{sslKey:credentials,// nur falls ein Zertifikat zur AutorisierungsslCert:credentials,// für MongoDB Atlas verwendet wirddbName:"htwinsta"},file:(req,file)=>{constmatch=["image/png","image/jpeg"];if(match.indexOf(file.mimetype)===-1){console.log('file.mimetype === -1')return`${Date.now()}-jf-${file.originalname}`;}console.log('store');return{bucketName:'posts',filename:`${Date.now()}-jf-${file.originalname}`,};},});module.exports=multer({storage});
constexpress=require('express')constrouter=express.Router()constmongoose=require('mongoose');constPost=require('../models/posts');constupload=require('../middleware/upload');require('dotenv').config();/* ----------------- POST ---------------------------- */// POST one postrouter.post('/',upload.single('file'),async(req,res)=>{constnewPost=newPost({title:req.body.title,location:req.body.location,image_id:req.file.filename})awaitnewPost.save();res.send(newPost);});/* ----------------- GET ---------------------------- */constcredentials=process.env.PATH_TO_PEMconstconnection=mongoose.createConnection(process.env.DB_CONNECTION,{sslKey:credentials,sslCert:credentials,dbName:"htwinsta"});functiongetOnePost(id){returnnewPromise(async(resolve,reject)=>{try{constpost=awaitPost.findOne({_id:id});letfileName=post.image_id;constfiles=connection.collection('posts.files');constchunks=connection.collection('posts.chunks');constcursorFiles=files.find({filename:fileName});constallFiles=awaitcursorFiles.toArray();constcursorChunks=chunks.find({files_id:allFiles[0]._id});constsortedChunks=cursorChunks.sort({n:1});letfileData=[];forawait(constchunkofsortedChunks){fileData.push(chunk.data.toString('base64'));}letbase64file='data:'+allFiles[0].contentType+';base64,'+fileData.join('');letgetPost=newPost({"title":post.title,"location":post.location,"image_id":base64file});//console.log('getPost', getPost)resolve(getPost)}catch{reject(newError("Post does not exist!"));}})}functiongetAllPosts(){returnnewPromise(async(resolve,reject)=>{constsendAllPosts=[];constallPosts=awaitPost.find();try{for(constpostofallPosts){console.log('post',post)constonePost=awaitgetOnePost(post._id);sendAllPosts.push(onePost);}console.log('sendAllPosts',sendAllPosts)resolve(sendAllPosts)}catch{reject(newError("Posts do not exist!"));}});}// GET one post via idrouter.get('/:id',async(req,res)=>{getOnePost(req.params.id).then((post)=>{console.log('post',post);res.send(post);}).catch(()=>{res.status(404);res.send({error:"Post does not exist!"});})});// GET all postsrouter.get('/',async(req,res)=>{getAllPosts().then((posts)=>{res.send(posts);}).catch(()=>{res.status(404);res.send({error:"Post do not exist!"});})});/* ----------------- DELETE ---------------------------- */// DELETE one post via idrouter.delete('/:id',async(req,res)=>{try{constpost=awaitPost.findOne({_id:req.params.id})letfileName=post.image_id;awaitPost.deleteOne({_id:req.params.id});awaitfiles.find({filename:fileName}).toArray(async(err,docs)=>{awaitchunks.deleteMany({files_id:docs[0]._id});})awaitfiles.deleteOne({filename:fileName});res.status(204).send()}catch{res.status(404)res.send({error:"Post does not exist!"})}});module.exports=router;