เมื่อถามถึงการสนับสนุน Gitlab เกี่ยวกับวิธีการสำรองข้อมูล 3TB บน Gitlab ในสถานที่พวกเขาตอบกลับใช้เครื่องมือของเราที่สร้าง tarball
นี่แค่ตะเข็บฉันผิดไปทุกระดับ tarball นี้มีการถ่ายโอนข้อมูล postgres, ภาพ docker, ข้อมูล repo, GIT LFS, etc config และอื่น ๆ การสำรอง TB ของข้อมูลสแตติกพร้อมกับข้อมูล KB ที่มีไดนามิกมาก ๆ นั้นจะไม่ถูกต้อง จากนั้นปัญหาของเราต้องการสำรองข้อมูลทุกชั่วโมง
คำถาม
ฉันอยากรู้จากคนอื่น ๆ ว่าพวกเขาทำได้อย่างไรเพื่อรับการสำรองข้อมูลที่สอดคล้องกัน
ZFS บน Linux น่าจะดีกับฉันถ้านั่นเป็นส่วนหนึ่งของการแก้ปัญหา
If your GitLab server contains a lot of Git repository data you may find the GitLab backup script to be too slow. In this case you can consider using filesystem snapshots as part of your backup strategy.
ฉันไม่สามารถพูดจากประสบการณ์ได้ แต่ฉันอาจต้องรวมสิ่งนี้ในไม่ช้า ...