คำถามติดแท็ก backup

การทำสำเนาข้อมูลเพื่อให้สำเนาสามารถใช้ในการกู้คืนต้นฉบับหลังจากเหตุการณ์การสูญหายของข้อมูลหรือสำหรับการเก็บข้อมูลในอดีต

9
ทำไมการสำรองข้อมูลบันทึกธุรกรรมของคุณจึงสำคัญ
ขณะนี้เรากำลังใช้โซลูชันสำรองสำหรับลูกค้าและโซลูชัน ERP ของพวกเขาใช้ SQL Server โซลูชัน ERP ถูกตั้งค่าโดย บริษัท อื่น และพวกเขากำลังบอกฉันว่ามันสำคัญอย่างยิ่งที่จะต้องสำรองและตัดทอนบันทึกธุรกรรม ฉันได้อ่านบันทึกการทำธุรกรรมนี้มาบ้างแล้วและฉันก็ไม่เข้าใจว่าทำไมจึงเป็นสิ่งสำคัญเมื่อฉันสำรองข้อมูลเครื่องทั้งหมดแล้ว (เราใช้ ArcServe UDP ซึ่งตระหนักถึง SQL Server และใช้งาน VSS) ฉันเข้าใจว่างานการล้างข้อมูลบน SQL Server VM ดูแลการตัดทอนบันทึกอยู่แล้วอย่างไรก็ตาม UDP ยังอนุญาตให้ตัดทอนบันทึก SQL Server ฉันเข้าใจว่าสามารถใช้บันทึกธุรกรรมเพื่อกู้คืนฐานข้อมูลที่เสียหายได้เพราะนั่นเป็นบันทึกธุรกรรมทั้งหมด แต่ฉันมีการสำรองฐานข้อมูลทั้งหมดทุกชั่วโมงแล้วทำไมฉันถึงต้องแคร์?

3
วิธีเก็บรักษา: สำรองข้อมูลรายวันสำหรับสัปดาห์รายสัปดาห์สำหรับเดือนรายเดือนสำหรับปีและรายปีหลังจากนั้น
ฉันต้องการสำรองข้อมูลและกำหนดค่าไฟล์บนเซิร์ฟเวอร์นี้ทุกวัน ฉันต้องการที่จะเก็บ: สำรองข้อมูลรายวันเป็นเวลาหนึ่งสัปดาห์ สำรองข้อมูลรายสัปดาห์สำหรับเดือน สำรองข้อมูลรายเดือนสำหรับปี สำรองข้อมูลรายปีหลังจากนั้น ทั้งหมดนี้ทำได้ผ่านเชลล์สคริปต์ที่รันทุกวันจาก cron นี่คือวิธีที่ไฟล์สำรองควรดูแล 10 ปีของการทำงาน: blog-20050103.tar.bz2 blog-20060102.tar.bz2 blog-20070101.tar.bz2 blog-20080107.tar.bz2 blog-20090105.tar.bz2 blog-20100104.tar.bz2 blog-20110103.tar.bz2 blog-20120102.tar.bz2 blog-20130107.tar.bz2 blog-20130902.tar.bz2 blog-20131007.tar.bz2 blog-20131104.tar.bz2 blog-20131202.tar.bz2 blog-20140106.tar.bz2 blog-20140203.tar.bz2 blog-20140303.tar.bz2 blog-20140407.tar.bz2 blog-20140505.tar.bz2 blog-20140602.tar.bz2 blog-20140707.tar.bz2 blog-20140728.tar.bz2 blog-20140804.tar.bz2 blog-20140811.tar.bz2 blog-20140816.tar.bz2 blog-20140817.tar.bz2 blog-20140818.tar.bz2 blog-20140819.tar.bz2 blog-20140820.tar.bz2 blog-20140821.tar.bz2 blog-20140822.tar.bz2
14 linux  backup  bash 

4
จำกัด ดิสก์ i / o อย่างไรในระหว่างการสำรองข้อมูล
ฉันมี cron ที่ทำง่ายๆ "tar zcf" ในตอนกลางคืน เซิร์ฟเวอร์มี: 8 Cores - Intel (R) Xeon (R) CPU E5606 @ 2.13GHz RAM 25GB Ubuntu 12.04.2 LTS ฮาร์ดแวร์ RAID 1 (LSI Logic / Symbios Logic MegaRAID SAS SMC2108) พร้อมฮาร์ดไดรฟ์ 2.728TB สองตัว อย่างที่คุณเห็นบนหน้าจอมอนิเตอร์โฮสต์: http://clip2net.com/s/57YRKP ในช่วงเวลาเกือบตลอดระยะเวลาที่ทาร์ดิสก์ I / O ไปที่> 90% และทำให้แอพอื่น ๆ (mysql, apache) ช้าลงมาก …

4
ทำไม บริษัท ยังใช้เทปไดรฟ์ [ปิด]
ตามที่เป็นอยู่ในปัจจุบันคำถามนี้ไม่เหมาะสำหรับรูปแบบคำถาม & คำตอบของเรา เราคาดหวังคำตอบที่จะได้รับการสนับสนุนจากข้อเท็จจริงการอ้างอิงหรือความเชี่ยวชาญ แต่คำถามนี้อาจเรียกร้องให้มีการถกเถียงอภิปรายโต้แย้งหรือการอภิปรายเพิ่มเติม หากคุณรู้สึกว่าคำถามนี้สามารถปรับปรุงและเปิดใหม่ได้โปรดไปที่ศูนย์ช่วยเหลือเพื่อขอคำแนะนำ ปิดให้บริการใน7 ปีที่ผ่านมา ฉันพบสิ่งนี้แต่ไม่ได้ตอบคำถามของฉัน ดิสก์แม้จะอยู่ในช่วง 1-2 TB มีมากราคาถูกกว่าเทป แต่ผมเห็นว่าGoogle ใช้เทปไดรฟ์สำหรับการสำรองข้อมูล ข้อเสียเปรียบหลักของพวกเขาคืออะไร? ฉันนึกภาพบางอย่างของ "ไลบรารี่" ของดิสก์ที่เป็นเพียงซ็อกเก็ตจำนวนหนึ่งที่คุณสามารถเลื่อนดิสก์ SATA ลงไปได้
14 backup  tape 

5
โซลูชันสำรองข้อมูลที่เปิดใช้งาน btrfs
ด้วยการที่ btrfs ทำการผลิตใน Oracle EL 14 ในเดือนนี้ (ร่วมกับการทำงาน fsck และการขัดถูจาก Linux 3.2) ฉันกำลังคิดที่จะออกแบบโซลูชันสำรองข้อมูลปัจจุบันของฉันใหม่เพื่อใช้งานมัน โปรดทราบว่าฉันกำลังคิดที่จะทำเพื่อข้อมูลจำนวนน้อยน้อยกว่า 10TB นั่นค่อนข้างคงที่ (น้อยกว่า 1% เปลี่ยนทุกวัน) ในระยะสั้นโซลูชั่นสำรอง SMB / SOHO การสำรองข้อมูลควรทำอย่างไร: ทำสแน็ปช็อต LVM ของ ext [234] / XFS / JFS บนเซิร์ฟเวอร์ที่ใช้งานจริง rsync/ ถ่ายโอนข้อมูลที่เปลี่ยนแปลงไปยัง btrfs บนเซิร์ฟเวอร์สำรอง สแน็ปช็อตระบบไฟล์ btrfs ปล่อยสแนปชอตเก่าเมื่อพื้นที่ว่างเหลือน้อย ข้อดี: ไฟล์ทั้งหมดสามารถใช้งานได้ง่ายไม่ต้องคลายการบีบอัด ภาพรวมที่ผ่านมาสามารถใช้งานได้อย่างง่ายดาย ... ... เพื่อให้ฉันสามารถแบ่งปันเป็น Samba แบบอ่านอย่างเดียว (พร้อมรองรับ …

3
กลยุทธ์การสำรองข้อมูล Amazon EC2
ฉันมีการตั้งค่าเซิร์ฟเวอร์ / DB เซิร์ฟเวอร์คู่โดยใช้ EC2 ของ Amazon ขณะนี้ฉันกำลังถ่ายภาพสแน็ปช็อตทุกวันของระบบและไดรฟ์ EBS ทั้งหมดที่มีไฟล์แอปพลิเคชันของฉันทั้งหมด, ไฟล์ DB, ซอร์สโค้ดและการสำรองฐานข้อมูล ฉันมีแอปพลิเคชั่นคอนโซลที่สร้างการสำรองข้อมูลตามกำหนดเวลา ภาพของฉันเป็นภาพ EBS ฉันกำลังทำงานที่จะทำสแนปชอตของฉันหลังจากผ่านไปหลายวัน ฉันเดาว่าคำถามของฉันคือ / ฉันควรกำหนดเวลางานรูปภาพ / EBS ให้สมบูรณ์ด้วยหรือไม่? วิธีนี้หากเซิร์ฟเวอร์ล้มเหลวหรือเสียหายฉันสามารถเปิดภาพล่าสุดแล้วใช้ภาพรวมล่าสุด ขณะที่ฉันทำงานกับกลยุทธ์การสำรองข้อมูลของฉันฉันใช้ Jungle Disc เพื่อสำรองดิสก์ข้อมูลของฉัน

6
การสำรองข้อมูล MySQL อย่างไม่มีที่สิ้นสุดในงบประมาณ
สถานการณ์จำลองการสำรองข้อมูล MySQL ปัจจุบันของฉันคือการทำซ้ำ db ของเราไปยังเซิร์ฟเวอร์ที่สองและรัน mysqldump บนเซิร์ฟเวอร์นั้นเพื่อลบการหยุดทำงานใด ๆ จากการล็อคตารางหรือแถว สิ่งนี้ใช้ได้ดี แต่ราคา $ 150 ต่อเดือนสำหรับเซิร์ฟเวอร์ตัวที่สอง (โฮสติ้งของออสเตรเลียแพงกว่า US มาก) ฉันอ่านคำถามมากมายเกี่ยวกับที่นี่ผู้คนส่วนใหญ่ต้องการความช่วยเหลือเกี่ยวกับการสำรองข้อมูลตามกำหนดเวลาและอะไรก็ตามที่ไม่ใช่สิ่งที่ฉันต้องการ ฉันต้อง mysqldump (ยิ่งกว่าทุกๆ 4 ชั่วโมง) โดยไม่มีการหยุดทำงาน db ไม่ได้บีบอัด ~ 7GB ดังนั้น mysqldump อาจใช้เวลาพอสมควรขึ้นอยู่กับเซิร์ฟเวอร์ ฉันได้พิจารณาการจำลองแบบไปยังเครื่องเดียวกัน แต่ฉันไม่ต้องการให้ทาสกินเข้าไปในหน่วยความจำที่จำเป็นมาก ฉันไม่แน่ใจว่าฉันสามารถ จำกัด การใช้หน่วยความจำแบบต่อ db ได้หรือไม่ ไม่ว่าจะด้วยวิธีใดจะทำให้โหลดบนเซิร์ฟเวอร์ขณะที่ดัมพ์ db ฉันเพิ่งอ่านhttp://www.zmanda.com/quick-mysql-backup.htmlนี้และมันก็ดูดี $ 300 ต่อปีก็โอเคที่ช่วยฉันได้มาก น่าเสียดายที่ฉันไม่สามารถจำลอง RDS ของ Amazon ได้ แต่ฉันสามารถทำซ้ำกับ …

7
คุณสำรองข้อมูลเซิร์ฟเวอร์จัดเก็บอย่างไร
ฉันกำลังมองหาการใช้เซิร์ฟเวอร์จัดเก็บข้อมูลขนาดใหญ่มากเพื่อใช้เป็น NAS สดสำหรับเซิร์ฟเวอร์อื่น ๆ (ตาม Linux ทั้งหมด) โดยขนาดใหญ่มากฉันหมายถึงพื้นที่ว่างระหว่าง 4TB ถึง 20TB (แม้ว่าจะไม่จริงเราจะทำให้มันเป็น 20TB) เซิร์ฟเวอร์จัดเก็บข้อมูลจะเป็น RAID 10 สำหรับความปลอดภัยของข้อมูลและประสิทธิภาพการทำงาน แต่เราจะยังต้องการโซลูชันสำรองซึ่งรวมถึงการสำรองข้อมูลนอกสถานที่ด้วย คำถามของฉันคือคุณสำรองข้อมูลจำนวนมากได้อย่างไร! ไม่ใช่ว่าฉันสามารถเชื่อมต่อฮาร์ดไดรฟ์แบบพกพาและถ่ายโอนไฟล์ผ่าน ขณะนี้เราไม่มีอุปกรณ์อื่นที่มีพื้นที่เก็บข้อมูลมากมาย ฉันต้องใช้งบประมาณสำหรับเซิร์ฟเวอร์เก็บข้อมูลสำรองนอกสถานที่แห่งที่สองหรือมีวิธีแก้ปัญหาที่ดีกว่าหรือไม่

5
สำหรับการบีบอัดไฟล์ขนาดใหญ่ก่อนอื่นให้ทำการโอนย้ายหรือ rsync -z? ซึ่งจะเร็วที่สุด?
ฉันมีไฟล์ข้อมูลขนาดเล็กสัมพัทธภาพมากมาย แต่พวกเขาใช้เวลาประมาณ 50 GB และฉันต้องการให้ถ่ายโอนไปยังเครื่องอื่น ฉันพยายามคิดวิธีที่มีประสิทธิภาพที่สุดในการทำสิ่งนี้ คิดว่าฉันต้อง gzip สิ่งทั้งหมดแล้ว rsync มันและขยายมันพึ่งพา rsync -z สำหรับการบีบอัด gzip แล้วใช้ rsync -z ฉันไม่แน่ใจว่าสิ่งใดจะมีประสิทธิภาพมากที่สุดเนื่องจากฉันไม่แน่ใจว่าจะใช้งาน rsync -z อย่างไร แนวคิดใดที่ตัวเลือกใดจะเร็วที่สุด?

5
การซิงโครไนซ์โครงสร้างโฟลเดอร์ที่มีขนาดใหญ่มาก
เรามีโครงสร้างโฟลเดอร์บนอินทราเน็ตของเราซึ่งมีไฟล์ประมาณ 800,000 ไฟล์แบ่งออกเป็นประมาณ 4,000 โฟลเดอร์ เราจำเป็นต้องซิงโครไนซ์สิ่งนี้กับกลุ่มเครื่องขนาดเล็กใน DMZ ของเรา ความลึกของโครงสร้างตื้นมาก (ไม่ลึกเกินสองระดับ) ไฟล์ส่วนใหญ่ไม่เคยเปลี่ยนแปลงในแต่ละวันมีไฟล์ที่อัปเดตไม่กี่พันไฟล์และไฟล์ใหม่สองพันไฟล์ ข้อมูลคือข้อมูลการรายงานเชิงประวัติที่ถูกเก็บรักษาไว้ซึ่งแหล่งข้อมูลได้รับการกำจัดแล้ว (เช่นรายงานเหล่านี้ได้รับการสรุปแล้วว่าข้อมูลต้นฉบับนั้นเพียงพอแล้วที่เราเก็บถาวรและลบทิ้ง) การซิงโครไนซ์หนึ่งครั้งต่อวันนั้นเพียงพอเนื่องจากสามารถเกิดขึ้นได้ในกรอบเวลาที่เหมาะสม มีการสร้างรายงานข้ามคืนและเราทำการซิงค์สิ่งแรกในตอนเช้าตามภารกิจที่กำหนด เห็นได้ชัดว่าเนื่องจากมีไฟล์ไม่กี่ไฟล์ที่เปลี่ยนเป็นประจำเราสามารถได้รับประโยชน์อย่างมากจากการทำสำเนาแบบเพิ่มหน่วย เราได้ลอง Rsync แล้ว แต่อาจใช้เวลานานถึงแปดถึงสิบสองชั่วโมงในการดำเนินการ "สร้างรายการไฟล์" ให้เสร็จสมบูรณ์ เป็นที่ชัดเจนว่าเรากำลังเติบโตอย่างรวดเร็วในสิ่งที่ rsync มีความสามารถ (กรอบเวลา 12 ชั่วโมงยาวเกินไป) เราใช้เครื่องมืออื่นที่เรียกว่า RepliWeb เพื่อซิงโครไนซ์โครงสร้างและสามารถถ่ายโอนส่วนเพิ่มได้ในเวลาประมาณ 45 นาที อย่างไรก็ตามดูเหมือนว่าเราได้เกินขีด จำกัด แล้วก็เริ่มเห็นไฟล์ปรากฏเป็นลบเมื่อไม่ (อาจมีโครงสร้างหน่วยความจำภายในบางส่วนหมดเราไม่แน่ใจ) มีคนอื่นที่ทำงานในโครงการการประสานขนาดใหญ่ของการเรียงลำดับนี้หรือไม่? มีบางสิ่งที่ออกแบบมาเพื่อจัดการโครงสร้างไฟล์ขนาดใหญ่เช่นนี้เพื่อการซิงโครไนซ์หรือไม่?

11
คุณจะสำรองข้อมูลฮาร์ดไดรฟ์ภายนอกได้อย่างไร
ฉันทำการสำรองข้อมูลฮาร์ดไดรฟ์มาระยะหนึ่งแล้วซึ่งฉันเชื่อว่าพวกคุณหลายคนทำเช่นกัน แต่ฉันมีปัญหาในการหาวิธีที่ดีกว่าในการจัดเก็บข้อมูลไว้นอกสถานที่ ฉันสงสัยว่าพวกคุณทำแบบนั้นได้อย่างไร นโยบายหรือคำแนะนำ & เคล็ดลับเมื่อพูดถึงการเก็บข้อมูลสำรองนอกสถานที่ฮาร์ดไดรฟ์ส่วนใหญ่ไม่ใช่เทป ขอบคุณล่วงหน้า. [อัพเดต] ขอบคุณที่กล่าวถึงการสำรองข้อมูลออนไลน์ จริงๆแล้วเราอยู่ในช่วงกลางของกระบวนการนี้ และฉัน 100% ยอมรับว่ามันเป็นวิธีที่ดีที่สุดที่จะไป อย่างไรก็ตามการพิจารณาค่าใช้จ่ายบางครั้งอาจไม่เป็นตัวเลือกเนื่องจากเป็นตัวเลือกที่ค่อนข้างแพงหากคุณพิจารณาระดับแอปพลิเคชันด้วย ฉันเดาว่าการสำรองข้อมูลออนไลน์นั้นดีมากในหัวข้อแยกต่างหาก :)
14 backup 

3
ฉันจะสร้างผู้ใช้ MySQL แบบอ่านอย่างเดียวเพื่อการสำรองข้อมูลด้วย mysqldump ได้อย่างไร
ฉันใช้automysqlbackupสคริปต์เพื่อถ่ายโอนฐานข้อมูล mysql ของฉัน แต่ฉันต้องการให้ผู้ใช้แบบอ่านอย่างเดียวทำเช่นนี้เพื่อที่ฉันจะไม่เก็บรหัสผ่านฐานข้อมูลรูทของฉันลงในไฟล์ธรรมดา ฉันได้สร้างผู้ใช้เช่นนั้น: grant select, lock tables on *.* to 'username'@'localhost' identified by 'password'; เมื่อฉันเรียกใช้mysqldump(ผ่านautomysqlbackupหรือโดยตรง) ฉันได้รับคำเตือนต่อไปนี้: mysqldump: Got error: 1044: Access denied for user 'username'@'localhost' to database 'information_schema' when using LOCK TABLES ฉันทำผิดหรือเปล่า? ฉันต้องการเงินช่วยเหลือเพิ่มเติมสำหรับผู้ใช้แบบอ่านอย่างเดียวหรือไม่? หรือสามารถrootล็อคinformation_schemaตารางเท่านั้น? เกิดอะไรขึ้น? แก้ไข: GAH และตอนนี้ก็ใช้งานได้ ฉันอาจไม่ได้เรียกใช้สิทธิ์ล้างก่อนหน้านี้ นอกจากนี้สิ่งนี้เกิดขึ้นโดยอัตโนมัติบ่อยเพียงใด แก้ไข: ไม่มันไม่ทำงาน การเรียกใช้mysqldump -u username -p --all-databases …

5
RSYNC ทำการสำรองข้อมูลส่วนเพิ่มอย่างไร
จะrsyncทราบได้อย่างไรว่าไฟล์ใดถูกเปลี่ยนแปลงและไฟล์ใดบ้าง มันบันทึกข้อมูลที่ใดก็ได้ในไฟล์หรือไม่ เพราะฉันต้องการสำรองข้อมูลเพิ่มเติม แต่ก่อนอื่นมันจะถ่ายโอนไฟล์ทั้งหมด ดังนั้นคำถามหลักของฉันคือถ้าผมอัปโหลดไฟล์ผ่านทาง FTP เริ่มต้น rsyncแต่ไม่ได้โดย จะrsyncยังคงข้ามไฟล์ที่มีอยู่เหล่านั้นหรือจะอัปโหลดทุกอย่างในการเรียกใช้ครั้งแรก
14 backup  rsync  sftp 

19
วิธีที่ง่ายและรวดเร็วที่สุดในการถ่ายโอนไฟล์ขนาดใหญ่ผ่านเครือข่าย Windows คืออะไร
ฉันมีเครื่อง Window Server 2000 ที่ใช้ MS SQL Server ที่เก็บข้อมูลมากกว่า 20GB ฐานข้อมูลถูกสำรองทุกวันถึงฮาร์ดไดรฟ์ที่สอง ฉันต้องการถ่ายโอนไฟล์สำรองข้อมูลเหล่านั้นไปยังคอมพิวเตอร์เครื่องอื่นเพื่อสร้างเซิร์ฟเวอร์ทดสอบอีกเครื่องและสำหรับการฝึกการกู้คืน (การสำรองข้อมูลไม่เคยถูกกู้คืนมาเป็นเวลาเกือบ 5 ปีอย่าบอกเจ้านายของฉันเกี่ยวกับเรื่องนี้!) ฉันมีปัญหาในการถ่ายโอนไฟล์ขนาดใหญ่ผ่านเครือข่าย ฉันลองคัดลอกเครือข่ายธรรมดาดาวน์โหลด apache และ ftp แล้ว วิธีการใดก็ตามที่ฉันพยายามจะล้มเหลวเมื่อปริมาณข้อมูลที่ถ่ายโอนมาถึง 2GB ครั้งสุดท้ายที่ฉันถ่ายโอนไฟล์สำเร็จมันผ่าน usb ที่ต่อพ่วงกับฮาร์ดไดรฟ์ภายนอก แต่ฉันต้องการที่จะทำงานนี้เป็นประจำและโดยเฉพาะอย่างยิ่งโดยอัตโนมัติ สงสัยว่าอะไรคือแนวทางที่จริงจังที่สุดสำหรับสถานการณ์นี้?

2
วิธีการสำรองข้อมูลขนาดใหญ่ Gitlab?
เมื่อถามถึงการสนับสนุน Gitlab เกี่ยวกับวิธีการสำรองข้อมูล 3TB บน Gitlab ในสถานที่พวกเขาตอบกลับใช้เครื่องมือของเราที่สร้าง tarball นี่แค่ตะเข็บฉันผิดไปทุกระดับ tarball นี้มีการถ่ายโอนข้อมูล postgres, ภาพ docker, ข้อมูล repo, GIT LFS, etc config และอื่น ๆ การสำรอง TB ของข้อมูลสแตติกพร้อมกับข้อมูล KB ที่มีไดนามิกมาก ๆ นั้นจะไม่ถูกต้อง จากนั้นปัญหาของเราต้องการสำรองข้อมูลทุกชั่วโมง คำถาม ฉันอยากรู้จากคนอื่น ๆ ว่าพวกเขาทำได้อย่างไรเพื่อรับการสำรองข้อมูลที่สอดคล้องกัน ZFS บน Linux น่าจะดีกับฉันถ้านั่นเป็นส่วนหนึ่งของการแก้ปัญหา

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.