คำถามติดแท็ก failover

4
การทำคลัสเตอร์กับการจำลองแบบของทรานแซคชันกับกลุ่มความพร้อมใช้งาน
สมมติว่าคุณต้องตรวจสอบให้แน่ใจว่าแอปพลิเคชันของคุณที่ใช้ SQL Server 2012 เป็นแบ็กเอนด์ฐานข้อมูลของมันพร้อมใช้งานตลอดเวลาแม้ว่าเครื่องเซิร์ฟเวอร์หนึ่งเครื่องจะล้มเหลวก็ตาม ในฐานะนักพัฒนาซอฟต์แวร์และไม่ใช่ DBA ฉันกำลังพยายามเข้าใจว่าจะใช้เมื่อใดกับสถานการณ์ที่ล้มเหลว / มีความพร้อมใช้งานสูง: เซิร์ฟเวอร์สองตัว (หรือมากกว่า) ในคลัสเตอร์ Windows Failover, SQL Server เป็นอินสแตนซ์ของคลัสเตอร์ อินสแตนซ์ของ SQL Server สอง (หรือมากกว่า) ที่ได้รับการปรับปรุงด้วยการจำลองแบบของทรานแซคชัน เซิร์ฟเวอร์ SQL สองตัว (หรือมากกว่า) ใน SQL Server Availability Group ที่กำหนดค่าในโหมดการส่งข้อมูลแบบซิงโครนัส สถานการณ์ใดบ้างที่เหมาะกับภาระงานประเภทใดและสถานการณ์ความล้มเหลว / การหยุดทำงานประเภทใดที่สามารถจัดการได้ พวกเขายังเปรียบได้ / แลกเปลี่ยนได้?

3
การทำงานอัตโนมัติล้มเหลวใน PostgreSQL 9.1
วิธีหนึ่งทำการติดตั้งสองเซิร์ฟเวอร์ที่เหมือนกันสำหรับการเฟลโอเวอร์อัตโนมัติใน PostgreSQL 9.1 ระบบปฏิบัติการ Centos 5 PostgreSQL 9.1 รวบรวมจากแหล่งข้อมูล บัญชีผู้ใช้ postgres มีอยู่ในเครื่องทั้งสองเครื่องและมีรหัสผ่าน ssh ที่ไม่มีรหัสผ่านเพื่อเชื่อมต่อกับทั้งสองเครื่อง การตั้งค่าปัจจุบันของฉัน: การกำหนดค่าเซิร์ฟเวอร์หลัก: postgresql.conf: listen_address = '*' wal_level = hot_standby max_wal_senders = 3 checkpoint_segments = 16 wal_keep_segments = 8 archive_mode = on archive_command = 'cp "%p" /opt/pgsql91/archive/"%f"' pg_hba.conf: host replication all 10.0.66.1/32 trust host replication all 10.0.66.2/32 …

1
PostgreSQL failover และการจำลองแบบ
ฉันประเมิน PostgreSQL 9.1 และมีคำถามสองสามข้อที่เกี่ยวข้องกับรายละเอียดการเฟลโอเวอร์และการจำลองแบบ ฉันมีสถานการณ์การทดสอบน้อย สิ่งแรกคือเซิร์ฟเวอร์หลักและทาสไม่กี่คน ในกรณีที่อาจารย์ขัดข้องฉันต้องการให้ทาสคนหนึ่งกลายเป็นนาย หลังจากที่ Master กลับสู่สภาวะปกติแล้วควรซิงค์กับเซิร์ฟเวอร์อื่นในคลัสเตอร์ (ใช้การเปลี่ยนแปลงทั้งหมดที่ทำในขณะที่มันหยุดทำงาน) และเรียกคืนบทบาท Master หรือกลายเป็น Slave ปัญหาที่ฉันเห็นด้วย PostgreSQL และสถานการณ์ปัจจุบันมีดังต่อไปนี้ 1) ฉันไม่เห็นเครื่องมือในตัวสำหรับตรวจจับการหยุดทำงานของเซิร์ฟเวอร์หลัก ฉันอ่านว่า pgpool สามารถจัดการกับมันและสร้างไฟล์ทริกเกอร์ได้ฉันยังอ่านอีกว่าผู้คนใช้เครื่องมือ heartbeat Linux หรือเครื่องมือที่คล้ายกันสำหรับเรื่องนี้ โอเคฉันสามารถตรวจจับความล้มเหลวและกำหนดมาสเตอร์ใหม่ในคลัสเตอร์ได้ ทาสคนอื่นจะเข้าใจหรือไม่ว่ามีเจ้านายคนใหม่และพวกเขาควรจะสำรองไว้ตอนนี้หรือไม่? 2) ฉันไม่เข้าใจขั้นตอนการย้อนกลับ การกำหนดค่าโฮสต์ Master และ Slave นั้นแตกต่างกัน ดังนั้นฉันจะมีผู้เชี่ยวชาญสองคนหลังจากที่ล้มเหลวของอาจารย์ล้มเหลวหรือไม่ เซิร์ฟเวอร์จะซิงค์กันอย่างไร ฉันเห็นวิธีแก้ปัญหาด้วยตนเองเช่น "ถ่ายโอนโฟลเดอร์ข้อมูลไปยังเซิร์ฟเวอร์แล้วรีสตาร์ท" ดังนั้นทางออกหรือแนวปฏิบัติที่ดีที่สุดหรือหลักสำคัญอย่างน้อยที่นี่คืออะไร 3) ฉันควรจัดการเซิร์ฟเวอร์ขัดข้องทางฝั่งไคลเอ็นต์ได้อย่างไร เมื่อฉันสร้างการเชื่อมต่อฉันระบุ IP ของเซิร์ฟเวอร์อย่างชัดเจน ฉันควรพัฒนา ConnectionManager บางประเภทซึ่งจะรู้จักโครงสร้าง Master-Slave ของฉันส่งคำขอไปยัง …

2
ถ้าฉันล้มเหลวในฐานข้อมูลหนึ่งให้คนอื่น ๆ ที่ใช้จุดปลายมิรเรอร์เดียวกันล้มเหลวด้วยหรือไม่?
เรามีการติดตั้งฐานข้อมูลสองชุดสำหรับการมิเรอร์บนอินสแตนซ์ SQL Server เดียว: ฐานข้อมูลทดสอบและฐานข้อมูลการผลิต ทั้งสองได้มิร์เรอร์ไปยังเซิร์ฟเวอร์อื่นโดยใช้จุดปลายเดียวกันที่แน่นอน ถ้าฉันไปที่ฐานข้อมูลคุณสมบัติสำหรับฐานข้อมูลทดสอบและคลิกปุ่ม "Failover" มันจะล้มเหลวบนฐานข้อมูลการผลิตเช่นกันเนื่องจากฐานข้อมูลทั้งสองใช้จุดปลายทางมิเรอร์และคุณสมบัติที่อยู่เครือข่ายเซิร์ฟเวอร์ของพวกเขาเหมือนกันหรือไม่ ฉันกังวลเพราะเมื่อฉันตั้งค่าการมิเรอร์สำหรับฐานข้อมูลที่ 2 ฉันไม่จำเป็นต้องกำหนดค่าอะไรใหม่ มันใช้ข้อมูลที่มีอยู่ทั้งหมด ถ้าฉันใช้ปุ่ม "Failover" จากคุณสมบัติของฐานข้อมูลมันจะทำให้เกิดความล้มเหลวในฐานข้อมูลทั้งหมดที่ใช้จุดปลายนั้นหรือเพียงแค่ฐานข้อมูลเฉพาะที่ฉันกำลังดูคุณสมบัติใช่หรือไม่

2
อะไรคือความแตกต่างระหว่างการทำมิเรอร์และการทำคลัสเตอร์ที่ล้มเหลวและแต่ละอันที่แนะนำกัน
อะไรคือความแตกต่างที่สำคัญระหว่างการทำมิเรอร์และการเฟลโอเวอร์คลัสเตอร์? ปัญหาประเภทใดที่แต่ละคนแก้ไขได้และในสถานการณ์แบบใดที่แต่ละคนได้รับการแนะนำในอีกสถานการณ์หนึ่ง
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.