ฉันกำลังพยายามตั้งค่าคลัสเตอร์ Linux-HA ที่ใช้งาน / passive (2 nodes) พร้อมด้วย corosync และเครื่องกระตุ้นการเต้นของหัวใจเพื่อเก็บฐานข้อมูล PostgreSQL- และทำงาน มันทำงานผ่าน DRBD และ service-ip หาก node1 ล้มเหลว node2 ควรใช้เวลามากกว่า เช่นเดียวกันถ้า PG รันบน node2 และล้มเหลว ทุกอย่างทำงานได้ดียกเว้นสิ่งที่สโตนนิช
ระหว่างโหนดเป็นการเชื่อมต่อ HA โดยเฉพาะ (10.10.10.X) ดังนั้นฉันจึงมีการกำหนดค่าอินเทอร์เฟซดังต่อไปนี้:
eth0 eth1 host
10.10.10.251 172.10.10.1 node1
10.10.10.252 172.10.10.2 node2
เปิดใช้งาน Stonith แล้วและฉันกำลังทดสอบกับ ssh-agent เพื่อฆ่าโหนด
crm configure property stonith-enabled=true
crm configure property stonith-action=poweroff
crm configure rsc_defaults resource-stickiness=100
crm configure property no-quorum-policy=ignore
crm configure primitive stonith_postgres stonith:external/ssh \
params hostlist="node1 node2"
crm configure clone fencing_postgres stonith_postgres
crm_mon -1
แสดงให้เห็นว่า:
============
Last updated: Mon Mar 19 15:21:11 2012
Stack: openais
Current DC: node2 - partition with quorum
Version: 1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b
2 Nodes configured, 2 expected votes
4 Resources configured.
============
Online: [ node2 node1 ]
Full list of resources:
Master/Slave Set: ms_drbd_postgres
Masters: [ node1 ]
Slaves: [ node2 ]
Resource Group: postgres
fs_postgres (ocf::heartbeat:Filesystem): Started node1
virtual_ip_postgres (ocf::heartbeat:IPaddr2): Started node1
postgresql (ocf::heartbeat:pgsql): Started node1
Clone Set: fencing_postgres
Started: [ node2 node1 ]
ปัญหาคือเมื่อผมตัดการเชื่อมต่อระหว่าง eth0-อินเตอร์เฟซที่มันฆ่าทั้งสองโหนด ฉันคิดว่ามันเป็นปัญหาของโควรัมเพราะมีแค่ 2 โหนด แต่ฉันไม่ต้องการเพิ่มโหนดที่ 3 เพียงเพื่อคำนวณโควรัมที่ถูกต้อง
มีแนวคิดใดที่จะแก้ปัญหานี้หรือไม่?
crm_mon
ลักษณะอย่างไรเมื่อคลัสเตอร์ของคุณอยู่ในสถานะล้มเหลว?