คนประเภทใดที่ใช้ในการจัดเก็บจริงสำหรับเซิร์ฟเวอร์ VMware ESX


27

VMware และผู้เผยแพร่เครือข่ายหลายคนพยายามบอกคุณว่าไฟเบอร์ SAN (ซับซ้อน) แพงเป็นตัวเลือกการจัดเก็บข้อมูล "เท่านั้น" สำหรับเซิร์ฟเวอร์ VMware ESX และ ESXi ใช่แน่นอน การใช้ SAN รวดเร็วเชื่อถือได้และทำให้ vMotion เป็นไปได้ ยิ่งใหญ่ แต่: ผู้ใช้ ESX / ESXi ทุกคนสามารถซื้อ SAN ได้หรือไม่?

ทฤษฎีของฉันคือน้อยกว่า 20% ของการติดตั้ง VMware ESX ทั้งหมดบนโลกใบนี้ใช้ไฟเบอร์หรือ iSCS SAN การติดตั้งส่วนใหญ่จะอยู่ใน บริษัท ขนาดใหญ่ที่สามารถซื้อได้ ฉันคาดการณ์ว่าการติดตั้ง VMware ส่วนใหญ่จะใช้ "ที่เก็บข้อมูลที่แนบ" (vmdks ถูกเก็บไว้ในดิสก์ภายในเซิร์ฟเวอร์) ส่วนใหญ่ทำงานใน SMEs และมีอยู่มากมาย!

เราใช้เซิร์ฟเวอร์ ESX 3.5 สองเครื่องพร้อมที่เก็บข้อมูลที่ต่อพ่วงและเซิร์ฟเวอร์ ESX 4 สองเครื่องด้วย iSCS san และ "ความแตกต่างของชีวิตจริง" ระหว่างทั้งสองนั้นแทบจะไม่โดดเด่น :-)

คุณรู้สถิติอย่างเป็นทางการของคำถามนี้หรือไม่? คุณใช้อะไรเป็นสื่อกลางในการจัดเก็บข้อมูลของคุณ?


5
ควรเป็น Wiki ชุมชน
MDMarra

วิทยานิพนธ์หรือทฤษฎี
Mark Henderson

คำตอบ:


27

ฉันทำงานให้คำปรึกษากับ VMware จำนวนมากและฉันบอกว่าเปอร์เซ็นต์นั้นใกล้เคียงกับ 80% ของฐานการติดตั้งที่ใช้พื้นที่จัดเก็บข้อมูลร่วมสูง (FC, iSCSI หรือ NAS ระดับไฮเอนด์) และลูกค้าของฉันเป็น SME ปัจจัยสำคัญที่ฉันพบคือว่าธุรกิจปฏิบัติต่อเซิร์ฟเวอร์ในเวลาที่สำคัญหรือไม่สำหรับธุรกิจส่วนใหญ่ในทุกวันนี้

แน่นอนคุณสามารถเรียกใช้ VM ที่มีประสิทธิภาพสูงได้จากที่จัดเก็บข้อมูลที่เชื่อมต่อโดยตรง (HP DL380 G6 ที่มี 16 ไดรฟ์ภายในในอาร์เรย์ RAID 10 จะมีดิสก์ที่ค่อนข้างเร็ว IO) แต่ถ้าคุณกำลังสร้าง VMware หรือสภาพแวดล้อมเสมือนจริงอื่น ๆ หรือหลายพันเซิร์ฟเวอร์คุณจะเสียสติถ้าคุณไม่ได้ใช้ความพยายาม (และอาจเป็นเงิน) ในสถาปัตยกรรมสตอเรจที่มีประสิทธิภาพ

คุณไม่จำเป็นต้องซื้อ SAN ระดับไฮเอนด์สำหรับฟังก์ชั่นการทำคลัสเตอร์ - คุณสามารถใช้สิ่งเหล่านี้กับ NAS ที่ราคาไม่แพง (หรือ SAN แบบเสมือนจริงเช่น VSA ของ HP \ Lefthand) และยังคงใช้หน่วยเก็บข้อมูลที่ผ่านการรับรอง อย่างไรก็ตามหากคุณใช้พื้นที่เก็บข้อมูลที่ใช้ร่วมกันและไม่มีความซ้ำซ้อนในทุกจุดในโครงสร้างพื้นฐาน SAN \ NAS คุณไม่ควรใช้งานจริงเกินกว่าการทดสอบ และความซ้ำซ้อนคือ (อย่างน้อยที่สุด) แบบคู่ (อิสระ) ของ HBA \ storage NICs ในเซิร์ฟเวอร์ของคุณผ้าที่แยกอิสระสองตัวควบคุมที่ซ้ำซ้อนใน SAN, แคชสำรองแบตเตอรี \ แคชที่ถูกทำลาย, พัดลมที่สามารถถอดเปลี่ยนได้ \ 10 \ 50 และฮอตสปอตที่เหมาะสม

ความแตกต่างที่เกิดขึ้นจริงระหว่างระบบของคุณคือหากระบบใดระบบหนึ่งของคุณทำงานล้มเหลวอย่างหายนะคุณมีงานจำนวนมากที่ต้องทำเพื่อกู้คืนระบบและคุณจะได้รับการหยุดทำงานเพียงแค่ทำการแก้ไข ด้วยระบบที่เชื่อมต่อกับ SAN ที่เป็นคลัสเตอร์การติดตั้ง hypervisor หรือแม้แต่การอัพเกรดฮาร์ดแวร์ของ hypervisor นั้นจะส่งผลให้ระบบไม่ทำงาน ความล้มเหลวของเซิร์ฟเวอร์ที่ร้ายแรงนั้นทำให้การบริการล้มเหลวเป็นระยะเวลาที่ใช้ในการรีบูต VM บนโหนดที่แยกต่างหาก (ที่แย่ที่สุด) หรือหากคุณมี Fault Tolerance ที่ครอบคลุม VM เหล่านั้นคุณจะไม่ต้องหยุดทำงานเลย


ทั้งนี้ขึ้นอยู่กับธุรกิจของคุณความซ้ำซ้อนทุกอย่างที่เกินจริงอาจเกินความจำเป็น - อะไหล่บางส่วน (ตัวอย่างเช่น hbas และ gbics) สามารถครอบคลุมปัญหามากมาย หากคุณมีการทำงานล้มเหลวของคลัสเตอร์นั่นรวมถึงอุปกรณ์บางอย่างสามารถให้ความยืดหยุ่นที่เพียงพอสำหรับหลาย บริษัท
จิม Zajkowski

ฉันควรเพิ่มเซิร์ฟเวอร์ ESX แปดตัวของเราทุกคนใช้ดิสก์ FC ที่ใช้ร่วมกันเพื่อการจัดเก็บ
จิม Zajkowski

1
True และ FC สติ๊กเกอร์ช็อตเป็นปัญหาที่แท้จริง (ค่าใช้จ่ายการออกใบอนุญาตพอร์ตบนสวิตช์ FC โดยเฉพาะทำให้ฉันอิจฉาริษยาปกติ) แต่สำหรับการสนับสนุนในระยะยาวที่มีความซ้ำซ้อนเต็มรูปแบบทำให้ทุกอย่างง่ายขึ้นในการจัดการคุณสามารถหลีกเลี่ยงการหยุดทำงาน . ด้วย FC ความซ้ำซ้อนนี้ทำให้แขนและขา (และอาจจะเป็นไตหรือสอง) เพื่อให้แน่ใจ แต่ด้วย iSCSI หรือสภาพแวดล้อม NAS มันไม่ได้เพิ่มค่าใช้จ่ายโดยรวมมากถึงแม้ว่าจะใช้ส่วนประกอบที่มีราคาค่อนข้างแพงก็ตาม
Helvick

1
ฉันยังไม่เห็น "สองสิ่งทุกอย่าง" ... โดยปกติแล้ว SAN ไดรฟ์จะเสียบเข้ากับแบ็คเพลนเดียวซึ่งเป็นจุดล้มเหลวเพียงจุดเดียว
James Risto

1

ในฐานะ บริษัท ที่มีมากกว่าหนึ่งพันโฮสต์เราเริ่มต้นด้วย FC ลองใช้ iSCSI ชั่วขณะหนึ่ง แต่กลับไปที่ FC เนื่องจากปัญหาด้านประสิทธิภาพ เรากำลังมองหา NFS อย่างจริงจัง แต่ยังไม่มีข้อสรุป โอ้และเราใช้ HP XP / EVA และ NetApp บางตัวเราไม่มีเดสก์ท็อป / dev โฮสต์ในที่จัดเก็บในเครื่อง


1

อย่างที่คุณเห็นไม่มีขนาดที่เหมาะกับทุกคนและไม่จำเป็นต้องใช้โซลูชั่นการจัดเก็บข้อมูลชั้นเดียว คุณสามารถมีคลาสหน่วยเก็บข้อมูลได้หลายคลาสโดยขึ้นอยู่กับความพร้อมใช้งานและข้อกำหนดด้านประสิทธิภาพ


1

สำหรับการเขียนและอ่านที่มีประสิทธิภาพสูงฉันพบว่า FC เหนือชั้นในด้านประสิทธิภาพและในขณะที่ราคาสูง ... มันใช้งานได้ ... สำหรับความคาดหวังด้านประสิทธิภาพที่มากกว่าปกติ iSCSI ทำงานได้ค่อนข้างดีดังนั้นฉันจึงได้ แลกเปลี่ยนไฟล์กล่องจดหมายของเซิร์ฟเวอร์บนระบบย่อยดิสก์ FC และไดรฟ์บูตจริงบนดิสก์อินเตอร์เฟส iSCSI โดยเซิร์ฟเวอร์ DNS และเครื่อง Active Directory ก็ทำงานจาก iSCSI ด้วยเช่นกัน


1

ฉันใช้ ESX กับ SAN, NAS และ DAS มันขึ้นอยู่กับ:

  1. งบ
  2. ประสบการณ์
  3. ศูนย์ข้อมูลและ / หรือพื้นที่ชั้นวาง
  4. เงิน

สำหรับความน่าเชื่อถือและความเร็วฉันไม่คิดว่าคุณจะสามารถเอาชนะ SAN ได้

เพื่อความน่าเชื่อถือและค่าใช้จ่ายฉันจะไปกับ NAS

และสำหรับความเร็วและต้นทุน DAS

ไม่ใช่ว่าตัวเลือกของแต่ละคนจะไม่ทับซ้อนกัน แต่มีจุดแข็งที่ฉันได้เห็น


0

เราใช้เซิร์ฟเวอร์ 4 ESX 4 และเราใช้ EqualLogic iSCSI SAN


เกียร์ EqualLogic เปรียบเทียบกับ LeftHand หรือ SAN แบบดั้งเดิมในแง่ของราคาและประสิทธิภาพได้อย่างไร
Sim

ฉันอยากรู้ยังต้องรู้วิธี LeftHand เปรียบเทียบตอนนี้ที่ HP AHS มาพวกเขา
วอร์เรน

ฉันไม่มีประสบการณ์กับ LeftHand ฉันกำลังอยู่ระหว่างการทำการเปรียบเทียบระหว่างการติดตั้ง EqualLogic ของเรากับ Fibre Channel SAN จาก Compellent ฉันจะโพสต์กลับพร้อมอัปเดตเมื่อฉันมีผลลัพธ์บางอย่าง
Richard West

0

ในการติดตั้งที่เก็บข้อมูลขนาดเล็กในพื้นที่นั้นเป็นที่ยอมรับได้อย่างสมบูรณ์แบบตราบใดที่คุณมีดิสก์ที่เหมาะสม - ฉันว่าไดรฟ์ 10k RPM + SAS ครั้งเดียวที่คุณต้องใช้ดิสก์ที่ใช้ร่วมกัน (ฉันไม่ได้บอกว่า san เพราะดิสก์ที่ใช้ร่วมกันของคุณสามารถปิดได้และการแบ่งปัน NFS) คือเมื่อคุณต้องทำการทำคลัสเตอร์ - VMWare HA และ DRS

ตอนนี้เรามีที่เก็บข้อมูล 3 ชั้น - FibreChannel SAN, Equalogix SAN ระดับไฮเอนด์และ MD3000i SAN ระดับล่างสุด สองขั้นสุดท้ายคือ iSCSI นอกจากนี้เรายังเรียกใช้เซิร์ฟเวอร์บางตัวนอกพื้นที่เก็บข้อมูลของเซิร์ฟเวอร์ ESX ซึ่งส่วนใหญ่เป็นยูทิลิตี้เซิร์ฟเวอร์ที่เราไม่สนใจว่าจะหยุดทำงานเป็นเวลาหนึ่งหรือสองชั่วโมงในขณะที่เราแก้ไขสิ่งต่าง ๆ หากทุกอย่างกำลังบูม

นอกจากนี้เรายังทำการทดสอบสภาพแวดล้อมนอกบ้านแบบ NAS โดยใช้ไดรฟ์ SATA 7.2k และเป้าหมายขององค์กร iSCSI (ประสิทธิภาพไม่ดีเท่าที่ควร

คนจำนวนมากมีแนวโน้มที่จะวิ่งแข่งกับหุ้น NFS ในสภาพแวดล้อมที่ใหญ่ขึ้นเช่นกัน ฉันต้องการที่จะเล่นกับสิ่งนี้ในขณะที่ แต่ไม่พบเวลา


0

เราเรียกใช้สี่ (ดีสี่ชีวิตหนึ่งสำหรับการทดสอบ) ESXi โฮสต์ด้วยผ้า iSCSI ที่สร้างขึ้นจากสวิทช์สินค้าและ Hitachi SAN ต่ำ - SMS-100

แม้ในระดับนั้นเรามีตัวควบคุมแบบคู่แต่ละตัวมีพอร์ตคู่เข้าสู่แบ็คเพลน SAS เพื่อให้ตัวควบคุมสามารถยึดดิสก์และนิคส์คู่ซึ่งเราข้ามสายไปยังสวิตช์คู่และไปยังนิคส์คู่ในโฮสต์ ESX

แต่ละปริมาณ vfs มีสี่เส้นทางที่มองเห็นได้ดังนั้นจึงมีเหตุผลพอสมควร เราใช้การสลับการจ่ายพลังงานของเดลล์สำหรับผ้า - พวกเขามีปัญหาที่อาจเกิดขึ้นได้แน่นอน (อย่างน้อยก็ไม่มี PSU ซ้ำซ้อน) แต่ก็มีราคาถูกพอที่จะมีอะไหล่ที่กำหนดค่าไว้ล่วงหน้าสองกล่องในกล่องพร้อมที่จะแลกเปลี่ยน

เห็นได้ชัดว่าถ้าคุณต้องการเก้าเพิ่มคุณต้องใช้เงินมากขึ้น แต่ฉันคิดว่าความงามของ iSCSI, ESXi และชุด Gigabit ethernet ชุดคือคุณสามารถตีน้ำหนักของคุณในแง่ของความยืดหยุ่นและประสิทธิภาพ


0

ทุกอย่างมีข้อดีข้อเสียบรรทัดล่างคือ SLA โหลดแอปพลิเคชันและสเกล ดังนั้นหากคุณต้องการที่เก็บข้อมูลประสิทธิภาพสูงสำหรับการปรับใช้ขนาดเล็ก (โฮสต์ 1-5 โฮสต์) คุณอาจดึงมันออกมาด้วย NFS (จริง ๆ แล้วฉันเคยประสบความสำเร็จในการหน่วงเวลาดีกว่ากับ NFS มากกว่ากับ SAN โดยใช้ดิสก์ RAM) ตอนนี้ลองปรับขนาดแล้วคุณจะพบว่าค่าใช้จ่ายในการทำซ้ำการติดตั้งของคุณในระดับที่เทียบได้กับ SAN ที่ยอดเยี่ยมทำให้ FC เป็นทางเลือกเดียวที่จะอ่าน ... ส่วนใหญ่ฉันใช้ชุดค่าผสมสำหรับบริการต่างๆ , DBs, backups, archives) ไม่ใช่แพลตฟอร์มเดียวที่จะปรับค่าใช้จ่ายให้เหมาะสมขึ้นอยู่กับความต้องการ

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.