ความต้องการความเร็วในการเขียน: ความเป็นไปได้ 1.1GB / s?


29

เราจะมีเครื่องที่ทำงานที่ประสิทธิภาพสูงสุดควรสามารถดัน50 ("หัวเขียน") x 75GBของข้อมูลต่อชั่วโมง นั่นคือประสิทธิภาพสูงสุดของความเร็วในการเขียนที่ ~ 1100MB / s ในการรับสิ่งนั้นจากเครื่องจะต้องใช้สองบรรทัด 10GBi คำถามของฉันคือเทคโนโลยีเซิร์ฟเวอร์ + ชนิดใดที่สามารถจัดการ / จัดเก็บการไหลของข้อมูลดังกล่าวได้

ปัจจุบันพื้นที่เก็บข้อมูลเราทำงานกับ ZFS แม้ว่าความเร็วในการเขียนจะไม่เป็นปัญหา (เราไม่ได้ใกล้เคียงกับความเร็วเหล่านี้) ZFS (zfs บน linux) จะเป็นตัวเลือกหรือไม่? เราจำเป็นต้องจัดเก็บข้อมูลจำนวนมาก "คำแนะนำด้านไอที" แนะนำบางส่วนระหว่าง 50-75 TB โดยรวม ดังนั้นจึงอาจไม่สามารถเป็น SSD ทั้งหมดเว้นแต่ว่าเราต้องการเสนอลูกคนโตของเรา

เพิ่มเติมบางส่วนตามคำตอบที่ยอดเยี่ยม:

  • สูงสุดคือ 50x75GB / ชั่วโมงในระหว่างที่มีการใช้งานน้อยกว่า 24 ชม. (เป็นไปได้ <6h)
  • เราไม่คาดหวังว่าสิ่งนี้จะเกิดขึ้นในเร็ว ๆ นี้ส่วนใหญ่เราจะเรียกใช้ 5-10x75GB / ชั่วโมง
  • เป็นเครื่องพรีอัลฟ่า แต่ควรเป็นไปตามข้อกำหนด (แม้ว่าจะมีเครื่องหมายคำถามจำนวนมากกำลังเล่นอยู่)
  • เราจะใช้NFSเป็นการเชื่อมต่อจากเครื่องไปยังเซิร์ฟเวอร์
  • เลย์เอาต์: สร้างเครื่อง -> ที่เก็บข้อมูล (อันนี้) -> (การโจมตีอย่างปลอดภัย 6) -> การคำนวณคลัสเตอร์
  • เพื่อให้ความเร็วในการอ่านไม่จำเป็นแต่มันจะดีที่จะใช้งานได้จากคอมพิวเตอร์คลัสเตอร์ ( แต่นี้เป็นตัวเลือกที่สมบูรณ์)
  • เป็นไปได้มากว่ามันจะเป็นไฟล์ข้อมูลขนาดใหญ่ (ไม่เล็กมาก)

8
mb เช่นเดียวกับ megaBIT หรือ megaByte? โปรดใช้ MBi MiBi MByte หรือ MB เพื่อบอกเลิกไบต์ นอกจากนี้ 2 10 gbit line จะให้คุณ 2,400 MByte / s
mzhaase

1
ตอนนี้ชัดเจนยิ่งขึ้นขอบคุณ บางคำถามเพิ่มเติม ประสิทธิภาพสูงสุดคือ 1.1 GBps แต่โดยเฉลี่ยคืออะไร เดือยเหล่านี้ใช้เวลานานแค่ไหน? และปริมาณงานต่อเนื่องขั้นต่ำของคุณคืออะไรคุณยินดีที่จะยอมรับ? เขียนไฟล์ขนาดใหญ่หนึ่งไฟล์หรือหลายไฟล์เล็กหรือไม่? โปรโตคอลชนิดใดที่จะใช้ คุณต้องการความซ้ำซ้อนแบบไหน ดูเหมือนว่าอุปกรณ์การแพทย์หรือวิทยาศาสตร์บางประเภทคุณสามารถเชื่อมโยงแผ่นข้อมูลได้หรือไม่? เนื่องจากคุณใช้ ZFS อยู่แล้วคุณสามารถติดต่อกับ บริษัท จัดเก็บ ZFS เฉพาะทางซึ่งมีอยู่ไม่กี่แห่ง พวกเขาสามารถระบุระบบสำหรับคุณ
mzhaase

2
ต้องทำด้วยเครื่องเดียวจริง ๆ หรือไม่? การทำโหลดบาลานซ์ให้กับหลาย ๆ เครื่องสามารถทำได้ง่ายขึ้น คุณสามารถใช้ที่เก็บข้อมูลที่ใช้ร่วมกันหรือรวมข้อมูลในภายหลัง ใน AWS คุณอาจใช้ ELB การปรับขนาดอัตโนมัติอินสแตนซ์ EC2 จำนวนมากและ EFS แต่ดูเหมือนว่าคุณต้องการฮาร์ดแวร์ คำถามของคุณไม่ได้อธิบายกรณีการใช้ดีมาก
ทิม

1
แค่ทราบว่าคุณไม่ต้องการประสิทธิภาพ "สูงสุด" - คุณต้องการประสิทธิภาพ "ยั่งยืน" ที่ 1.1GBpS
jsbueno

1
@jsbueno คุณถูกต้อง แต่เราสามารถเลือกจำนวนหัวเขียนที่จะเปิดใช้งานดังนั้น 1GB / s จึงเป็น "กรณีที่แย่ที่สุด" แต่เมื่อพิจารณาว่าอาจใช้เวลาหลายชั่วโมงในการแสดงผลอย่างต่อเนื่อง
SvennD

คำตอบ:


18

แน่นอน ... ZFS บน Linux เป็นไปได้ถ้าทำการแก้ไขอย่างถูกต้อง มีหลายกรณีที่การออกแบบ ZFS ไม่ดีแต่ทำได้ดีความต้องการของคุณสามารถทำได้

ดังนั้นปัจจัยหลักจะเป็นวิธีที่คุณเชื่อมต่อกับระบบจัดเก็บข้อมูลนี้ มันเป็น NFS หรือไม่? CIFS? ลูกค้าเชื่อมต่อกับที่เก็บข้อมูลได้อย่างไร หรือการประมวลผล ฯลฯ ทำในระบบจัดเก็บข้อมูลหรือไม่

กรอกรายละเอียดเพิ่มเติมและเราสามารถดูว่าเราสามารถช่วยได้

ตัวอย่างเช่นหากนี่คือ NFS และด้วยการเมาท์แบบซิงโครนัสก็เป็นไปได้ที่จะปรับขนาด ZFS บน Linux เพื่อตอบสนองความต้องการด้านประสิทธิภาพการเขียนและยังคงรักษาความต้องการพื้นที่จัดเก็บข้อมูลในระยะยาว บีบอัดข้อมูลได้หรือไม่ ลูกค้าแต่ละรายเชื่อมต่อกันอย่างไร? กิกะบิตอีเธอร์เน็ต


แก้ไข:

ตกลงฉันจะกัด:

นี่เป็นสเป็คที่ประมาณ$ 17k- $ 23kและพอดีกับพื้นที่แร็ค 2U

HP ProLiant DL380 Gen9 2U Rackmount
2 x Intel E5-2620v3 or v4 CPUs (or better)
128GB RAM
2 x 900GB Enterprise SAS OS drives 
12 x 8TB Nearline SAS drives
1 or 2 x Intel P3608 1.6TB NVMe drives

การตั้งค่านี้จะช่วยให้คุณสามารถใช้พื้นที่ 80TB โดยใช้ฮาร์ดแวร์ RAID6 หรือ ZFS RAIDZ2

เนื่องจากการโฟกัสคือประสิทธิภาพของ NFS (สมมติว่าการเขียนแบบซิงโครนัส) เราสามารถดูดซับสิ่งเหล่านี้ทั้งหมดได้อย่างง่ายดายด้วยไดรฟ์ P3608 NVMe (สโลปเปอร์ SLOG) สามารถรองรับ 3GB / s ในการเขียนตามลำดับและมีคะแนนความอดทนสูงพอที่จะจัดการกับปริมาณงานที่คุณได้อธิบายไว้อย่างต่อเนื่อง ไดรฟ์สามารถ overprovisioned ได้อย่างง่ายดายเพื่อเพิ่มการป้องกันภายใต้กรณีการใช้ SLOG

ด้วยเวิร์กโหลด NFS การเขียนจะถูกรวมกันและถูกฟลัชไปยังดิสก์ที่กำลังหมุน ภายใต้ Linux เราจะปรับมันเพื่อล้างทุกๆ 15-30 วินาที ดิสก์หมุนวนสามารถจัดการกับสิ่งนี้และอาจได้ประโยชน์มากกว่านี้ถ้าข้อมูลถูกบีบอัดได้

เซิร์ฟเวอร์สามารถขยายได้ด้วยสล็อต PCIe ที่เปิดเพิ่มอีก 4 ช่องและพอร์ตเพิ่มเติมสำหรับอะแดปเตอร์ 10GbE FLR ดูอัลพอร์ต ดังนั้นคุณมีความยืดหยุ่นเครือข่าย


ขอบคุณ ewwwite; เราจะใช้ NFS และมีเพียงหนึ่งไคลเอ็นต์ (เครื่อง) เท่านั้นที่จะเลือกใช้เป็นอุปกรณ์อ่านจากคลัสเตอร์ของเรา (แต่การประมวลผลใดหรือไม่ทราบวิธี) เรามี "พื้นที่" ในเซิร์ฟเวอร์จัดเก็บข้อมูล RAID 6
SvennD

@SvennD หากเป็น NFS และด้วยการเมาท์แบบซิงโครนัสก็เป็นไปได้ที่จะปรับขนาด ZFS บน Linux เพื่อตอบสนองความต้องการด้านประสิทธิภาพการเขียนและยังคงรักษาความต้องการพื้นที่เก็บข้อมูลในระยะยาว บีบอัดข้อมูลได้หรือไม่ นั่นเป็นอีกปัจจัย อย่างไรก็ตามขอบเขตของสิ่งนี้เกินกว่าคำแนะนำที่ฉันสามารถให้บนฟอรัมออนไลน์ได้ฟรี ข้อมูลการติดต่อของฉันคือของฉันที่มีอยู่ในรายละเอียด ServerFault ติดต่อฉันหากคุณต้องการหารือเพิ่มเติม
ewwhite

5
ZFS เป็นมากกว่าความสามารถในสิ่งที่คุณต้องการ ปัญหาแรกจะทำให้แน่ใจว่าฮาร์ดแวร์จริงของคุณสามารถใช้งานได้ เป็นเรื่องง่ายที่จะสร้างคอขวดโดยไม่ตั้งใจเกิน 1GB / วินาทีในระดับอะแดปเตอร์หรือแบ็คเพลนหากคุณไม่ระวัง ตรวจสอบให้แน่ใจว่าคุณได้รับส่วนนั้นถูกต้องแล้วถามเกี่ยวกับวิธีการหลีกเลี่ยง gotchas ในด้าน ZFS
Jim Salter

@SvennD แก้ไขด้วยข้อกำหนดการออกแบบขั้นพื้นฐานและค่าใช้จ่ายคร่าวๆ
ewwhite

ฉันคิดว่าฉันแนะนำOracle X6-2Lบนเซิร์ฟเวอร์ HP เซิร์ฟเวอร์ Oracle มาพร้อมกับพอร์ตเครือข่าย 10GB จำนวนสี่พอร์ตนอกกรอบ และจากประสบการณ์ของฉัน HP ทำให้คุณเสียชีวิตสำหรับ ILOM การออกใบอนุญาตซอฟต์แวร์ ILOM และอื่น ๆ จนถึงจุดที่เซิร์ฟเวอร์ HP มีราคาแพงกว่ากล่อง Oracle ที่เทียบเท่า ประสบการณ์ของฉันยังบอกฉันว่ากล่อง Oracle จะดีกว่ากล่อง HP - และมีโอกาสน้อยกว่ากล่อง HP มากที่จะมีหนึ่งในคอขวดฮาร์ดแวร์ที่ @JimSalter กล่าวถึง ใช่ซื้อจาก Oracle อาจเจ็บปวด
Andrew Henle

23

สำหรับความเร็วในการเขียนที่สูงมากผมแนะนำให้ใช้กับ ZFS, BTRFS หรือระบบไฟล์ CoW ใด ๆ ฉันจะใช้ XFS ซึ่งมีประสิทธิภาพอย่างมากในการถ่ายโอนข้อมูลขนาดใหญ่ / การสตรีม

มีข้อมูลที่ขาดหายไปจำนวนมาก (คุณวางแผนที่จะเข้าถึงข้อมูลเหล่านี้หรือไม่ความเร็วในการอ่านสำคัญหรือไม่? คุณกำลังจะเขียนเป็นกลุ่มก้อนขนาดใหญ่หรือไม่เป็นต้น) เพื่อให้คำแนะนำเฉพาะแก่คุณ

  • ใช้ XFS ที่ด้านบนของพาร์ติชั่นดิบหรือปริมาตร LVM ที่เป็นไขมัน (ห้ามใช้วอลุ่มแบบบาง)
  • ปรับขนาด ioblock เพื่อรับมือกับการเขียนข้อมูลขนาดใหญ่อย่างมีประสิทธิภาพ
  • ใช้การ์ด RAID ของฮาร์ดแวร์ที่มีแคชการเขียนที่ป้องกันด้วย powerloss หากการใช้ฮาร์ดแวร์ RAID ไม่เป็นปัญหาให้ใช้รูปแบบซอฟต์แวร์ RAID10 (หลีกเลี่ยงโหมด RAID ที่ใช้พาริตี)
  • ใช้เน็ตเวิร์กอินเตอร์เฟสสอง 10Gb / s กับ LACP (การรวมลิงก์)
  • ต้องแน่ใจว่าเปิดใช้ Jumbo Frames
  • ในขณะที่คุณกำลังจะใช้ NFS ให้พิจารณาใช้pNFS (v4.1) เพื่อเพิ่มความสามารถในการขยาย
  • แน่นอนสิ่งอื่น ๆ อีกมากมาย ...

3
นอกจากนี้หากใช้ XFS ให้ใส่วารสารในคู่ RAID RAID1
วัณโรค

2
หากใช้การ์ด RAID ที่มีแคชการเขียนย้อนกลับที่ป้องกันด้วย powerloss วารสารสามารถถูกวางไว้ในอาร์เรย์หลัก: แคชการเขียนจะดูดซับและรวมกันในการเขียนเจอร์นัล นอกจากนี้จากสิ่งที่ OP อธิบายการโหลดข้อมูลเมตาควรค่อนข้างต่ำเมื่อเทียบกับการสตรีมข้อมูล
shodanshok

2
ZFS จะทำงานได้ดีและสามารถไปได้เร็วกว่า XFS แน่นอนคุณจะต้องตั้งค่าให้ถูกต้องและมี RAM และ SSD สำหรับ ZIL และ SLOG แต่นั่นอาจไม่สำคัญกับความเร็วที่ต้องการ
John Keates

3
ฉันดู XFS บน Linux เป็นเทคโนโลยีเก่า OP สามารถเรียกใช้ ZFS ได้อย่างง่ายดายบนฮาร์ดแวร์ RAID เหตุผลที่ฉันแนะนำ ZFS คืออนุญาตให้ SLOG การเขียนแบบซิงโครนัส NFS ขาเข้าถูกดูดซับโดยเวลาแฝงที่ต่ำโดยไม่ต้องใช้พูลทั้งหมดของ SSD
ewwhite

6
Shelby Cobra เป็น "เทคโนโลยีเก่า" แต่ก็ยังสามารถสูบบุหรี่รถยนต์ส่วนใหญ่ออกจากประตูได้ ZFS ไม่เคยถูกออกแบบมาให้เป็นระบบไฟล์ที่มีประสิทธิภาพสูงและแม้ว่ามันจะเป็นไปได้ที่จะทำการปรับแต่งให้มันเร็วขึ้นอย่างรวดเร็วเมื่อมีปริมาณงานที่เฉพาะเจาะจง แต่ก็ไม่ได้ออกแบบมาสำหรับมัน จะต้องใช้ฮาร์ดแวร์มากขึ้น, หน่วยความจำมากขึ้นและการปรับแต่งจำนวนมากเพื่อให้เอาชนะสิ่งที่ XFS มอบให้คุณฟรีด้วยจำนวนไฟล์และตัวเลือกการจัดรูปแบบจำนวนน้อย
TB

4

อีเธอร์เน็ต 25Gbps นั้นมีความสำคัญในระดับแนวหน้าในขณะที่ NVMe แบบ PCIe จะทำให้การรับส่งข้อมูลนั้นง่ายดาย

สำหรับการอ้างอิงฉันเพิ่งสร้างโซลูชัน 'บันทึกการจับภาพ' ขนาดเล็กโดยใช้เซิร์ฟเวอร์ dual-xeon ปกติสี่ตัว (HPE DL380 Gen9 ในกรณีนี้) แต่ละตัวมีไดรฟ์ 6 x NVMe ฉันใช้ IP ผ่าน Infiniband แต่ NICs 25/40Gbps จะเหมือนกัน และเราจับภาพได้สูงสุด 8GB ต่อเซิร์ฟเวอร์ - ทำงานได้ดี

โดยทั่วไปจะไม่ถูก แต่ก็ทำไม่ได้มากในวันนี้


1
ใช่ แต่คุณจะเก็บ ~ 50TB ใน NVMe ได้อย่างไร เหยื่อมีราคาถูกดังนั้นทำอย่างไรเราผสานเพื่อให้ความเร็วถึงหุ้น ...
SvennD

จุดดีที่จริงแล้วคุณจะได้รับ 4 x 4TB ในเซิร์ฟเวอร์เดียวฉันใช้เซิร์ฟเวอร์หลายเครื่องโดยที่คุณไม่สามารถทำได้? มิฉะนั้นจะโหลดเพียง 2.5 "10krpm ใน R10
Chopper3

ไม่ต้องการมากไปกว่านี้เราไม่ต้องการสเป็คเหล่านั้นยกเว้นเข้าประตูและฉันไม่ต้องการฝันร้ายของโอเวอร์เฮดของเซิร์ฟเวอร์หลายเครื่อง เพียงเครื่องเดียว R10 จะเร็วพอไหม? (การโจมตีจาก
แฮร์แวร์

เรามีกล่อง Windows 2012R2 ที่เราสร้างขึ้นจากชุดอุปกรณ์ที่ไม่ได้ใช้เราใช้มันเป็น NAS มี 6 x 400GB SAS SSDs ภายใน 8 x D2600 ชั้นวางแต่ละชั้นมี 25 x 900GB 10k SAS ดิสก์และ D6000 ชั้นวางที่มีดิสก์ 70 x 4TB และสามารถทำให้ NIC ขนาด 10Gbps ได้อย่างง่ายดาย - ไม่ลองใช้กับ NIC ขนาด 25Gb เลย tbh
Chopper3

1
@MSalters มีไดรฟ์ PMR (ไม่ใช่ SMR) 8/10 TB จำนวนหนึ่งซึ่งมีอัตราการถ่ายโอนในช่วง 200 MB / s อาร์เรย์ไดรฟ์ 12 หรือ 16 ทั้งใน RAID10 และ RAID6 ควรเกินความเร็วการถ่ายโอน 1.1 GB / s ที่ต้องการได้อย่างง่ายดาย
shodanshok

2

ดูเหมือนจะไม่เป็นเรื่องใหญ่ ผู้จำหน่ายฮาร์ดแวร์ในท้องถิ่นของเรามีสิ่งนี้เป็นผลิตภัณฑ์มาตรฐาน - เห็นได้ชัดว่าสามารถผลักดัน 1400MB / s ไว้ในโหมดบันทึกภาพกล้องวงจรปิดซึ่งควรจะยากกว่าความต้องการสูงสุดของคุณ

(ลิงก์คือการกำหนดค่าเริ่มต้น 12GB แต่พวกเขาทราบว่า 20x4TB เป็นตัวเลือกเช่นกันไม่มีประสบการณ์ส่วนตัวกับเซิร์ฟเวอร์รุ่นนี้โดยเฉพาะ)


4
โดย "ผลิตภัณฑ์มาตรฐาน" คุณอ้างถึง "กล่องซอฟต์แวร์สีดำ" ที่มี 20 x 600gb sas 15k และ 3 x enterprise ssd มันเป็นข้อเสนอที่ยุติธรรมเราได้ผู้จำหน่ายฮาร์ดแวร์รายหนึ่งของเราที่คล้ายกัน แต่ค่าใช้จ่ายการออกใบอนุญาตสำหรับฉันมันบ้ามากสำหรับสิ่งที่โดยทั่วไปแล้วฟรี (ZFS) ขอบคุณสำหรับการแบ่งปันการสร้าง! (ลิงค์ที่ดี)
SvennD

2

การเขียนตามลำดับที่ 1100MB / s ไม่ใช่ปัญหากับฮาร์ดแวร์ที่ทันสมัย โดยปกติแล้วการตั้งค่าที่บ้านของฉันกับไดรฟ์แล็ปท็อป 8x5900 RPM, 2x15000 RPM ไดรฟ์และ 2x7200 RPM ไดรฟ์รักษา 300 MB / s ด้วย 16GB one-off payload

เครือข่ายคือ 10GbE พร้อมสายไฟเบอร์ 9000 MTU บนอีเธอร์เน็ตและชั้นแอปพลิเคชันคือ Samba 3.0 พื้นที่เก็บข้อมูลได้รับการกำหนดค่าใน RAID50 โดยมีสามแถบเหนือโวลุ่ม RAID5 4 ไดรฟ์สามตัว คอนโทรลเลอร์คือ LSI MegaRAID SAS 9271-8i ที่มีมากถึง 6Gb / s ต่อพอร์ต (ฉันมีตัวคูณพอร์ตเพิ่มเติมที่ช้ากว่า)

พูดคุยกับผู้ดูแลระบบที่มีประสบการณ์และพวกเขาควรจะสามารถบอกคุณได้อย่างแม่นยำว่าตัวควบคุมและไดรฟ์ใดที่จะตอบสนองความต้องการของคุณ

ฉันคิดว่าคุณสามารถลองกับคอนโทรลเลอร์ 12Gb / s และกำหนดค่าแถบมิเรอร์สองอันของไดรฟ์ 7200 RPM แปดตัว (แต่ละไดรฟ์ควรทำ) เริ่มต้นการเชื่อมต่อ TCP 3-4 เพื่อทำให้ลิงค์อิ่มตัวและถ้าการ์ด 10GbE คู่เดียวไม่สามารถจัดการได้ให้ใช้การ์ดสี่ใบ


2

บางสิ่งบางอย่างของแทนเจนต์ แต่ลองใช้ InfiniBand แทนการเชื่อมโยง 10GbE คู่ คุณสามารถรับการ์ด Infiniband 56Gbps ได้ค่อนข้างถูกหรือ 100Gbps สำหรับไม่มากเกินไปและบน Linux มันใช้ NFS กับ RDMA ผ่าน IB ได้ง่ายซึ่งจะทำให้คุณมีเวลาแฝงที่ต่ำมากและใกล้กับความเร็วของทฤษฏี จัดการกับมัน). คุณไม่จำเป็นต้องใช้สวิตช์การ์ด InfiniBand เพียงสองใบและสายเคเบิลต่อพ่วงโดยตรง (หรือสายไฟเบอร์ InfiniBand หากคุณต้องการระยะทางไกลกว่า)

การ์ด Mellanox 56Gbps แบบพอร์ตเดียว (8x PCIe 3.0) เช่น MCB191A-FCAT น้อยกว่า 700 bucks และสายเคเบิลต่อตรงทองแดงขนาด 2 เมตรมีความยาว 80 ดอลลาร์

ประสิทธิภาพการทำงานโดยทั่วไปจะระเบิด 10GbE ออกจากน้ำในทุกกรณีการใช้งาน ไม่มีข้อเสียนอกจากคุณจะต้องเข้าถึงเซิร์ฟเวอร์จากไคลเอนต์ต่าง ๆ มากมายที่ไม่สามารถใช้ InfiniBand ได้ทั้งหมด (และแม้กระทั่งสวิตช์ของ Mellanox สามารถเชื่อมต่อ 10GbE และ 40GbE ไปยัง IB ได้ แต่นั่นเป็นการลงทุนอีกเล็กน้อย แน่นอน).


1

การทำสิ่งนี้กับ ZFS เป็นไปได้อย่างไรก็ตามให้พิจารณาใช้ FreeBSD เนื่องจาก FreeBSD มีเครือข่ายที่เร็วกว่า สิ่งนี้จะช่วยให้อาจเป็น 100 GBit ในเครื่องเดียว

ดูเหมือนว่าจะมีมากถึง 1100 MBps แต่คุณสามารถทำได้โดยใช้ฮาร์ดไดรฟ์ปกติเท่านั้น คุณบอกว่าคุณต้องการพื้นที่ 75 TB ดังนั้นคุณสามารถใช้ harddrives 24 8 TB ในกระจกได้ สิ่งนี้จะทำให้คุณมีความเร็วในการเขียน 12x ของไดรฟ์เดียวและความเร็วในการอ่าน 24 x ไดรฟ์ เนื่องจากไดรฟ์เหล่านี้มีความเร็วในการเขียนมากกว่า 100 MBps จึงควรจัดการแบนด์วิดท์ได้อย่างง่ายดาย ตรวจสอบให้แน่ใจเป็นพิเศษว่าไม่ได้รับไดรฟ์ SMR เนื่องจากความเร็วในการเขียนช้าลงอย่างมาก

ZFS สร้างการตรวจสอบสำหรับทุกบล็อค สิ่งนี้ถูกนำไปใช้งานแบบเธรดเดียว ดังนั้นคุณควรมี CPU ที่มีอัตราสัญญาณนาฬิกาเร็วพอสมควรที่จะไม่บล็อก

อย่างไรก็ตามรายละเอียดการใช้งานที่แน่นอนนั้นขึ้นอยู่กับรายละเอียดอย่างมาก


12
"FreeBSD มีสแต็กเครือข่ายที่เร็วขึ้น" [ต้องการการอ้างอิง]
Jim Salter

เผง ลินุกซ์ค่อนข้างมีความสามารถ
ewwhite

1

เราได้รวบรวมข้อมูลการทิ้ง 10G NIC ไปยังคลัสเตอร์ Gluster ผ่านไคลเอนต์ฟิวส์ของพวกเขา ใช้เวลาปรับแต่งเล็กน้อยคุณจะไม่เชื่อเลยว่าประสิทธิภาพจะสามารถทำได้ตั้งแต่ 3.0

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.